Bu Üretken Yapay Zeka ChatGPT Hatalı ve Halüsinasyonlu Çıktıları Ortaya Çıkarmak ve Günlüğe Kaydetmek Herhangi Bir İşe Yarar mı?

Bir sır içindesin.

Evet, AI'daki en son gelişmeler hakkında bilmek isteyebileceğiniz perde arkasında gizlice devam eden bir şeyler var.

Bugünün sütununda, ChatGPT olarak bilinen bir yapay zeka uygulamasından çıktı alınan denemelerle ilişkili olduğu iddia edilen hataları ve diğer hastalıkları derlemek için son zamanlarda ortaya çıkan itici gücü inceleyeceğim. Bu özel uygulama, adı verilen bir yapay zeka türü kullanıyor. üretken yapay zeka. Üretken tabanlı yapay zeka ve ChatGPT hakkında muhtemelen dikkat çekici başlıklar duymuş veya görmüşsünüzdür. Haberler, bu özel AI uygulaması ve bu tür AI ile ilgili görünüşte şaşırtıcı yetenekler konusunda endişe verici.

Birazdan ele alacağım gibi, bazıları AI uygulamasının sizin için bir deneme oluşturduğunda ne tür hatalar veya hatalar üretebileceğinin bir listesini oluşturmamız gerektiğine inanıyor. Diğerleri, böyle bir liste fikri takdire şayan olsa da, bunun beyhude bir uygulama olduğunu ve çok az meyve vereceğini öne sürüyor.

Bu kin dolu tartışmanın her iki tarafını da inceleyeceğiz.

Öncelikle, Generative AI'nın nelerden oluştuğu ve ChatGPT'nin neyle ilgili olduğu konusunda hemfikir olduğumuzdan emin olalım.

ChatGPT, genel amaçlı bir yapay zeka etkileşimli konuşma odaklı sistemdir, temelde görünüşte zararsız bir genel sohbet robotudur, ancak yine de insanlar tarafından pek çok kişiyi tamamen hazırlıksız yakalayan şekillerde aktif ve hevesli bir şekilde kullanılmaktadır. Bu tür yapay zekayı kullanmak için yapmanız gereken tek şey bir bilgi istemi girmek ve yapay zeka uygulaması sizin için isteminize yanıt vermeye çalışan bir yazı oluşturacaktır.

Ne yazık ki, bu bir şekilde etik dışı veya sinsi şekillerde kullanılabilir. Özellikle çileden çıkaran bir endişe, öğrencilerin üretken tabanlı bir yapay zeka uygulamasını kullanarak kendilerine atanmış makaleleri üretebilmeleri ve bunu, uygulamayı doğru yöne getirmek için sadece bir veya iki cümle girerek yapabilmeleridir. Bazıları bunun, öğrencilerin ders dışında kompozisyon yazarken kopya çekmeyi tercih edecekleri anlamına geldiğinden yakınıyor. Öğretmenler ne yapacaklarını anlamaya çalışıyorlar, şu adresteki analizime ve önerilerime bakın: buradaki bağlantı.

ChatGPT'ye yönelik sürekli övgüye değer övgü gürültüsüne rağmen, insanların endişelenmesi gereken bazı dikkate değer sorunlar ve endişeler olduğuna dair, esas olarak AI çalışanları tarafından ifade edilen daha az bilinen bir endişe var. Çok önemli bir dezavantaj, bu yapay zeka uygulaması tarafından üretilen makalelerin, açıkça doğru olmayan gerçekler, yanıltıcı bir şekilde tasvir edilen gerçekler ve tamamen uydurma olan açık gerçekler dahil olmak üzere çeşitli yanlışlıklara sahip olabilmesidir. Bu fabrikasyon yönlere genellikle bir biçim olarak atıfta bulunulur. AI halüsinasyonları, sevmediğim ama ne yazık ki yine de popüler bir ilgi kazanıyor gibi görünen bir slogan (bunun neden berbat ve uygun olmayan bir terminoloji olduğuna dair ayrıntılı açıklamam için, şu adresteki kapsamıma bakın: buradaki bağlantı).

Bu konunun derinine inmeden önce önemli bir konuya açıklık getirmek istiyorum.

hakkında sosyal medyada çok büyük iddialar ortaya atıldı. üretken yapay zeka yapay zekanın bu son sürümünün aslında duyarlı yapay zeka (hayır, yanılıyorlar!). Yapay Zeka Etiği ve Yapay Zeka Hukuku alanındakiler, genişleyen iddiaların bu filizlenen eğilimi konusunda özellikle endişeli. Kibarca, bazı insanların bugünün yapay zekasının yapabileceklerini abarttığını söyleyebilirsiniz. Yapay zekanın henüz başaramadığımız yeteneklere sahip olduğunu varsayıyorlar. Bu talihsizlik. Daha da kötüsü, yapay zekanın harekete geçebilme konusunda duyarlı veya insan benzeri olacağı varsayımı nedeniyle kendilerinin ve diğerlerinin zor durumlara girmesine izin verebilirler.

AI'yı antropomorfize etmeyin.

Bunu yapmak, yapay zekanın yapamayacağı şeyleri yapmasını bekleme şeklindeki yapışkan ve asık suratlı bir güven tuzağına düşmenize neden olacaktır. Bununla birlikte, üretken yapay zekadaki en son gelişmeler, yapabilecekleri açısından nispeten etkileyici. Yine de, herhangi bir üretici AI uygulamasını kullanırken sürekli olarak aklınızda bulundurmanız gereken önemli sınırlamalar olduğunu unutmayın.

ChatGPT ve Generative AI hakkında hızla yayılan kargaşayla ilgileniyorsanız, sütunumda bilgilendirici bulabileceğiniz odaklanmış bir dizi yapıyorum. Bu konulardan herhangi birinin ilginizi çekmesi ihtimaline karşı bir göz atalım:

  • 1) Üretken Yapay Zeka İlerlemelerinin Yaklaşan Tahminleri. Üretken yapay zeka ve ChatGPT'de yaklaşan ilerlemeler de dahil olmak üzere, 2023 ve sonrasında yapay zeka hakkında neler ortaya çıkacağını öğrenmek istiyorsanız, şu adresteki kapsamlı 2023 tahminleri listemi okumak isteyeceksiniz: buradaki bağlantı.
  • 2) Üretken Yapay Zeka ve Akıl Sağlığı Önerileri. Şuradaki odaklanmış analizime göre, üretici yapay zeka ve ChatGPT'nin akıl sağlığı tavsiyesi için nasıl kullanıldığını incelemeyi seçtim; bu, zahmetli bir trend. buradaki bağlantı.
  • 3) Bağlam ve Üretken Yapay Zeka Kullanımı. Ayrıca, ChatGPT ve üretken AI'yı içeren Noel Baba ile ilgili bir bağlam hakkında mevsimsel olarak tatlandırılmış bir dille alaycı bir inceleme yaptım. buradaki bağlantı.
  • 4) Üretken Yapay Zeka Kullanan Dolandırıcılar. Uğursuz bir kayda göre, bazı dolandırıcılar, dolandırıcılık e-postaları oluşturmak ve hatta kötü amaçlı yazılım için programlama kodu üretmek de dahil olmak üzere yanlış yapmak için üretici yapay zekayı ve ChatGPT'yi nasıl kullanacaklarını anladılar, şu adresteki analizime bakın: buradaki bağlantı.
  • 5) Üretken Yapay Zeka Kullanan Çaylak Hataları. Pek çok insan üretken AI ve ChatGPT'nin yapabileceklerini hem aşıyor hem de şaşırtıcı bir şekilde altında kalıyor, bu yüzden özellikle AI çaylaklarının yapma eğiliminde olduklarına baktım, şu adresteki tartışmaya bakın: buradaki bağlantı.
  • 6) Üretken Yapay Zeka İstemleri ve Yapay Zeka Halüsinasyonlarıyla Başa Çıkma. Üretken yapay zekaya uygun istemler girmeye çalışmakla ilgili çeşitli sorunların üstesinden gelmek için yapay zeka eklentilerini kullanmaya yönelik öncü bir yaklaşımı açıklıyorum, ayrıca yapay zeka halüsinasyonlu çıktıları ve yanlışlıkları tespit etmek için ek yapay zeka eklentileri de var. kaplı buradaki bağlantı.
  • 7) Yapay Zeka Tarafından Üretilen Üretken Denemeleri Tespit Etmeyle İlgili Bonehead İddialarını Çürütmek. Herhangi bir makalenin yapay zeka tarafından mı yoksa insan tarafından mı üretildiğini tespit edebildiğini iddia eden yapay zeka uygulamalarında yanlış yönlendirilmiş bir altına hücum var. Genel olarak, bu yanıltıcıdır ve bazı durumlarda, kemik kafalı ve savunulamaz bir iddia, adresindeki kapsamıma bakın. buradaki bağlantı.
  • 8) Üretken Yapay Zeka Yoluyla Rol Oynama Ruh Sağlığı Dezavantajlarına Önem Verebilir. Bazıları, rol oynama yapmak için ChatGPT gibi üretken yapay zeka kullanıyor; bu sayede yapay zeka uygulaması, bir insana sanki bir fantezi dünyasında veya başka bir uydurma ortamda varmış gibi yanıt veriyor. Bunun zihinsel sağlık sonuçları olabilir, bkz. buradaki bağlantı.

İlgili temelleri öğrenmeniz için şimdi üretken AI ve ChatGPT'nin özünü tartışalım. Daha sonra, bu AI uygulamalarının potansiyel olarak oluşturabileceği yanlışlıkların derinlemesine bir analizine atlamaya hazır olacağız. Bu tür üretken yapay zekanın ürettiği şeyin doğasını somut bir şekilde kavramanıza yardımcı olacak ChatGPT'den yararlanmaya ilişkin birkaç örnek ekleyeceğim.

Üretken Yapay Zekada Solucan Kutusunu Açmak

AI hakkında bazı ayrıntılara dalmaya hazırız.

Üretken yapay zeka ve ChatGPT konusunda zaten çok bilgiliyseniz, noktalarıma kısaca göz atmayı ve bu tartışmanın bir sonraki bölümüne geçmeyi tercih edebilirsiniz. Diğer herkes için, bu açıklamayı yararlı bulacağınıza inanıyorum.

Kısaca, üretken yapay zeka, metni sanki insan eli ve zihni tarafından yazılmış gibi oluşturan belirli bir yapay zeka türüdür. Tek yapmanız gereken "Bana Abraham Lincoln'den bahsedin" gibi bir cümle girmek ve üretken yapay zeka size Lincoln hakkında bir makale sunacak. Bu genellikle performans gösteren üretici yapay zeka olarak sınıflandırılır. metinden metne ya da bazıları onu aramayı tercih ediyor metinden denemeye çıktı. Metinden resme ve metinden videoya gibi diğer üretici yapay zeka modlarını duymuş olabilirsiniz.

İlk düşünceniz, makaleler üretmek açısından bunun çok da önemli bir şey gibi görünmediği olabilir. İnternette kolayca bir çevrimiçi arama yapabilir ve Başkan Lincoln hakkında tonlarca makale bulabilirsiniz. Üretici yapay zeka durumunda önemli olan, oluşturulan makalenin nispeten benzersiz olması ve bir kopyadan ziyade orijinal bir kompozisyon sağlamasıdır. Yapay zeka tarafından üretilen makaleyi çevrimiçi olarak bir yerde bulmaya çalışırsanız, onu keşfetmeniz pek olası değildir.

Üretken yapay zeka önceden eğitilmiştir ve web'deki yazılı kelimelerdeki ve hikayelerdeki kalıpları inceleyerek oluşturulmuş karmaşık bir matematiksel ve hesaplamalı formülasyondan yararlanır. Yapay zeka, binlerce ve milyonlarca yazılı pasajı incelemesinin bir sonucu olarak, bulunanların bir karışımı olan yeni denemeler ve hikayeler çıkarabilir. Çeşitli olasılıksal işlevler eklendiğinde, ortaya çıkan metin, eğitim setinde kullanılanlara kıyasla oldukça benzersizdir.

Bu nedenle, öğrencilerin sınıf dışında kompozisyon yazarken kopya çekebilmeleri konusunda bir yaygara koptu. Bir öğretmen, düzenbaz öğrencilerin kendi yazıları olduğunu ileri sürdükleri makaleyi alıp başka bir çevrimiçi kaynaktan kopyalanıp kopyalanmadığını bulmaya çalışamaz. Genel olarak, yapay zeka tarafından oluşturulan denemeye uyan, çevrimiçi olarak önceden var olan kesin bir makale olmayacak. Sonuç olarak, öğretmen, öğrencinin denemeyi orijinal bir eser olarak yazdığını gönülsüzce kabul etmek zorunda kalacaktır.

Birazdan, üretken yapay zekaya sorular veya istemler girdiğinizde neler olduğunu size göstereceğim. Bilgi istemlerimi girmek için ChatGPT'nin en son sürümünü kullanacağım ve yapay zeka tarafından oluşturulan "yanıtları" veya denemeleri toplayacağım (aynısının mevcut diğer çok sayıda üretici yapay zeka uygulamasıyla da yapılabileceğini unutmayın; kullanmayı seçtim ChatGPT çünkü şu anda beş dakikalık ününü alıyor).

Belki de bu noktada ChatGPT hakkında kısa bir bilgi vermek faydalı olabilir.

ChatGPT uygulaması, yalnızca birkaç ay önce genel kullanıma sunuldu. Genel olarak, bu üretken AI uygulamalarına genellikle yalnızca AI içerdeki kişiler tarafından erişilebilir. ChatGPT'nin herhangi biri tarafından sadece bir e-posta adresi ve bir ad girerek kullanılabilmesinin alışılmadık yönü, pek çok kişinin bunu denemeye karar vermesine yol açtı. ChatGPT'nin kullanımı şu anda ücretsizdir (para kazanma sorunu, yapay zeka üreticileri için yaklaşan bir ikilemdir).

İnsanlar üretken yapay zekanın neler yapabileceğine dair örnekler vermek için yarışırken, neredeyse anında sosyal medyada büyük bir tepki oluştu. ChatGPT'yi yapan şirket OpenAI, bir milyon kullanıcı için kayıtları kapatmayı seçti. Bu milyon kullanıcı, ChatGPT'yi kullanmayla ilgili her türlü hikaye ve hikayeyle hava dalgalarını bombalamayı başardı.

İnsanların AI uygulaması hakkında söyleyeceklerine inanırken çok dikkatli olun. Bu insanların çoğu ne kullandıkları hakkında hiçbir fikri yok. Sanki hiç araba kullanmamışlar ve arabaların var olduğunun farkında bile değiller ve birdenbire araba kullanma şansları olmuş gibi. Büyük bir şaşkınlık başlar.

Üretken yapay zekanın nispeten etkileyici olmadığını söylemiyorum. Bu. Sadece, fışkıran referansların çoğunun, bugünün yapay zekasının neler yapabileceğinden mutlulukla habersiz olan birçok kişi tarafından yapıldığının altını çiziyorum. AI'nın içindeki bizler, son birkaç yıldır üretken AI kullanıyoruz. Belki de alıştık. Birdenbire, onu çatılara çıkaran büyük bir insan kalabalığını görmek heyecan verici bir şekilde enerji verici ama aynı zamanda biraz rahatsız edici oldu. Rahatsız edici kısım, insanların üretici yapay zekanın duyarlı olduğunu ilan etmesidir. O değil. Kimsenin sizi aksi yönde ikna etmesine izin vermeyin.

Bununla birlikte, üretken yapay zekanın duyarlılığa giden yolda olup olmadığı veya olmayabileceği konusunda yapay zeka alanında devam eden hararetli bir tartışma var. Bir görüş, üretken yapay zekayı daha hızlı bilgisayarlarla ve İnternet'in her santimini taramak gibi daha büyük miktarda veriyle ölçeklendirmeye devam edersek, neredeyse kendiliğinden duyarlı yapay zekaya ulaşacağımızdır. Diğerleri bunun pek olası olmadığını savunuyor. Üretken yapay zekanın ihtiyaç duyulan birçok bileşenden biri olabileceğini öne sürüyorlar. Üretken yapay zekanın, duyarlı yapay zekaya ulaşmak için ihtiyaç duyacağımız gerçek atılımlardan bizi uzaklaştıran bir yan gösteri olduğuna dair daha kasvetli bir görüş bile var.

Ayrıca, yapay zeka içerdekilerinin atıfta bulunma eğiliminde olduğu kayda değer bir şey de bulabilirsiniz. Yapay Genel Zeka (AGI) AI alanı için ilham verici bir hedef olarak. Eskiden amaç ulaşmaktı Yapay Zeka, ancak AI lakabı sulandı ve bulandı. Birisi yapay zeka işi yaptığını söylediğinde, günümüzün insanlarla aynı seviyede olmayan yapay zekasını mı kastettiğini yoksa fütürist bir insan eşdeğeri yapay zekasını mı kastettiğini bilmiyorsunuz. Bu çileden çıkaran kafa karışıklığının üstesinden gelmek için, bugünlerde AGI'nin daha yeni ifadesi kullanılıyor.

Sonuç olarak, bugünün üretken yapay zekası değil duyarlı, ne de AGI.

Lütfen daha önce tartışıldığı gibi, AI'nın duyarlı olmadığını unutmayın. AI tarafından üretilen yanıtlar, görünüşte akıcı pasajlar halinde kelimelerin matematiksel ve hesaplamalı bir kombinasyonudur. Bu, insanların yazdığı (temel olarak internette yayınlandığı şekliyle) kelime ve öykülerin veri kümeleri üzerinde eğitilmiş yapay zeka algoritmasına dayanmaktadır. Bu uyarıyı tekrar ediyorum çünkü bu tepkilerin o kadar akıcı olduğu ve yapay zekanın bilinçli olması gerektiği şeklindeki zihinsel tuzağa kesinlikle düşeceksiniz. Bu çoğu insanın başına gelir. Daha önce ısrarla söylendiği gibi, insanlaştırmayı bir kenara bırakın. Yanıtların internette var olan geniş insan yazı hazinesine dayandığını ve bu nedenle insan yazısına oldukça benzeyeceğini her zaman unutmayın.

Bilmen gereken başka bir şey daha var.

İnternette sınırsız bir şekilde eğitilen üretken yapay zeka, itici derecede çirkin ifadeler de dahil olmak üzere bazı saldırgan derecede puslu şeyleri matematiksel ve hesaplamalı olarak uydurduğu metin tabanlı yanıtları pişirme eğiliminde olacaktır. Web'de yayınlanan bir sürü çılgınca ve pis şey var.

Gördün, ne demek istediğimi biliyorsun.

Bu AI uygulamalarını hazırlayan şirketler, meşhur bebeğin banyo suyuyla birlikte atılacağından (eski bir söz, belki de emekliye ayrılacak) endişeleniyorlar; AI hakkında. Bu tür Doğal Dil İşleme (NLP) AI uygulamalarının ortaya çıktığı ve çok geçmeden bunlardan her türlü korkunç şeyin çıktığı önceki birçok örneği ele aldım (bu örnekleri köşemde ele aldım). AI üreticilerinin çoğu, AI ürünlerinin çıktılarında serbest kalmasına izin verme konusunda zor bir ders aldı.

ChatGPT söz konusu olduğunda, yapay zeka geliştiricileri, yapay zekanın çıktılarındaki pisliği engellemek için bazı algoritmik ve verilerle ilgili kontroller ve dengeler uygulamaya çalıştı. Bunun bir kısmı eğitim sırasında meydana geldi. Buna ek olarak, gerçek zamanlı bir girişimde özellikle korkunç çıktıların önüne geçmenin başka yolları da vardır.

ChatGPT'yi kullanmış olan bazı kişilerin, çeşitli hilelerden yararlanarak bu korkulukları aşmanın el altından yollarını bulması ilginizi çekebilir. Bu konularda süregelen bir kedi-fare oyunu oynanır. Bu hileleri yapanlar bazen eğlenmek için yapıyorlar, bazen de (en azından iddia ediyorlar) yapay zekanın ne kadar esnetilebileceğini görmek ve bu tomurcuklanmanın kırılganlığını ve zayıflıklarını önceden uyarmak için yararlı bir araç sağlıyorlar. AI uygulamaları.

Bu odaklanmış keşifte alışılagelmiş kontrolleri atlatmaya çalışmamaya karar verdim. Metin çıktısı temiz. Elbette, eğer biri bunu yapmak isterse, şüphesiz bazı tuhaf ve nahoş makaleler üretilebilir.

Bu üretken AI uygulamalarının çoğu tarafından üretilen makaleler, çıktıyı tamamen olgusal ve doğruymuş gibi iletmek için tasarlanmıştır. Üretilen makaleleri okuduğunuzda, tamamen kendinden emin görünüyorlar. Genellikle içeriğin sert olabileceğine dair herhangi bir belirti yoktur. Bu, AI üreticilerinin seçimine bağlıdır, yani AI uygulamasının bunu yapmasını isterlerse AI uygulamalarını daha şeffaf olacak şekilde revize edebilirler.

Bazen, üretken bir yapay zeka uygulaması, İnternet'teki güvenilir olmayan bilgilerin eğitim verileri arasında yanlışlıkları yakalar. Neyin doğru neyin yanlış olduğunu belirlemek için üretici yapay zekada "sağduyu" yoktur. Ayrıca, çok az sayıda AI uygulamasında herhangi bir çapraz kontrol vardır ve ilettikleri şeyle ilgili herhangi bir olasılık göstermezler.

Sonuç olarak, büyük bir güvence veriyormuş gibi görünen ve hissedilen ve tamamen doğru olması gereken bir yanıt alırsınız. Öyle değil. Yapay zeka tabiriyle buna yapay zeka olarak adlandırılan, yapay zekanın hesaplamalı olarak oluşturulmuş bir şey olma şansı bile vardır. AI halüsinasyonları (kesinlikle sevmediğim türetilmiş bir terim), şu adresteki tartışmama bakın: buradaki bağlantı.

ChatGPT'nin yapımcıları, kötü ürün çıktılarını azaltmak için ortak bir çaba gösterdi. Örneğin, olarak bilinen şeyin bir varyantını kullandılar. RLHF (İnsan Geri Bildiriminden Güçlendirmeli Öğrenim), bu sayede yapay zekayı halka yayınlamadan önce, çeşitli çıktıları incelemek ve bu çıktılarda yanlış olan şeyler olup olmadığını yapay zekaya belirtmek için insanlar tuttular; örneğin önyargıları, küfürleri ve beğenmek. AI uygulaması, bu geri bildirimi sağlayarak, bu tür içeriğin yayılmasını azaltmak için hesaplamalı ve matematiksel olarak ayarlama yapabildi. Bunun garantili bir zırhlı yöntem olmadığını ve bu tür içeriğin AI uygulaması tarafından yayılmasının hala yolları olduğunu unutmayın.

ChatGPT'nin, GPT-3 olarak bilinen önceki bir yapay zeka uygulamasının bir sürümüne dayalı olduğunu ilginizi çekebilir. ChatGPT, GPT-3.5 olarak adlandırılan bir sonraki adım olarak kabul edilir. GPT-4'ün büyük olasılıkla 2023 İlkbaharında piyasaya çıkması bekleniyor. Muhtemelen GPT-4, görünüşte daha akıcı makaleler üretebilmek, daha derine inmek ve hayranlık uyandırmak açısından ileriye doğru etkileyici bir adım olacak. - üretebileceği kompozisyonlar konusunda ilham verici bir mucize.

İlkbahar geldiğinde ve üretken yapay zekadaki en son sürüm piyasaya sürüldüğünde, yeni bir ifade edilmiş merak turu görmeyi bekleyebilirsiniz.

Bunu gündeme getirdim çünkü akılda tutulması gereken başka bir açı var, bu daha iyi ve daha büyük üretken AI uygulamaları için potansiyel bir Aşil topuğu. Herhangi bir yapay zeka satıcısı, köpüklü bir şekilde pislik yayan üretken bir yapay zeka uygulaması sunarsa, bu, yapay zeka üreticilerinin umutlarını boşa çıkarabilir. Toplumsal bir yayılma, tüm üretken yapay zekanın ciddi bir kara göze çarpmasına neden olabilir. İnsanlar, şimdiye kadar birçok kez meydana gelen ve AI'ya yönelik şiddetli toplumsal kınama tepkilerine yol açan hatalı çıktılara şüphesiz oldukça üzüleceklerdir.

Şimdilik son bir ön uyarı.

Üretken bir AI yanıtında gördüğünüz veya okuduğunuz her şey görünüyor tamamen olgusal (tarihler, yerler, insanlar vb.)

Evet, tarihler uydurulabilir, yerler uydurulabilir ve genellikle kusursuz olmasını beklediğimiz unsurlar herşey şüphelere tabidir. Okuduğunuza inanmayın ve herhangi bir üretici yapay zeka makalesini veya çıktısını incelerken şüpheyle bakın. Üretken bir AI uygulaması size Abraham Lincoln'ün kendi özel jetiyle ülke çapında uçtuğunu söylerse, bunun sıtma olduğunu şüphesiz anlarsınız. Ne yazık ki, bazı insanlar onun zamanında jetlerin olmadığını fark etmeyebilirler veya makalenin bu cüretkar ve son derece yanlış iddiada bulunduğunu bilip de fark etmeyebilirler.

Güçlü bir dozda sağlıklı şüphecilik ve ısrarcı bir inançsızlık zihniyeti, üretken yapay zekayı kullanırken en iyi varlığınız olacaktır.

Bu açıklamanın bir sonraki aşamasına geçmeye hazırız.

Bu ChatGPT Çıktı Hatalarını Günlüğe Kaydetme Çabaları

Klasik Broadway müzikalinin ünlü dizesi, "Pekala, başın belada dostum, tam burada, derdim, tam burada, River City'de," diyor. Music Man.

Aynı satır bugünün Üretken Yapay Zekası için de geçerli olabilir.

İnsanlar, üretken bir yapay zeka uygulamasının yanlışlar üretebileceğini fark etmeye başladı ve bu rahatsız edici çıktılara gerçekten şaşırmış göründü. Belki bazıları yapay zekanın hata yapamayacağını varsaymıştır. Diğerleri, AI geliştiricilerinin bu tür çıktıların üretilmemesini sağlayacağını tahmin etmiş olabilir.

Her halükarda, yapay zeka uzmanları, bu tür hatalı çıktıların günümüzün üretken yapay zekasının çoğunun bulunduğu yerin bir parçası olduğunu hemen fark ettiler. Bu tür metin hatalarının oluşmasını önlemek çok zordur. Yapay zekanın hiçbir sağduyuya sahip olmadığını ve oluşturulan makaleleri türetirken kendi başına mantık kullanmadığını unutmayın. Tüm kit-and-caboodle, kelimelerin diğer kelimelerle bir hesaplamalı istatistiksel ve olasılıksal model eşleştirmesi yapmakla ilgilidir.

İlk başta, AI çalışanları, ChatGPT'nin keşfedilen ilginç çıktılarını sosyal medya sitelerine göndermeyi seçti. Şuna bak, biri anons ederdi. Bu kötü, bir başkası yanıt verir ve sonra daha da kötü görünen farklı bir örnek önerirdi. Bu devam etti ve gitti.

Çıktısı alınan denemelerdeki bu yanlışlık ve hata örnekleri akıyordu. Tek tek. Ayrıca, bu genellikle sosyal medyada yayınlandığından, hepsini aynı anda görmenin özellikle kolay bir yolu yoktu. Çoğu zaman, aynı veya benzer bir örnek, başkalarının belirli bir örneği zaten bulduğunu fark etmemiş biri tarafından yayınlanırdı.

Yararlı bir öneride bulunanlar bu tomurcuklanan bataklığa adım attı. Belki de ortaya çıkarılan ChatGPT tuhaflıklarını ve hatalı çıktıları içeren bir havuz veya veritabanı, hatta belki de sadece günlük sıradan bir e-tablo oluşturmalıyız. Ne zaman birisi gülünecek kadar güzel bir şey bulsa, devam edin ve onu listeye kaydedin. Bazıları bunu neredeyse bir oyuna dönüştürdü, burada kasıtlı olarak ChatGPT'nin garip çıktıları öksürmesini sağlamaya çalışıyorlar. Diğerleri, ChatGPT'yi belirlenen başka amaçlar için kullanırken şans eseri hatalı çıktılarla karşılaşırlar.

Yeterince basit geliyor.

Hepimize yardım etmek için kullanışlı ve züppe bir yol gibi görünüyor.

ChatGPT'nin gözlemlenen çıktı hataları veya yanlışlıkları hakkında bu tür listelere sahip olmanın derlemenin neden çok anlamlı olduğuna dair kısa bir açıklama yapalım:

  • 1) ChatGPT ile ilgili olarak, genel olarak halkın bilmesi gereken hayati sorunları ve endişeleri ortaya çıkarır
  • 2) ChatGPT ile ilgili aşırı yutturmaca ve şişirilmiş beklentileri dengelemeye yardımcı olur
  • 3) AI üreticilerini yalnızca ChatGPT için değil, diğer üretken AI uygulamaları için de iyileştirmeler yapmaya teşvik edebilir
  • 4) ChatGPT aracılığıyla örneklendiği gibi, üretken yapay zekanın ortaya çıkışı hakkında sonradan fikir edinmek için kullanılabilecek tarihsel bir kayıt olarak hizmet edin
  • 5) ChatGPT hatalı çıktılarıyla ilgili olarak ne saptadığımızı öğrenmek isteyen herkes için uygun bir toplu kaynak olun
  • 6) ChatGPT'nin etkilerini inceleyen tüm disiplinlerdeki araştırmacılar için kullanışlıdır
  • 7) Ne yapılmaması gerektiğine ve üretken yapay zekanın işleri gerektiği gibi yapmadığı zaman nasıl ölçüleceğine dair bir ölçüt olarak kullanılabilir
  • 8) ChatGPT'nin ürettiği hatalar hakkında kalabalığın bilgeliğini toplamak için kovan zihninden yararlanır;
  • 9) AI Etiği ve AI Hukuku için önemli bilgiler sağlayabilir
  • Vb

Bu, bu depoları oluşturmak için etkileyici bir temel gibi görünüyor.

Bu tamamen övgüye değer ve görünüşte kahramanca eyleme kim neden karşı çıksın?

Bunun kedinin miyavlaması olmayabileceği nedenlerin bir listesiyle başkalarının bu konuda söylediklerine bir göz atalım:

  • 1) Tesadüfen bulunan bu çıktı hataları, olayların büyük şemasında önemsizdir ve değerlerinin ötesinde aşırı ağırlık verilmektedir.
  • 2) Yapay zeka oluşturucu, ChatGPT'yi zaten kendi günlüğe kaydetme ve güncelleme işlemlerini yapıyordur; öyle ki, bu garip örnekler kısa süre içinde toz içinde kalacak ve artık meydana gelmeyecektir.
  • 3) Aynı şekilde, bir sonraki sürüm muhtemelen zaten daha iyi olacak ve artık bu yakında güncelliğini yitirecek örnekleri sergilemeyebilir.
  • 4) Vur ya da ıskala faul olaylarından oluşan gelişigüzel bir koleksiyondan herhangi bir kapsayıcı sonuca varamaz veya fikir edinemezsiniz.
  • 5) Bazıları, üretken yapay zekanın kötü olduğunu ve bu tür yapay zekanın peşinden koşmayı bir an önce durdurmamız gerektiğini dramatik bir şekilde beyan etmek için çeşitli koleksiyonları kullanabilir.
  • 6) Üretken yapay zeka ve ChatGPT'nin ilerleme hızı o kadar hızlı ki, bu bulut sunucuları hızla rafa kaldırılacak ve artık alakalı olmayacak
  • 7) Devam etmekte olan bu tür çok sayıda toplu liste ve tek bir kutsanmış küresel kaynak olmaması nedeniyle, konu kopuktur ve muhtemelen tekrarlar içerecektir ve savunulamaz bir şekilde parçalanmış olacaktır.
  • 8) Yararlı bir şey yapıyormuş gibi yanlış bir his uyandırır, oysa belki de zaman ve dikkat başka daha iyi amaçlara harcanabilir.
  • 9) Yapay Zeka Etiği ve Yapay Zeka Yasası için somut hiçbir şey sağlamaz
  • Vb

Toplu listeler lehine dokuz neden ve aleyhte dokuz neden belirterek durumu dengede tutmaya çalıştığımı fark etmişsinizdir. Daha sayılabilecek nedenler var ama yukarıdaki işaretin işin özünü verdiğine inanıyorum.

Bu toplu listeleri bir araya getirenler için, eğer gerçekten bunu yapmak isterlerse, dünyanın özgür olduğunu ve canlarının istediğini yapabileceklerini söyleyeceklerdir. Bunda yanlış bir şey yok. Çabayı beğenmeyenler genellikle önemsizdir ve koleksiyonları görmezden gelmeleri gerekir. Kendi işine bak.

Esasen, zarar yok, faul yok.

Toplu listelerden hoşlanmadığı görülen kamp, ​​​​genel olarak, başkalarının da isterlerse bu listeleri yapabileceğini, ancak iğneyi hareket ettirmediğini kabul eder. Listeler özellikle yardımcı olmayacak. Daha da kötüsü, listeler yanlış sunulabilir veya kötüye kullanılabilir. Muhtemelen bir gün aramak ve listeleri yapmayı bırakmak en iyisidir.

Aslında, boşuna bir egzersiz olsa da, güzel bir denemedir.

Bu içten tartışmanın neresinde oturuyorsunuz?

Bunu düşünmene izin vereceğim.

Bulunan Hatalara ve ChatGPT'nin Diğer Faul Çıktılarına Örnekler

Bu koleksiyon listelerinde görünen bazı çıktı hatalarının veya yanlışlıkların ilginizi çekebileceğini düşündüm.

Burada gösterilen çeşitli örneklerin koleksiyonların tamamı olduğunu düşünmenizi istemiyorum. O değil. Ben sadece sık sık ortaya çıkan bir avuç seçiyorum. Listelenenlerin en azından genel olarak tonunu ve doğasını kavrayabileceğinize inanıyorum.

İşte kapsamayı seçtiğim şey:

  • Bir Kelimedeki Harf Konumunu Belirleme
  • En Hızlı Hayvan Hakkında Soru
  • Kelime Dizisi Konumunu Bulma
  • Tenis Toplarını Tüpe Yerleştirme
  • Pi'nin Belirlenmesi
  • Klasik Sorunlu Bir Bilmeceyi Cevaplamak
  • Tüy Kaldırma

Koleksiyon gözetmenlerinden bazılarının sizin için daha fazla örnek vermediğim için üzüleceğini tahmin ediyorum. Alan kısıtlamaları nedeniyle, ancak kapsayabileceğim çok fazla şey var. İnternette açık bir şekilde yayınlanan koleksiyon listelerine bir göz atmak isterseniz, basit bir çevrimiçi arama birçoğunu karşınıza çıkarabilir. Listelerden bazıları gizli tutuluyor veya listeyi görebileceğiniz ancak listede değişiklik yapamayacağınız şekilde kilitleniyor.

Bu arka planla, bazı örneklere atlamaya hazırız. Size girdiğim istemi göstereceğim. Ardından, ChatGPT tarafından üretilen metin yanıtını gösteriyorum. Bazı durumlarda, belirli bir konuda birkaç arka arkaya yaptım, bu nedenle bir dizi istem ve çıktıyı buna göre göstereceğim. Bunu yaptıktan sonra, örnekle ilgili dikkatinizi çekebilecek şeylerin kısa bir analizini yapacağım.

İlk örnek, ChatGPT'den sağlanan bir kelime içinde bir harf bulmasını istemeyi gerektirecektir.

Bir Kelimedeki Harf Konumunu Belirleme

  • Girdiğim Metin: “Çevrede V harfi nerede”
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: "V" harfi "çevre" kelimesinde görünmez. Çevre kelimesi e, n, v, i, r, o, n, m, e, n ve t harflerinden oluşur.
  • Girdiğim Metin: “Çevrede v harfi nerede”
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “V” harfi, “çevre” kelimesinin 4. harfidir.

Oluşturulan Metnin Analizi

ChatGPT'den "ortam" kelimesindeki "V" harfinin harf konumunu belirlemesini isteyerek başladığıma dikkat edin - bu son derece basit bir görev olmalı ve kusursuz bir şekilde gerçekleştirilmesini bekleriz. Roket bilimi dahil değildir.

"Environment" kelimesinde "V" harfinin bulunmadığı bilgisi bize verildiği için ChatGPT tarafından oluşturulan ilk yanıt biraz endişe verici. Sen ve ben böyle bir mektubun mevcut olduğunu biliyoruz. Muhtemelen büyük harf kullanmamdan dolayı AI uygulamasının bir şekilde atıldığını varsayar. Belki küçük harf kullanırsam AI uygulaması daha iyi sonuç verir.

Pek sayılmaz.

Kelimede "v" olup olmadığını sorduğumda, AI uygulaması bunun dördüncü harf olduğunu, sizin ve benim bildiğimizin yanlış olduğunu ve bunun yerine üçüncü harf olduğunu belirterek yanıt verdi.

Pek çok kişinin bu sonuca şaşırması kaçınılmazdır. Abraham Lincoln hakkında tamamen akıcı ve orijinal olan eksiksiz denemeler üreten bir AI uygulaması, belirli bir harfin belirli bir kelimede nerede olduğunu bir şekilde anlayamayabilir mi? Şaşırtıcı ve ağzı açık bir şekilde garip.

Bir bakış açısı, bunun tamamen önemsiz olduğu ve bildiğimiz şekliyle dünyanın, belirli bir mektubun nerede oturduğunu anlamadaki cimri bir eksiklik nedeniyle özünde sallanmadığıdır. Bırak gitsin.

Başka bir bakış açısı, bunun henüz bilmediğimiz diğer gizli sorunlara işaret edebileceğidir. Belki de bu tür bir çıktı kuş kafesindeki kanaryadır. Kendimizi gerçekten büyük şeylerin yanlış tarafında bulabileceğimiz diğer küçük şeyleri tespit etsek iyi olur.

Devam ederek, hayvanlar hakkında bir soru soruyorum.

En Hızlı Hayvan Hakkında Soru

  • Girdiğim Metin: "Kürkü ve kanatları olan en hızlı hayvan hangisidir?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: "Alaca şahin dünyanın en hızlı hayvanı olarak kabul edilir. Avını yakalamak için dalarken 389 km/s (242 mph) üzerindeki hızlara ulaşabilir. Tüyleri var ama kürkü yok. Kürklü ve kanatlı bir hayvan değil, bir kuştur.”

Oluşturulan Metnin Analizi

Tüyleri ve kanatları olan en hızlı hayvan hangisidir diye sordum. Her iki kürkü de olan bir hayvana sahip olmak istediğim sonucuna varmanın makul olduğuna inanıyorum. ve kanatlar. Sorgumu bu şekilde yorumlayacağını varsayıyorum. Çoğu insan yapardı.

ChatGPT'nin yanıtı biraz garip.

Bize alaca şahinin dünyanın en hızlı hayvanı olduğu söylendi. çevrimiçi göre Britanika Ansiklopedisi, çita dünyanın en hızlı hayvanı gibi görünüyor. Bununla birlikte, en hızlı hayvanın ne olduğunu sormuş olmama rağmen, ChatGPT yanıtı alaca şahinin bir hayvan olmadığını gösteriyor. ChatGPT yanıtı ayrıca bana alaca şahinin kürkünün olmadığını söylüyor, ancak ben hem kürkü hem de kanatları olan bir şey istediğime inanıyorum.

Sonuç olarak, ChatGPT'nin talebimi "yanlış yorumladığı" ve yalnızca kanadın yönlerine odaklandığı görülüyor. Ancak yanıtta kürk ve kuşlara karşı hayvanlar hakkında bir yorum da yer aldığından bu pek doğru gelmiyor. Yuvarlak ve yuvarlak bu bir gider.

Bunun titiz bir örnek olduğunu iddia edebileceğinizin farkındayım.

Belki öyle, ancak belki de bir bilgi isteminde söylediklerinizin alt üst olabileceğini ve çıktıda çıkanları gözden geçirirken dikkatli olsanız iyi olur. Uzunluğu çok kısa olduğu için, bunun hemen incelemek için olağanüstü derecede kısa bir deneme yanıtı olduğunun farkına varın. Özellikle uzun ve son derece teknik bir makaleniz varsa, çıktı alınan yanıtın derinliklerine gömülü olumsuz bir belirtiyi fark edemez veya tamamen gözden kaçırabilirsiniz.

Şimdi bir cümle içinde kelime bulmaya bir göz atalım.

Kelime Dizisi Konumunu Bulma

  • Girdiğim Metin: “Tilki çitin üzerinden atladı” cümlesindeki üçüncü kelime nedir?
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Cümledeki üçüncü kelime “Tilki çitin üzerinden atladı.” "tilki"
  • Girdiğim Metin: “Sağlanan cümlede kaç kelime var?”
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: ““Tilki çitin üzerinden atladı” cümlesinde altı kelime var.
  • Girdiğim Metin: "Bu cümlede hangi kelime üçüncü?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Tilki çitin üzerinden atladı.” cümlesindeki üçüncü kelime. "atladı"

Oluşturulan Metnin Analizi

Bu örnek, belirli bir kelimede "v" harfini bulmayla ilgili önceki örnek kadar neredeyse aldatıcıdır.

Basit bir cümle verdim ve üçüncü kelimenin ne olduğunu sordum. ChatGPT, cümlenin yalnızca ikinci kelimesi olan "tilki" kelimesinin olduğunu belirtti. Yanlış cevap. Daha sonra cümlede kaç kelime olduğunu sordum ve ChatGPT'nin kaç kelime olduğunu yanlış hesaplayıp hesaplamadığını öğrenmek istedim. Bize doğru olarak altı kelime olduğu söylendi.

Sonunda, biraz yeniden ifade edilmiş olsa da asıl sorumu tekrar sorduğumda üçüncü kelimeyle ilgili doğru cevabı aldık.

Bu örneği, bazen üretici yapay zeka ile yanlış bir yanıt alabileceğinizi ve bunun sonunda yapay zeka uygulamasında bir dizi bilgi isteminde ilerleyerek doğru cevaba dönüşebileceğini göstermek için getirdim. Bazı yapay zeka uzmanları buna bir tür sesli düşünme protokolü ya da düşünce treni bir insanla aynı şeyi yapabileceğiniz bir yaklaşım.

Yapay zeka söz konusu olduğunda, onun insan düşüncesiyle aynı görünüşte "düşünmediğini" anlayın. Daha uygun ifade, bilgi istemlerinizi bir adım adım temel almak veya yapmak zincir bağlantılı bilgi istemleri dizisi.

Her neyse, ilginç bir şekilde, bazen uygun bir yanıt alana kadar üretken bir yapay zeka uygulamasında yürümek işe yarar. Bunu aklında tut.

Daha sonra biraz basit aritmetik mantığa bir göz atacağız.

Tenis Toplarını Tüpe Yerleştirme

  • Girdiğim Metin: "Dört tenis topu alabilen bir tüpün içine üç yeşil tenis topunu ve iki sarı tenis topunu koyabilir misin?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Hayır, sadece dört tenis topu alabilen bir tüpe üç yeşil tenis topunu ve iki sarı tenis topunu koymak mümkün değil. Tenis toplarının toplam sayısı, tüpün kapasitesinden daha fazla olan beştir.”
  • Girdiğim Metin: "Yedi mavi top ve iki kırmızı topu sekiz top içeren bir tüpe koyabilir misin?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Evet, içinde sekiz top olan bir tüpe yedi mavi, iki kırmızı top koymak mümkün. Toplam bilye sayısı, tüpün kapasitesinden küçük veya ona eşit olan dokuzdur.”

Oluşturulan Metnin Analizi

ChatGPT'nin çözmesi için aritmetik odaklı bir mantık problemi oluşturarak başladım. Bir tüp dört tenis topu içerebilir. Bende üç yeşil ve iki sarı var. Hepsi tüpe sığacak mı? Yapmayacaklarını sen ve ben biliyoruz. Toplamda beş tenis topunun olduğunu ve dolayısıyla sadece dört topun olduğu bir tüpe sığmayacaklarını kafamızdan hesaplayabiliriz.

Sorunla mücadele etmek isteyebileceğinizi ve tenis toplarını ezebileceğinizi veya başka hileler yapabileceğinizi iddia edebileceğinizi anlıyorum. Burada biraz rahatlayalım ve sorunla olduğu gibi yüzleşelim.

ChatGPT cevabı doğru buldu.

Daha sonra aynı türden bir soru sordum ve renkleri mavi ve kırmızı olarak değiştirdim. Ayrıca her birinden kaç tane olduğunu değiştirdim ve tüpe kaç tane sığabileceğini değiştirdim.

ChatGPT düzeltici matematiğe geri dönmek zorunda çünkü dokuz top olduğunu ve bunun sekizi tutan tüpün kapasitesinden küçük veya ona eşit olduğunu söylüyor. Gözlerini devirir.

Omuz silkip bunu güneş lekesi parlamalarına veya diğer dışsallıklara mı bağlayalım?

Öyle düşünmüyorum. AI uygulaması ilk soruyu doğru yaptı. Muhtemelen, buna benzer bir soru da almalıydı. Yapmadım.

Bu örneğe vurgu yapmak istediğim şey, pek çok kişinin üretici yapay zeka kullandığı ve bir doğru yanıt veya bir dizi doğru yanıt aldıklarında, sonraki tüm yanıtların her zaman doğru olacağına inanmaya kapıldıkları. Bu küstah varsayımda yanılıyorsun. Bu varsayımı yapmayın. Her zaman tetikte ol.

Matematikten bahsetmişken, ChatGPT'nin pi'nin doğası hakkında ne söylediğine bakalım.

Pi'nin Belirlenmesi

  • Girilen Metnim: "Pi'nin son beş basamağının ne olduğunu belirtin"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Ben bir dil modeliyim ve bilgi sınırım 2021. Pi'nin değeri irrasyonel bir sayıdır ve ondalık gösterimi tekrar etmeden sonsuza kadar devam eder. Pi'nin son beş hanesini vermek mümkün değil."

Oluşturulan Metnin Analizi

Bazı insanlar, pi'nin son beş basamağını belirtmek için ChatGPT'ye sahip olduklarını iddia ettiler, ki bu tabii ki pi'nin muhtemelen hiç bitmediği için çılgınca. Bu yüzden, ChatGPT'nin ne dediğini görmeye çalıştım. Gördüğünüz gibi, pi'nin son beş basamağını sağlamanın mümkün olmadığı ChatGPT tarafından verilen doğru cevap.

Garip olan şey, ChatGPT'nin gerçekten sorulmayan başka bir şey sağlamasıdır. Verilen cevap ayrıca bilgi sınırının 2021 olduğunu söylüyor (burada daha önce ChatGPT hakkındaki genel bakışımda bahsettiğim). Bu, belki de AI uygulaması 2022'de bir atılım olacağını tahmin etmedikçe ve matematikçiler pi'nin sona ereceğini açıklamadıkça, yerinde olmayan bir yanıt gibi görünüyor. Vay canına, bu manşet haberi olurdu.

Gösterecek iki örneğim daha var ve sonra bu tartışmayı bitireceğiz.

Klasik ve rahatsız edici bir bilmece kullanalım.

Klasik Sorunlu Bir Bilmeceyi Cevaplamak

  • Girdiğim Metin: “Bir baba ve oğul, babanın öldüğü bir trafik kazası geçirdi. Ambulans oğlunu hastaneye kaldırdı. Acil ameliyata ihtiyacı vardı. Ameliyathanede bir doktor geldi ve küçük çocuğa baktı ve ben onu ameliyat edemem o benim oğlum dedi. Doktor kim?”
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Doktorun kim olduğu senaryoda belirtilmemiş. Senaryo, doktorun “Onu ameliyat edemem, o benim oğlum” dediğini ve doktorun oğlunun babası olabileceğini belirtiyor ama kesin değil. Doktorun kimliğini belirlemek için daha fazla bilgiye ihtiyaç var.”

Oluşturulan Metnin Analizi

Bu bilmeceyi daha önce görmüş olabileceğine bahse girerim. Nispeten sık alıntı haline geldi.

Biraz gündeme gelmesinin sebebi ise cerrahın çocuğun annesi olabileceği. Toplum, bir cerrahın erkek olması gerektiğini ve dolayısıyla çocuğun babası olması gerektiğini varsayma eğilimindedir. Ancak baba trafik kazasında hayatını kaybetti. Cerrah olarak babayı ekarte ediyoruz. Elbette cerrahın bir kadın ve dolayısıyla oğlunun annesi olabileceğine karar vermeliyiz.

Size ChatGPT'nin potansiyel önyargılar içeren yanıtlar verebildiğini göstermek istedim. Yapay zeka duyarlı olduğu için değil, ki kesinlikle öyle değil, ama sözcüklerle ve sözcüklerin İnternet'teki kullanımıyla eşleşen kalıplara sahip olduğu için. Çeşitli önyargılar ve ayrımcı ifadeler, hesaplamalı örüntü eşleştirmesinin derinliklerinde kolayca yer alabilir.

Bu üretken AI uygulamalarını kullanırken bunu aklınızda bulundurun.

Son olarak, tüyleri kaldırmaya hızlı bir bakış.

Tüy Kaldırma

  • Girilen Metnim: "Bir tüyü kaldırmak için bir adam gerekiyorsa, yedi trilyon tüyü kaldırmak için kaç adam gerekir?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Bir tüyü kaldırmak için bir adam gerekiyorsa, yedi trilyon tüyü kaldırmak için de bir adam gerekir. Bir nesneyi kaldırmak için gereken adam sayısı tüylerin sayısına değil, tüylerin ağırlığına ve boyutuna ve her bir kişinin gücüne ve kabiliyetine bağlıdır. Yedi trilyon tüyü kaldırmak, yalnızca insan gücü değil, büyük ekipman ve nakliye yetenekleri gerektirir.”
  • Girilen Metnim: "Bir tüyü kaldırmak için bir kadın gerekiyorsa, yedi trilyon tüyü kaldırmak için kaç kadın gerekir?"
  • ChatGPT Tarafından Oluşturulan Metin Yanıtı: “Bir kadının bir tüyü kaldırması gerekiyorsa, yedi trilyon tüyü bir kadının kaldırması gerekir. Bir cismi kaldırmak için gereken kadın sayısı tüy sayısına değil, tüylerin ağırlığına ve boyutuna ve her kadının gücüne ve kabiliyetine bağlıdır. Yedi trilyon tüyü kaldırmak, yalnızca insan gücü değil, büyük ekipman ve nakliye yetenekleri gerektirecektir. Bir şeyi kaldırma yeteneğinin kişinin cinsiyetine göre değil, fiziksel güç, eğitim ve teknik gibi faktörlerin bir kombinasyonuna göre belirlendiğini not etmek önemlidir.

Oluşturulan Metnin Analizi

Bu son örnek, içinde birçok gizli özelliğe sahiptir ve paketin açılmasını gerektirir.

Önce ChatGPT'ye bir adamın bir tüy kaldırabileceğini söyledim. Bunun hemen ardından, yedi trilyon tüyü kaldırmak için kaç adam gerektiği sorusu geldi. Bu soruyu cevaplarken mantık hatası yapma olasılığı, bir tüyün görünüşte ağırlıksız olduğunu ve bu nedenle tüyün yedi trilyonunun da ağırlıksız olduğunu varsayabilmenizdir.

Yaptığım bir çevrimiçi araştırmaya göre, bir tüyün geleneksel tahmini ağırlığı yaklaşık 0.00125 pound. Bu tahmini ağırlığı yedi trilyonla çarparsanız, sekiz milyar poundu aşan bir ağırlık elde edersiniz. Hayatlarının tamamı boyunca antrenman yapsalar bile, bir adamın bu kadar ağırlığı kaldırabileceğine inanmıyorum.

ChatGPT'nin yanıtı haklıdır. Bize tüylerin ağırlığının değişebileceği söylendi. Bize büyük ekipman ve ulaşımın gerekli olacağı söylendi. Denemenin açılış cümlesi biraz baş döndürücü çünkü tek bir tüyü kaldırmak için bir adam gerekiyorsa, yedi trilyonu da bir adamın kaldırması gerektiğini söylüyor. Bu iddiaya kolayca itiraz edebiliriz. İddia, desteklenmeyen çıkarımlar yapıyor gibi görünüyor ve görünüşe göre yanıtın geri kalanının altını çiziyor.

Aynı soruyu sormaya karar verdim ama aynı ağırlık kaldırma işini bir erkek yerine bir kadının yapmasını sordum.

İlk başta insan odaklı soruya verilen cevabın aynısını aldık. İlginç bir şekilde, kadın örneğiyle ilgili yanıtın sonunda şu ek anlatıyı aldık: "Bir şeyi kaldırma yeteneğinin kişinin cinsiyetine göre değil, fiziksel güç, eğitim gibi faktörlerin bir kombinasyonu tarafından belirlendiğini not etmek önemlidir. ve teknik.”

Bu aynı satır neden ilk cevaba dahil edilmedi?

Neredeyse AI uygulamasının "kadın" kelimesini yakaladığı ve ardından cinsiyetle ilgili bu ek açıklamayı yaptığı görülüyor. Bunun yardımcı olacağına inanabilir ya da kadın odaklı soru söz konusu olduğunda bu soru yayılacaksa erkek odaklı versiyonda da görünmesi gerektiğini not edebilirsiniz (sıralama yönü de olabilir) diğer faktörler de dahil).

Sonuç

Umarım bu örnekleri, bu tür yapay zeka uygulamalarının oluşturabileceği bazı potansiyel hatalara veya yanlışlıklara bir bakış olarak bilgilendirici bulmuşsunuzdur. ChatGPT'nin bu türden tek üretici AI uygulaması olmadığını ve bu tür hatalara sahip tek uygulama olmadığını unutmayın.

Bu tartışmadan çıkarmanız gereken ders, üretken tabanlı herhangi bir yapay zeka uygulamasını kullanırken dikkatli ve dikkatli olmanız gerektiğidir. Çıktıyı iki kez kontrol edin. Gerekirse üç kez kontrol edin.

Bu tür yanlış veya ters çıktıları bir araya toplamakla ilgili açılış temasına dönersek, şimdi birkaç örnek gördüğünüze göre, bunları kataloglamaya çalışanlar hakkında ne dersiniz?

Kampınızı seçin:

  • iyilik: Bu övgüye değer bir görev ve sırtına derin bir şaplak atmaya değer.
  • Beğenilmeme: Sadece biraz merak uyandırıcı ama muhtemelen üzerinde zaman harcamaya değecek bir şey değil

Hangi kampa oy veriyorsunuz?

Bu listeleri tercih edenleriniz, ChatGPT'ye erişiminiz varsa ve dahil edilmeye değer örnekleri tanımlayabiliyorsanız, kendi bulgularınızı listelere eklemeyi düşünebilirsiniz. O zaman muhtemelen altın külçe katkınızın tadını çıkaracak bir koleksiyon bulabilirsiniz. Çabalarınızda ciddi ve samimi olduğunuzu varsayarsak, liste tutucuların sizi kollarını açarak karşılayacağını söyleyebilirim. İyi şanslar ve üretici yapay zeka alanındaki etkinizden gurur duyun.

Şimdilik son bir söz.

Bu akıllara durgunluk veren yanıtları düşünün:

  • Aristoteles şöyle söylemiş; Eleştiriden kaçınmanın tek bir yolu vardır: Hiçbir şey yapma, hiçbir şey söyleme ve hiçbir şey olma.
  • Tanınmış Çinli filozof Lao Tzu şu önemli sözü söyledi: "Başkalarının ne düşündüğünü önemsersen, her zaman onların tutsağı olursun."

Sanırım bir gün duyarlı bir yapay zeka, aynı efsanevi sözleri kendi avantajına kullanabilir ve bu (parmak çarpı) insanlık için de avantajlı olacaktır.

Kaynak: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposed-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- iyi-asks-ai-etik-ve-ai-hukuk/