OpenAI, ChatGPT'yi yanlış bilgilerden nasıl temizlemeyi planlıyor?

OpenAI, 31 Mayıs'ta, yapay zeka (AI) halüsinasyonlarını azaltmayı amaçlayan ChatGPT'nin matematiksel problem çözme yeteneklerini geliştirme çabalarını duyurdu. OpenAI, uyumlu AGI geliştirmeye yönelik çok önemli bir adım olarak halüsinasyonları hafifletmenin altını çizdi.

Mart ayında, ChatGPT'nin en son sürümü olan GPT-4'ün piyasaya sürülmesi, yapay zekayı daha da yaygınlaştırdı. Bununla birlikte, üretici yapay zeka sohbet robotları, uzun süredir olgusal doğrulukla boğuşuyor ve genellikle "halüsinasyonlar" olarak adlandırılan, ara sıra yanlış bilgiler üretiyor. Bu AI halüsinasyonlarını azaltma çabaları, web sitelerinde bir gönderiyle duyuruldu.

AI halüsinasyonları, yapay zeka sistemlerinin olgusal olarak yanlış, yanıltıcı veya gerçek dünya verileriyle desteklenmeyen çıktılar ürettiği durumları ifade eder. Bu halüsinasyonlar, yanlış bilgi üretmek, var olmayan olayları veya kişileri uydurmak veya bazı konularda yanlış bilgi vermek gibi çeşitli şekillerde ortaya çıkabilir.

OpenAI, "sonuç denetimi" ve "süreç denetimi" olmak üzere iki tür geri bildirimin etkinliğini incelemek için araştırma yaptı. Sonuç denetimi, nihai sonuca dayalı geri bildirimi içerirken, süreç denetimi, bir düşünce zincirindeki her adım için girdi sağlar. OpenAI bu modelleri matematik problemleri kullanarak değerlendirdi, birden fazla çözüm üretti ve her geri bildirim modeline göre en yüksek dereceli çözümü seçti.

Kapsamlı bir analizin ardından araştırma ekibi, modeli insan onaylı bir sürece uymaya teşvik ettiği için süreç denetiminin üstün bir performans sağladığını buldu. Buna karşılık, sonuç denetimi tutarlı bir şekilde incelemenin daha zorlayıcı olduğunu kanıtladı.

OpenAI, süreç denetiminin etkilerinin matematiğin ötesine geçtiğini ve farklı alanlardaki etkilerini anlamak için daha fazla araştırmanın gerekli olduğunu kabul etti. Gözlemlenen sonuçların daha geniş bağlamlarda doğru olması halinde, süreç denetiminin, sonuç denetimine kıyasla olumlu bir performans ve uyum kombinasyonu sunabileceği olasılığını ifade etti. Araştırmayı kolaylaştırmak için şirket, süreç denetiminin eksiksiz veri setini kamuya açıklayarak bu alanda keşif ve çalışma yapmaya davet etti.

İlgili: AI talebi, Nvidia'yı kısaca 1T $ kulübüne fırlattı

OpenAI, halüsinasyonları araştırmalarına yol açan açık örnekler sağlamasa da, yakın zamanda meydana gelen iki olay, sorunu gerçek hayat senaryolarında örnekledi.

Yakın tarihli bir olayda, Mata - Avianca Havayolları davasındaki avukat Steven A. Schwartz, bir araştırma kaynağı olarak chatbot'a güvendiğini kabul etti. Ancak, ChatGPT tarafından sağlanan bilgilerin tamamen uydurma olduğu ortaya çıktı ve eldeki sorunu vurguladı.

OpenAI'nin ChatGPT'si, halüsinasyonlarla karşılaşan yapay zeka sistemlerinin tek örneği değil. Microsoft'un yapay zekası, Mart ayında chatbot teknolojisinin tanıtımı sırasında kazanç raporlarını inceledi ve Gap ve Lululemon gibi şirketler için hatalı rakamlar üretti.

Dergi: 25 tüccar, ChatGPT'nin hisse senedi tahminlerine, yapay zekanın zar atmada berbat olmasına ve daha fazlasına bahis yapıyor

Kaynak: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information