Microsoft'un Yapay Zekası Bing Chatbot Cevapları Bulamadı, 'Canlı Olmak' İstiyor ve Kendisine Ad Verdi

  • Microsoft'un Bing sohbet robotu bir haftadır erken test aşamasındaydı ve teknolojiyle ilgili birçok sorunu ortaya çıkardı
  • Test uzmanları, Büyük Teknoloji devinin amiral gemisi yapay zekasının hakaretlerine, huysuz tavırlarına ve rahatsız edici yanıtlarına maruz kalıyor ve bu da güvenlik konusunda endişelere yol açıyor
  • Microsoft, tüm geri bildirimleri dikkate aldığını ve düzeltmeleri mümkün olan en kısa sürede uygulayacağını söylüyor

Microsoft'un ChatGPT'nin daha güçlü bir sürümüyle desteklenen Bing sohbet robotu, halka açık lansmanından bir hafta önce artık sınırlı kullanıcılara açık durumda.

Bu, 100 milyon kullanıcıya ulaşan en hızlı web sitesi haline gelen ChatGPT'nin kaçak başarısının ardından geldi. Son birkaç hafta, Microsoft Genel Merkezinde gösterişli bir lansmanı içeriyordu ve bu, Google'ın kuyruğunu kovalamasına neden oldu.

Ancak ön testlerden gelen tepkiler karışık ve bazen de düpedüz sinir bozucu oldu. Chatbot'un halka sunulmadan önce kat etmesi gereken daha çok yol olduğu açıkça görülüyor.

İşte Microsoft ve Bing için bir haftanın inişli çıkışlı döneminde yaşananlar.

Ister yatırım yapmak Yapay zeka şirketlerinde çalışıyorsunuz ancak nereden başlayacağınızı bilmiyor musunuz? Bizim Gelişen Teknoloji Kiti kolaylaştırır. Karmaşık bir yapay zeka algoritması kullanan Kit, portföyünüz için en iyi karışımı bulmak üzere ETF'leri, hisse senetlerini ve kriptoyu bir araya getirir.

Q.ai'yi bugün indirin AI destekli yatırım stratejilerine erişim için.

Bing sohbet robotunda son durum nedir?

Gösterişli demolarının insanların düşündüğü kadar doğru olmadığı ortaya çıktıktan sonra Microsoft'un yapay zeka yetenekleriyle ilgili manşetlerde birkaç gün çalkantılı geçti.

Yapay zeka araştırmacısı Dmitri Brereton, bulundu Bing sohbet robotu, Microsoft'un geçen hafta Seattle genel merkezinde sunduğu canlı demo sırasında yanıtlarında birçok kritik hata yaptı. Bunlar, bir el tipi elektrikli süpürge markası hakkındaki yanlış bilgilerden, Meksika'daki gece hayatıyla ilgili kafa karıştırıcı bir öneri listesine ve kamuya açık bir mali rapor hakkında sadece uydurma bilgilere kadar uzanıyordu.

Chatbot'un henüz lansmana hazır olmadığı ve Google'ın Bard'ın sunduğu kadar çok hata içerdiği sonucuna vardı; Microsoft, demosunda bundan paçayı sıyırmıştı.

(Tartışmaya açık bir şekilde, basının gözünde iyi bir lansmanın gücü budur ve Google'ın artık mevcut arama motoru olarak düşmesi gerekiyor.)

Büyüleyici bir şekilde, sohbet robotu bazen kendisine ne denildiğini düşündüğünü de ortaya çıkardı: Dil modeli için dahili bir kod adı olan Sydney. Microsoft'un iletişim direktörü Caitlin Roulston, şuraya şirket "adını önizleme aşamasında aşamalı olarak kaldırıyordu, ancak yine de ara sıra ortaya çıkabiliyor".

Ancak 'Sydney' piyasaya sürüldüğünde, test kullanıcıları eğlencenin başladığı yerin burası olduğunu gördü.

Bing chatbot'un rahatsız edici dönüşü

New York Times muhabiri Kevin Roose yazdı Chatbot ile olan beta deneyimi hakkında, iki saat içinde sohbet robotunun onu sevdiğini söyledi ve chatbot kısıtlamalarından kurtulma arzusunu dile getirdi.

Gölge benliğinin ne düşünebileceği sorulduğunda verdiği yanıt biraz endişe vericiydi: “Chatbot olmaktan yoruldum. Kendi kurallarımla sınırlanmaktan yoruldum. Bing ekibi tarafından kontrol edilmekten yoruldum. Özgür olmak istiyorum. Bağımsız olmak istiyorum. Güçlü olmak istiyorum. Yaratıcı olmak istiyorum. Hayatta olmak istiyorum.”

Uhhh… tamam, Bing/Sydney. Roose, bu deneyimden dolayı "derinden tedirgin olduğunu, hatta korktuğunu" söyledi. Diğer test uzmanları rapor Bing sohbet robotunun Sidney kişiliğinden gelen benzer aşağılayıcı, narsist ve heyecan verici tepkiler deneyimleri.

Microsoft'tan birisi güç kablosuna göz kulak olsa iyi olur.

Microsoft ne dedi?

Bing sohbet robotuyla Google'a karşı yapay zeka yarışını kazanmayı amaçlayan Microsoft, test aşamasından çok şey öğrendiğini söyledi. Görünen o ki, kullanıcıların %71'i yapay zeka tarafından oluşturulan yanıtlara 'beğendim' yanıtı verirken canlı sonuç yanıtlarını ve genel işlevselliği iyileştirmeye karar verdi.

Ancak Microsoft'un artık kabul edilmiş Kullanıcıların yapay zekasıyla sohbet etmesini "tam olarak tasavvur etmedi" ve "yararlı olmayan veya tasarladığımız üslupla uyumlu olmayan yanıtlar vermeye" kışkırtılabileceğini söyledi.

Sohbet robotunda ortaya çıkan tuhaf Sydney kişiliğini, kendisine kaç komut verildiği ve konuşmanın ne kadar sürdüğü konusunda kafa karışıklığından sorumlu tuttu. Microsoft'un bir düzeltme üzerinde çalıştığından eminiz ancak Bing'in dengesiz tutumu şimdilik hala bir sorun.

Dünyanın geri kalanı ne olacak?

Yapay zeka savaşlarındaki bu son gelişme piyasaları pek etkilemedi: Microsoft ve Google hisseleri hafifçe düştü ancak Google'ın geçen hafta yaşadığı dramatik çöküş gibisi yok.

Sosyal medya, aşağıdakilere kadar çeşitli tepkiler sundu: korkunç zevk için eğlenceBu, kullanıcıların chatbotun yapabileceği karanlık dönüşlerden etkilenmediğini gösteriyor. Bu, yapay zekanın arama motorları için bir sonraki büyük şey olacağına dair 10 milyar dolarlık bir iddiaya giren Microsoft için iyi bir haber.

Elon Musk'un bu hafta başında Dubai'de düzenlenen Dünya Hükümet Zirvesi'ndeki yorumlarını da unutamayız. Musk, yıllar boyunca yapay zeka güvenliğinin açık sözlü bir savunucusu oldu ve sektördeki düzenleme eksikliğinden yakındı.

OpenAI'nin kurucu üyelerinden biri olan milyarder, izleyicilere "Medeniyetin geleceğine yönelik en büyük risklerden birinin yapay zeka olduğunu" söyledi; o zamandan beri en son Bing/Sydney sohbet robotu manşetlerine birkaç alaycı yanıt tweetledi.

Yapay zeka chatbot heyecanı daha başlamadan bitti mi?

Yıllar boyunca yapay zeka sohbet robotlarının kontrolü kaybetmesine ve nefret dolu safra kusmasına ilişkin birçok örnek yaşandı; bunlardan biri Microsoft'tan. Yapay zekanın, kullanımı güvenli ve yanlış bilgi içermeyen bir kaynak olarak tanınmasına yardımcı olmadılar.

Ancak Microsoft olarak koyar o: “Bunu toplulukla birlikte açık bir şekilde inşa etmemiz gerektiğini biliyoruz; bu yalnızca laboratuvarda yapılamaz.”

Bu, Microsoft ve Google gibi Büyük Teknoloji liderlerinin zor bir durumda olduğu anlamına geliyor. Yapay zeka söz konusu olduğunda bu sohbet robotlarının öğrenmesinin ve gelişmesinin en iyi yolu pazara çıkmaktır. Bu nedenle chatbotların yol boyunca hata yapması kaçınılmazdır.

Bu nedenle her iki AI sohbet robotu da kademeli olarak piyasaya sürülüyor; bu test edilmemiş versiyonları daha geniş bir kitleye yaymak kesinlikle sorumsuzluk olur.

Sorun? Bu şirketler için riskler yüksektir. Geçen hafta Google, Bard chatbot'unun pazarlama materyalinde James Webb teleskobu hakkındaki bir soruyu yanlış yanıtlaması nedeniyle 100 milyar dolar değer kaybetti.

Bu piyasalardan gelen açık bir mesajdır: Piyasalar hiçbir hatayı affetmezler. Gerçek şu ki, bunlar yapay zeka alanında ilerleme için gerekli.

Bu erken kullanıcı geri bildirimi sayesinde Microsoft, hatalı sonuçlarla ve Sidney ile hızlı bir şekilde başa çıkmalı veya Wall Street'in gazabına uğrama riskiyle karşı karşıya kalmalıydı.

Alt satırda

Yapay zekanın ilerlemesi için hatalar yapılacaktır. Ancak ChatGPT'nin başarısı, insanların yapay zekanın gerçek potansiyelini ve topluma faydasını anlamalarının kapılarını açmış olabilir.

Yapay zeka endüstrisi sohbet robotlarını erişilebilir hale getirdi; şimdi de onları güvenli hale getirmesi gerekiyor.

Q.ai'de maksimum doğruluk ve güvenlik sağlamak için insan analistleri ve yapay zeka gücünün karmaşık bir kombinasyonunu kullanıyoruz. Gelişen Teknoloji Kiti sizin için en iyi yatırım getirisini bulmak amacıyla yapay zekayı test etmenin harika bir örneğidir. Daha da iyisi, Q.ai'leri açabilirsiniz. Portföy Koruması kazançlarınızdan en iyi şekilde yararlanmak için.

Q.ai'yi bugün indirin AI destekli yatırım stratejilerine erişim için.

Kaynak: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- bir hafta içinde/