AI uzmanları, 'AI'dan yok olma' riskini salgın hastalıklar ve nükleer savaşla karşılaştıran belgeyi imzaladı

OpenAI, Google DeepMind ve Anthropic CEO'ları da dahil olmak üzere düzinelerce yapay zeka (AI) uzmanı, geçtiğimiz günlerde Center for AI Safety (CAIS) tarafından yayınlanan bir açık bildiriye imza attı. 

Açıklama tek bir cümle içeriyor:

"Yapay zekanın yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır."

Belgeyi imzalayanlar arasında, AI'nın “Babası” Geoffrey Hinton da dahil olmak üzere, AI aydınlarının gerçek bir “kim kimdir”; Kaliforniya Üniversitesi, Berkeley'den Stuart Russell; ve Massachusetts Institute of Technology'den Lex Fridman. Müzisyen Grimes da imza sahibidir ve "diğer önemli figürler" kategorisinde listelenmiştir.

İlgili: Müzisyen Grimes, yapay zeka tarafından oluşturulan müzikle 'telif haklarının %50'sini paylaşmaya' istekli

İfade, yüzeyde zararsız görünse de, altta yatan mesaj, AI topluluğunda biraz tartışmalıdır.

Görünüşe göre artan sayıda uzman, mevcut teknolojilerin kaçınılmaz olarak insan türü için varoluşsal bir tehdit oluşturabilecek bir AI sisteminin ortaya çıkmasına veya gelişmesine yol açabileceğine veya olacağına inanıyor.

Ancak görüşlerine, taban tabana zıt görüşlere sahip bir grup uzman tarafından karşı çıkılıyor. Örneğin, meta baş yapay zeka bilimcisi Yann LeCun, birçok kez yapay zekanın kontrol edilemez hale geleceğine inanmadığını belirtti.

Google Brain'in kurucu ortağı ve Baidu'nun eski baş bilim adamı Andrew Ng gibi ona ve "yok olma" retoriğine katılmayan diğerlerine göre yapay zeka sorun değil, yanıttır.

Tartışmanın diğer tarafında, Hinton ve Conjecture CEO'su Connor Leahy gibi uzmanlar, insan düzeyinde yapay zekanın kaçınılmaz olduğuna ve bu nedenle şimdi harekete geçme zamanının geldiğine inanıyor.

Ancak bildiriyi imzalayanların hangi eylemleri talep ettikleri belirsiz. Hemen hemen her büyük yapay zeka şirketinin CEO'ları ve/veya yapay zeka başkanlarının yanı sıra akademi genelinde ünlü bilim adamlarının imza atanlar arasında yer alması, niyetin bu potansiyel olarak tehlikeli sistemlerin gelişimini durdurmak olmadığını açıkça ortaya koyuyor.

Bu ayın başlarında, yukarıda bahsedilen bildiriye imza atanlardan biri olan OpenAI CEO'su Sam Altman, AI yönetmeliğini tartışmak üzere bir Senato duruşması sırasında Kongre huzuruna ilk kez çıktı. İfadesinin çoğunu milletvekillerini endüstrisini düzenlemeye çağırmak için harcadıktan sonra manşetlere taşındı.

Altman'ın kripto para birimini ve şahsiyet kanıtını birleştiren bir proje olan Worldcoin'i de C Serisi fonlamada 115 milyon dolar topladıktan sonra son zamanlarda medya turları yaptı ve üç turdan sonra toplam fonunu 240 milyon dolara çıkardı.

Kaynak: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war