Yapay Zeka Etiği ve Yapay Zekada Kişisel Farkındalık Arayışı

kendinin farkında mısın?

Bahse girerim öyle olduğuna inanırsın.

Mesele şu ki, sözde, birkaçımız özellikle kendinin farkındayız. Öz-farkındalığın bir aralığı veya derecesi vardır ve iddiaya göre hepimizin ne kadar zekice farkında olduğumuza göre farklılık gösteririz. Tamamen kendinin farkında olduğunu düşünebilirsin ve sadece marjinal olarak öyle olabilirsin. Kendinizi çok az tanıyor olabilirsiniz ve bunun sizin zihinsel durumunuz olduğunu fark edebilirsiniz.

Bu arada, yelpazenin en üst kısmında, tamamen kendinizin farkında olduğunuza ve açıkçası geldikleri kadar kendinin farkında olduğunuza inanabilirsiniz. Aferin.

Sözü açılmışken, fazlasıyla kendinin farkında olmanın ne faydası var?

'De yayınlanan araştırmaya göre Harvard Business Review (HBR) tarafından Tasha Eurich tarafından, daha iyi kararlar verebildiğiniz, kararlarınızdan daha emin olduğunuz, iletişim kapasiteleriniz konusunda daha güçlü olduğunuz ve genel olarak daha etkili olduğunuz bildiriliyor ("Öz-Farkındalık Gerçekten Nedir (ve Nasıldır)" başlıklı makaleye göre). Onu yetiştirmek için).” Bonus faktör şu ki, yüksek öz-farkındalığa sahip olanların aldatmaya, çalmaya veya yalan söylemeye daha az eğilimli olduğu söylenir. daha iyi bir insan olmaya ve insanlığınızı güzelleştirmeye çalışmak.

Öz-farkındalık hakkındaki tüm bu konuşmalar, biraz bariz bir soruyu gündeme getiriyor, yani, öz-farkındalık ifadesinin gerçekte neyi ifade ettiği. Kompleksle ilgili tonlarca farklı tanım ve yorumu rahatlıkla bulabilirsin ve kendini bilmeyi gerektiren duygusal bir yapı diyelim. Bazıları, öz-farkındalığın kendi benliğinizi izlemekten, neyin peşinde olduğunu bilmekten ibaret olduğunu öne sürerek meseleleri basitleştirir. Kendi düşünce ve eylemlerinizin kesinlikle farkındasınız.

Muhtemelen, bir kişi öz-farkında olmadığında, ne yaptığını ve neden böyle olduğunu anlamayacak ve ayrıca diğer insanların onlar hakkında ne söylediğinin farkında olmayacaktır. Eminim böyle insanlarla tanışmışsınızdır.

Bazı insanlar bu dünyada ne yaptıklarına dair hiçbir ipucu olmadan yürüyor gibi görünüyor ve başkalarının onlar hakkında ne söylediğine dair en ufak bir fikirleri de yok. Hassas bir kırılabilir butikteki baş aşağı şarj eden bir boğa gibi olduklarını iddia edebilirsiniz. Geleneksel olarak, boğanın ne yaptığını bilmediğine inanma eğilimindeyiz ve diğerleri fiziksel olarak manevra yapmaya veya bilgisiz yaratığı yakalamaya çalışmadıkça, başkalarının bakış açılarından habersiz kalıyor.

Öz-farkındalığın biraz özyinelemeli olabileceği söylenir.

Bu özyinelemeyi göstermek için bir örnek vereyim. Akıllı telefonunuzda oldukça sürükleyici bir kedi videosu izliyorsunuz (bunu herkes yapıyor gibi görünüyor). Bazı insanların, o sevgili kedilerin harika, iç ısıtan tuhaflıklarından başka görünür düşünceleri olmazdı. Bu arada, bir nebze öz-farkındalığı olan herkes, bir kedi videosu izlediğinin farkındadır. Ayrıca etraflarındaki diğer kişilerin bir kedi videosu izlediklerini fark ettiklerinin de farkında olabilirler.

Kendinizin farkında olabileceğinize ve yine de belirli bir birincil faaliyete dalmış olabileceğinize dikkat edin. Bu örnekteki birincil aktivite, kedi videosunu izlemektir. İkincil ve eş zamanlı olarak, aslında bir kedi videosu izliyormuşsunuz düşüncesini taşıyabilirsiniz. Tamamen eğlenceli kedi videosunu izlerken, başkalarının sizi gözlemlediği düşüncesini de taşıyabilirsiniz. Bir kedi videosunu izlediğinizi (veya sadece izlediğinizi) ayrı ayrı düşünmek için, örneğin kedi videosunu izlemeyi bırakmak gibi bir etkinliği durdurmanız gerekmez. Bu düşünceler görünüşte birbirine paralel olarak ortaya çıkabilir.

Bazen, öz farkındalığımız bizi birincil zihinsel aktiviteden atabilir veya en azından kesintiye uğratabilir. Belki de, kedi videosunu izlemeyi düşünürken, yalnızca videonun kendisine konsantre olmak için aşırı gerildiği için zihniniz kısmen dağılır. Daha sonra, gördüğünüz ancak tam olarak anlamaktan zihinsel olarak dikkatinizin dağıldığı kısmı tekrar ziyaret etmek için videoyu geri sarmayı tercih ediyorsunuz. Kişisel farkındalık, birincil zihinsel faaliyetinizi bozdu.

Tamam, şimdi özyinelemeli yönlerin ortaya çıkması için hazırız.

Hazır mısınız?

Bir kedi videosu izliyorsunuz. Kişisel farkındalığınız size bir kedi videosu izlediğinizi ve siz videoyu izlerken başkalarının da sizi izlediğini bildiriyor. Statüko budur.

Daha sonra ek bir zihinsel sıçrama yaparsınız. Kendi farkındalığınız hakkında düşünmeye başlarsınız. Kendi farkındalığınızla meşgul olduğunuzun farkındasınız. Şöyle oluyor: Kedi videosunu izlerken çok mu düşünüyorum, diye kendinize umutsuzca mı soruyorsunuz? Bu, başka bir öz-farkındalık katmanıdır. Öz-farkındalık, diğer öz-farkındalıkların üstünde yer alır.

Baştan aşağı kaplumbağalar olduğuna dair eski bir söz vardır. Öz-farkındalık fenomeni için şunlar olabilirsiniz:

  • Kendinden habersiz
  • Kendini bilen
  • Kendinizle ilgili farkındalığınızın farkında olun
  • Kendinizin farkında olun, kendinizin farkında olun, kendinizin farkında olun
  • Ad Infinitum (yani, vb.)

Daha önce, kendinin farkında olmanın iki ana kategorisi olduğu konusunda ustaca işaret ettiğimi fark etmiş olabilirsiniz. Belirli bir teori, içsel durumlarımıza odaklanan bir tür içsel öz-farkındalığa sahip olduğumuzu ve ayrıca etrafımızda bizi görenlerin bizim hakkımızda algılarını ölçmeye yardımcı olan dışsal bir öz-farkındalığa sahip olduğumuzu varsayar.

HBR makalesine göre, teorikleştirilmiş iki tür öz-farkındalığın hızlı bir tasviri: içsel öz farkındalık, kendi değerlerimizi, tutkularımızı, özlemlerimizi, çevremize uyumumuzu, tepkilerimizi (düşünceler, duygular, davranışlar, güçlü ve zayıf yönler dahil) ve başkaları üzerindeki etkimizi ne kadar net gördüğümüzü temsil eder. Ve bu arada diğeri: “İkinci kategori, dış öz farkındalık, yukarıda listelenen aynı faktörler açısından diğer insanların bizi nasıl gördüğünü anlamak anlamına gelir. Araştırmamız, başkalarının onları nasıl gördüğünü bilen kişilerin empati gösterme ve başkalarının bakış açısını alma konusunda daha yetenekli olduğunu gösteriyor.”

Kullanışlı bir ikiye iki matris veya dört kare, hem iç hem de dış öz farkındalığın yüksekten düşüğe değiştiğini iddia ederek türetilebilir ve iki kategoriyi birbiriyle eşleştirebilirsiniz. HBR araştırması, şu dört öz-farkındalık arketipinden biri olduğunuzun söylendiğini gösteriyor:

  • Introspector: Düşük Dışsal Öz-Farkındalık + Yüksek İçsel Öz-Farkındalık
  • Arayan: Düşük Dışsal Öz-Farkındalık + Düşük İçsel Öz-Farkındalık
  • Memnun: Yüksek Dış Öz-Farkındalık + Düşük İç Öz-Farkındalık
  • Farkındalık: Yüksek Dışsal Öz-Farkındalık + Yüksek İçsel Öz-Farkındalık

Zirve, dışsal olarak kendinin farkında olmanın en üst basamağında ve aynı şekilde içsel olarak kendinin farkında olmanın zirvesinde olmaktan oluşan “Farkında” arketip olacaktır. Açıklığa kavuşturmak için, bu övülen duruşa mutlaka kalıcı bir şekilde ulaşmıyorsunuz. Hem içsel hem de dışsal öz-farkındalık alemleri arasında yüksek ve alçak olmak arasında gidip gelebilirsiniz. Günün saatine, içinde bulunduğunuz duruma ve bir dizi başka önemli faktöre bağlı olabilir.

Artık öz-farkındalıkla ilgili bazı temel unsurları sevecen bir şekilde ele aldığımıza göre, bunu etik davranışlar konusuna bağlamaya çalışabiliriz.

Kendinin farkında olmakla ilgili genel iddia, kendinin farkında olduğun zaman, daha fazla yukarıda olma ihtimalindir. Bu, daha önce belirtildiği gibi, çalma, hile yapma ve yalan söyleme gibi olumsuz etik davranışlara daha az eğilimli olduğunuz anlamına gelir. Bu eğilimin gerekçesi, öz farkındalığınızın aktifliğinin, kendi davranışınızın tatsız veya etik dışı olduğunu fark etmenizi sağlamasıdır. Çamurlu etik olmayan sulara saparken kendinizi yakalamakla kalmaz, aynı zamanda kendinizi geri ve kuru toprağa (etik bölgenin kutsallığı) yönlendirmeye de eğilimlisiniz.

Kişisel farkındalığınız, kendinizi kontrol etmenize yardımcı olur.

Bir karşıtlık, muhtemelen, çok az öz farkındalık olduğunda veya hiç olmadığında olacaktır; bu, birinin belki de etik olmayan davranışlara eğilimli olduğundan habersiz olduğunu gösterir. Böyle farkında olmayan bir kişinin, olumsuz bir performans sergilediğini fark etmeyebileceğini iddia edebilirsiniz. Kırılabilir eşya dükkanındaki boğaya benzer şekilde, daha açık bir şekilde dikkatlerini çekene kadar, kendilerini kontrol etmeleri pek olası değildir.

Bu arada, herkes bunu satın almıyor. Bazıları öz-farkındalığın etik olmaya olduğu kadar etik olmayan olmaya da kolayca uygulanabileceğini iddia edebilir. Örneğin, bir kötülük yapan kişi tamamen kendinin farkında olabilir ve yanlışı yaptığından zevk alabilir. Öz-farkındalıkları onları daha büyük ve daha büyük hain suiistimal eylemlerine daha kararlı bir şekilde yönlendirir.

Bu konuda doğrudan gözle görülebilecek olandan daha fazla bulanıklık var. Farz edin ki birisi kendini çok iyi tanıyor, ancak belirli bir toplumun ya da kültürün etik değerlerinden habersiz. Bu şekilde, kendilerinin farkında olduklarını ifade etmelerine rağmen herhangi bir etik yönlendirmeye sahip değillerdir. Ya da isterseniz, belki de kişi etik ilkeleri biliyor ve bunların onlar için geçerli olduğuna inanmıyor. Kendilerini benzersiz veya geleneksel etik düşüncenin sınırlarının dışında görürler.

Dönüp dolaşıp gidiyor.

Bazılarının hararetle vurgulayacağı üzere, öz-farkındalık iki ucu keskin, etik odaklı bir kılıç olarak yorumlanabilir.

Şimdilik, bizi büyük ölçüde etik davranışlara yönlendiren veya dürten öz-farkındalıktan oluşan mutlu yüz versiyonuyla gidelim. Diğer her şey eşit olduğunda, ne kadar fazla öz-farkındalık olursa, etik açıdan o kadar eğilimli olacağınız gibi küstah bir varsayımda bulunacağız. Bunu dilemek kesinlikle hoş ve ilham verici görünüyor.

Vites değiştirelim ve Yapay Zeka'yı (AI) resme dahil edelim.

Bu tartışmada, devam eden tüm karışıklıkları, aynı zamanda yaygın olarak AI etiği olarak da bilinen Etik AI'nın gelişen alanıyla ilişkilendirmek için bir noktadayız. Devam eden ve kapsamlı AI etiği kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Etik AI kavramı, etik ve etik davranış alanını AI'nın ortaya çıkmasına kadar iç içe geçirmeyi gerektirir. Eşitsizlikler ve çeşitli önyargılarla dolu AI hakkında alarm zillerini yükselten manşetleri kesinlikle gördünüz. Örneğin, AI tabanlı yüz tanıma sistemlerinin zaman zaman, tipik olarak altta yatan Makine Öğrenimi (ML) ve Derin Öğrenme (DL) tesislerinin nasıl eğitildiğinin ve sahaya alındığının bir sonucu olarak ırk ve cinsiyet ayrımcılığı sergileyebileceğine dair endişeler var (analizime bakın) de Burada bu linki).

Denemek ve durdurmak ya da en azından Kötü İçin AIYanlışlıkla veya zaman zaman kasıtlı olarak kötü davranmak üzere şekillendirilmiş yapay zeka sistemlerinden oluşan, yapay zekanın geliştirilmesi ve kullanımına etik ilkelerin uygulanması için son zamanlarda bir aciliyet olmuştur. En ciddi hedef, AI geliştiricilerine, ayrıca AI inşa eden veya alan firmalara ve AI uygulamalarına bağımlı olanlara etik rehberlik sağlamaktır. Oluşturulan ve benimsenen Etik AI ilkelerine bir örnek olarak, şuradaki kapsamıma bakın: buradaki bağlantı.

Bu son derece önemli üç soruyu düşünmek için derinlemesine bir an verin:

  • Yapay zeka geliştiricilerinin Etik Yapay Zeka ilkelerini benimsemesini ve bu yönergeleri fiili kullanıma sokmasını sağlayabilir miyiz?
  • Yapay zeka yapan veya alan yapan firmalara da benzer şekilde yaptırabilir miyiz?
  • AI kullananların benzer şekilde Etik AI yönlerinden haberdar olmasını sağlayabilir miyiz?

Bunu çekinmeden söyleyebilirim, bu uzun bir emirdir.

Yapay zeka yaratmanın heyecanı, yapay zekanın etiğine yönelik her türlü dikkatin önüne geçebilir. Eh, sadece heyecan değil, para kazanmak da bu denklemin ayrılmaz bir parçasıdır. AI alemindeki bazı kişilerin, AI sistemlerini kapıdan çıkardıktan sonra Etik AI "şeyleri" ile uğraşacaklarını söyleme eğiliminde olduklarını bilmek sizi şaşırtabilir. Bu, hızlı bir şekilde başarısız olmayı ve doğru olanı yapana kadar (umarım doğru olanı yapana kadar) sık sık başarısız olmayı sağlamanın tipik teknik mantrasıdır.

Tabii ki, etik açıdan şüpheli AI'yı genel olarak halka itenler, atın ahırdan çıkmasına izin veriyorlar. Açıkladıkları geniş fikir, Kötü İçin AI Günlük kullanımdan sonra düzeltilecektir, bu da at zaten nedensizce dört nala koşturduğu için zararlı bir şekilde gecikmektedir. Zararlar yapılabilir. Ayrıca AI kullanımdayken hiçbir şeyin düzeltilmeme veya düzeltilmeme olasılığı da yüksektir. Bu noktada yapay zeka ile uğraşmanın, zaten etik olmayan algoritmik karar verme (ADM) tamamen raydan çıkması açısından durumu daha da kötüleştirebileceği sıkça kullanılan bir bahanedir.

Yapay zeka inşa eden, yapay zeka alan ve yapay zeka kullananların zihinlerinde parlak bir şekilde parlayan ve yol gösteren bir ışık olarak Etik AI'ya sahip olmanın faydasını ve canlılığını elde etmek için ne yapılabilir?

Cevap: Öz farkındalık.

Evet, fikir şu ki, insanlar yapay zekayı nasıl kullandıkları veya onunla nasıl etkileşime girdikleri konusunda daha bilinçli olsaydı, bu onların Etik AI'nın norm olmasını isteme eğilimlerini artırabilirdi. Aynı şey AI geliştiricileri ve AI sistemleriyle ilgili şirketler için de söylenebilir. Ne yaptıklarının daha fazla farkında olsalardı, belki de yapay zekanın etiğini daha çok benimserlerdi.

Halihazırda şart koşulan mantığın bir kısmı, kendinin farkında olmanın etik olarak daha iyi bir insan olmaya ve aynı zamanda etik olarak berbat bir insan olmaktan kaçınmaya yönelik bir eğilim göstermesidir. Bu öncülü devam ettirebilirsek, öz-farkındalığa daha yatkın olan AI geliştiricilerinin etik davranışlara meyilli olacağı ve dolayısıyla etik olarak sağlam AI üretmeye meyilli olacağı anlamına gelir.

Bu köprü senin için çok mu uzak?

Bazıları dolaylılığın biraz fazla olduğunu söyleyebilir. Kendinin farkında olmak, etik açıdan erdemli olmak ve etik ilkeleri yapay zekaya uygulamak arasındaki fahiş bağlantı zincirini yutmak belki de zor. Bir karşı sav, denemekten zarar gelmez.

Şüpheciler, bir AI geliştiricisinin kendinin farkında olabileceğini ve muhtemelen daha etik olarak düşünülebileceğini söyleyebilir, ancak bu zihinsel kampı Etik AI'nın geleneklerine uygulamaya doğru sıçramayacaklardır. Bu soruna verilecek yanıt, Etik AI konularını tanıtabilir ve popüler hale getirebilirsek, aksi takdirde zayıf görünen bağlantı daha belirgin hale gelecek, beklenecek ve muhtemelen yapay zeka üretme söz konusu olduğunda işleri yapmanın standart yolu haline gelecektir.

Şimdi bu destana bir bükülme ekleyeceğim. Büküm başınızı döndürebilir. Lütfen iyi oturduğunuzdan ve birazdan söyleyeceğim şeye hazır olduğunuzdan emin olun.

Bazıları, Etik AI'yı doğrudan AI'nın içine inşa etmemiz gerektiğine işaret ediyor.

Bu açıklamaya şaşırmış olabilirsiniz. Paketi açalım.

Bir programcı, bir AI sistemi oluşturabilir ve bunu, AI'nın önyargıları ve eşitsizlikleri barındırmasını önlemeye çalışmanın kendi programlama bilinciyle yapabilir. Geliştirici, yalnızca programlamaya devam etmek yerine, üstlendikleri yaklaşımın AI'da olumsuz unsurların zorunlu olarak yokluğuyla sonuçlanıp sonuçlanmayacağını sormak için kendi omzunun üzerinden izliyor.

Harika, yeterince kendini bilen, etik davranışları benimsemeye çalışan ve yapay zeka sistemlerini oluştururken etik ilkeleri dahil etme ışığını gören bir yapay zeka geliştiricimiz var.

Ethical AI için bir galibiyet elde edin!

Her şey yolunda ve güzel, ancak burada daha sonra ortaya çıkabilecek bir şey var. AI sahaya çıkarılır ve günlük kullanıma sunulur. AI'nın bir kısmı, anında "öğrenmek" için bir bileşen içeriyordu. Bu, yapay zekanın yeni verilere ve orijinal programlamanın diğer yönlerine göre kendisini ayarlayabileceği anlamına gelir. Bir kenara, bu, AI'nın duyarlı olduğu anlamına gelmez. Duyarlı yapay zekamız yok. Yaptığımızı söyleyen aptal manşetleri görmezden gelin. Hiç kimse duyarlı bir yapay zekaya sahip olup olmayacağımızı söyleyemez ve bunun ne zaman gerçekleşeceğini de yeterince tahmin edemez.

Hikayemize geri dönersek, yapay zeka, yoldayken kendini geliştirmek için kasıtlı olarak tasarlandı. Oldukça kullanışlı bir fikir. Programcıların sürekli iyileştirmeler yapmak zorunda kalması yerine, AI programının bunu kendi başına yapmasına izin veriyorlar (oha, bu kendi işini bitirmek mi?).

Yapay zekanın kendini ayarladığı süre boyunca, çeşitli sefil eşitsizliklerin ve önyargıların, kendi değişiklik eylemleriyle yapay zeka sistemine sızdığı ortaya çıkıyor. Programcı başlangıçta bu köhne yönleri dışarıda tutarken, şimdi AI'nın anında ayarlanması nedeniyle formüle ediyorlar. Ne yazık ki, bu o kadar incelikli bir şekilde gerçekleşebilir ki, kimse daha akıllı değildir. İlk kapsamlı testten sonra daha önce AI'ya yeşil ışık yakmış olabilecekler, şimdi AI'nın çürümüş yoldan gittiğinden körü körüne habersizler. Kötü İçin AI.

Bu istenmeyen ortaya çıkışı önlemenin veya en azından yakalamanın bir yolu, AI'ya bir tür Etik AI çift denetleyicisi inşa etmek olacaktır. Yapay zeka içindeki bir bileşen, yapay zekanın davranışını izleyecek ve etik olmayan ADM'nin ortaya çıkıp çıkmadığını tespit edecek şekilde programlanmıştır. Eğer öyleyse, bileşen, AI geliştiricilerine veya AI sistemini çalıştıran bir firmaya bir uyarı gönderebilir.

Bu bileşenin daha gelişmiş bir sürümü, yapay zekayı onarmayı deneyebilir. Bu, ortaya çıkan etik olmayan yönleri uygun etik parametrelere dönüştürerek, ayarlamaların ayarlanması olacaktır. Bu tür bir programlamanın zor olduğunu hayal edebilirsiniz. Yanlış yola sapması, muhtemelen etik olmayanı derinden etik dışı hale getirmesi ihtimali var. Ayrıca, bileşeni harekete geçiren ve belki de buna göre işleri karıştıran yanlış bir pozitif olasılığı vardır.

Her neyse, bu çifte kontrol mekanizmasının nasıl işleyeceği konusunda saplanıp kalmadan, bu konuda cüretkar bir açıklama yapacağız. Sınırlı bir şekilde, yapay zekanın kendinin farkında olduğu söylenebilir.

Evet, bunlar birçokları için savaşan sözler.

Hemen hemen herkes tarafından hakim olan inanç, günümüzün AI'sının kendinin farkında olmadığıdır. Tam durak, nokta. Olup olmayacağını veya ne zaman olacağını bilmediğimiz duyarlı AI'ya ulaşana kadar, kendinin farkında olan herhangi bir AI türü yoktur. En azından insan odaklı öz-farkındalık anlamında değil. Bunun olabileceğini önerme bile.

Yapay zekayı antropomorfize etme konusunda dikkatli olmamız gerektiğine kesinlikle katılıyorum. Birazdan bu endişe hakkında daha fazla şey söyleyeceğim.

Bu arada, tartışma uğruna, “kendinin farkında” aşamasını gevşek bir şekilde kullanmaya istekli olursanız, AI'nın neden genel öz-benlik kavramına uyduğunun söylenebileceğini kolayca görebileceğinize inanıyorum. farkındalık. AI'nın geri kalanını izleyen ve AI'nın geri kalanının ne yaptığına dair sekmeleri tutan bir AI bölümüne sahibiz. AI'nın geri kalanı aşırıya kaçmaya başladığında, izleme bölümü bunu tespit etmeye çalışır. Ayrıca, AI izleme kısmı veya çift kontrol, AI'nın geri kalanını uygun şeritlere yönlendirebilir.

Bu biraz da o kedi videolarını izlemek ve bunu yaptığınızın farkında olmak gibi görünmüyor mu?

Bunun tanıdık bir halkası var.

Bunu daha da uzatabiliriz. AI çift denetleyici bileşeni, yalnızca AI'nın geri kalanının davranışını gözlemlemek için programlanmakla kalmaz, aynı zamanda AI'yı kullananların davranışını da not eder. Kullanıcılar yapay zekayı kullanırken ne durumda? Bazı kullanıcıların, yapay zekanın kendilerine karşı ayrımcılık yaptığına dair öfkelerini dile getirdiğini varsayalım. AI çift denetleyicisi, AI'nın geri kalanının yoldan çıkması hakkında başka bir kırmızı bayrak olarak kullanarak bunu anlayabilir.

Bu, içsel öz-farkındalık ve dışsal öz-farkındalık kategorizasyonlarını gündeme getirir.

AI çift denetleyicisi, AI'nın geri kalanının sorunlu denizlere girip girmediğini anlamak için dahili ve harici olarak tarama yapıyor. Algılama, bir bayrak kaldıracak veya bir kendi kendine düzeltmenin yürürlüğe girmesine neden olacaktır.

Biraz akıllara durgunluk veren başka bir uzantı ekleyelim. Çekirdek AI çift denetleyicisini iki kez kontrol etmeyi amaçlayan başka bir AI çift denetleyicisi oluşturuyoruz. Neden öyle? Peki, yapay zeka çift denetleyicisinin bocalıyor veya işini yapamıyor gibi göründüğünü varsayalım. Çift denetleyicinin AI çift denetleyicisi, bu arızayı tespit etmeye ve buna göre gerekli eylemi gerçekleştirmeye çalışır. Bazıları, hesaplamalı bir yapay zeka sisteminde sergilendiği gibi, öz-farkındalığın özyinelemeli doğasına hoş geldiniz.

Bu konuda zaten koltuğunuzun kenarında olanlarınız için, şimdilik son yorum, AI sistemlerini "kendinin farkında" yaparsanız, potansiyel olarak etik davranışa yöneleceklerini önermeye çalışabiliriz. Bunu bilinçli olarak mı yapıyorlar? Kesinlikle hayır. Bunu hesaplama bazında mı yapıyorlar? Evet, ancak bunun insan davranışıyla aynı kalibrede olmadığı konusunda net olmalıyız.

Eğer öz-farkındalık kavramının onu bir hesaplama şemasına sığdırmak için yanlış bir şekilde çarpıtılmasından rahatsızsanız, bu konudaki şüpheleriniz çok iyi belirtilmiş. Bu kavramdan yararlanan devam eden AI çabalarına bir son vermemiz gerekip gerekmediği başka bir açık sorudur. En azından, bizi yapay zekanın yapabileceğinin daha iyi bir sonucuna doğru yönlendiriyor gibi göründüğünü ikna edici bir şekilde iddia edebilirsiniz. Bu gerçekleşirken gözlerimizi dört açmamız gerekiyor.

Sanırım tüm bunların nasıl sonuçlandığını görmemiz gerekecek. Beş yıl, on yıl ve elli yıl sonra buna geri dönün ve tartışmalı konuda düşüncenizin değişip değişmediğine bakın.

Bunun konunun biraz kafa karıştırıcı bir incelemesi olduğunun farkındayım ve bazı günlük örnekler için can atıyor olabilirsiniz. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak kapasitemde, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, yapay zekanın bir "öz-farkındalık" görünümüne sahip olduğuna dair herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi sergiliyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına sürdüğü ve sürüş görevi sırasında herhangi bir insan yardımı olmadığı araçlardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Seviye 5'te henüz bunun gerçek bir otomobili yok, ki bu da bunu başarmanın mümkün olup olmadığını ve oraya ulaşmanın ne kadar süreceğini bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Sözde Öz-Farkındalık Olan Yapay Zeka

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Bunun, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağladığına inanıyorum.

Şimdi kendi kendini süren arabalara derin bir dalış yapmaya ve yapay zekanın bir tür öz farkındalığa sahip olduğu konusunda kaşları kaldıran nosyona yol açan etik yapay zeka sorularına girmeye hazırız.

Kolay anlaşılır bir örnek kullanalım. AI tabanlı kendi kendini süren bir araba mahallenizdeki sokaklarda ilerliyor ve güvenli bir şekilde sürüyor gibi görünüyor. İlk başta, sürücüsüz arabaya bir bakış atmayı başardığınız her sefere özel bir ilgi gösterdiniz. Otonom araç, video kameralar, radar birimleri, LIDAR cihazları ve benzerlerini içeren elektronik sensör rafıyla öne çıktı. Kendi kendini süren arabanın topluluğunuzun etrafında dolaştığını haftalarca geçirdikten sonra, şimdi bunu zar zor fark ediyorsunuz. Size göre, zaten yoğun olan halka açık yollardaki başka bir araba.

Kendi kendini süren arabaları görmenin imkansız ya da mantıksız olduğunu düşünmeyin diye, sürücüsüz araba denemeleri kapsamındaki yerellerin nasıl yavaş yavaş çekidüzenli araçları görmeye alıştığını sık sık yazdım, şuradaki analizime bakın Burada bu linki. Yerlilerin çoğu sonunda ağızları açık, kendinden geçmiş aval aval aval aval yapmaktan, artık bu dolambaçlı kendi kendine giden arabalara tanık olmak için geniş bir can sıkıntısı yaymaya geçti.

Muhtemelen şu anda otonom araçları fark etmelerinin ana nedeni, tahriş ve çileden çıkma faktörüdür. Kitaba göre AI sürüş sistemleri, araçların tüm hız sınırlarına ve yolun kurallarına uymasını sağlar. Geleneksel insan güdümlü arabalarındaki telaşlı insan sürücüler için, kesinlikle yasalara uyan AI tabanlı kendi kendine giden arabaların arkasında sıkışıp kaldığınızda zaman zaman canınız sıkılır.

Bu, doğru ya da yanlış, hepimizin alışması gerekebilecek bir şey.

Hikayemize dönelim. Bir gün, şehrinizde veya şehrinizde kendi kendine giden bir arabanın Dur işaretine yaklaştığını ve yavaşlıyor gibi görünmediğini varsayalım. Tanrım, AI sürüş sistemi, Dur işaretinin hemen yanında kendi kendini süren araba pulluklarına sahip olacak gibi görünüyor. Bir yaya veya bisiklet sürücüsünün yakınlarda bir yerde olduğunu ve kendi kendini süren arabanın düzgün bir şekilde durmayacağına hazırlıksız yakalandığını hayal edin. Utanç verici. Tehlikeli!

Ve yasadışı.

Şimdi, yapay zeka sürüş sistemindeki, kendi kendini tanıyan bir çift kontrol stili olarak hareket eden bir yapay zeka bileşenini ele alalım.

AI sürüş sisteminin içinde neler olup bittiğinin ayrıntılarını incelemek için biraz zaman ayıracağız. Otonom araca monte edilen video kameraların, belki de bir Dur işareti gibi görünen bir şey tespit ettiği ortaya çıktı, ancak bu durumda aşırı büyümüş bir ağaç Dur işaretini bolca gizler. Başlangıçta Dur işaretleri üzerinde eğitilmiş olan Makine Öğrenimi ve Derin Öğrenme sistemi, genellikle serbest olan, esas olarak tam Dur işaretleri kalıpları üzerinde tasarlandı. Video görüntülerini hesaplamalı olarak inceledikten sonra, o belirli noktada bir Dur işaretinin var olduğuna dair düşük bir olasılık atandı (ek bir komplikasyon olarak ve daha fazla açıklama olarak, bu, önceden hazırlanmış dijital haritalarda görünmeyen yeni yayınlanan bir Dur işaretiydi. AI sürüş sistemi güveniyordu).

Sonuç olarak, AI sürüş sistemi, Dur işareti yokmuş veya muhtemelen Dur işaretine benzeyen başka türden bir işaretmiş gibi (bu olabilir ve bir sıklıkta olabilir) hesaplamalı olarak ilerlemeye kararlıdır.

Ancak, neyse ki, yapay zeka kendi kendini tanıyan çift denetleyici, yapay zeka sürüş sisteminin faaliyetlerini izliyordu. Verileri ve AI'nın geri kalanı tarafından yapılan değerlendirmeyi hesaplamalı olarak inceledikten sonra, bu bileşen normal ilerleme sürecini geçersiz kılmayı seçti ve bunun yerine AI sürüş sistemine uygun bir durma emri verdi.

Hiç kimse yaralanmadı ve hiçbir yasa dışı eylem ortaya çıkmadı.

AI kendi kendini tanıyan çift denetleyicinin, yerleşik bir yasal temsilci gibi davrandığını ve AI sürüş sisteminin yasalara (bu durumda bir Dur işareti) uymasını sağlamaya çalıştığını söyleyebilirsiniz. Elbette güvenlik de önemliydi.

Bu örnek, umarız, tasarlanan AI kendi kendini tanıyan çift denetleyicinin nasıl çalışabileceğini gösterir.

Daha sonra kısaca, yapay zekanın kendi kendini tanıyan çift denetiminin nasıl etik yapay zeka odaklı yerleşik bir işlevsellik sağlayabileceğini gösteren daha belirgin bir Etik AI örneğini ele alabiliriz.

İlk olarak, arka plan olarak, AI tabanlı kendi kendini süren arabaların ortaya çıkışı hakkında ifade edilen endişelerden biri, sonunda bir şekilde kasıtsız bir şekilde ayrımcı bir şekilde kullanılabilmeleridir. İşte nasıl. Bu kendi kendine giden arabaların, gelir potansiyellerini en üst düzeye çıkarmak için kurulduğunu varsayalım; bu, sürüş paylaşımlı mevcut kendi kendine giden arabalardan oluşan bir filo işletenler için kesinlikle mantıklı. Filo sahibi karlı bir operasyona sahip olmak ister.

Belirli bir kasaba veya şehirde, dolaşımdaki kendi kendine giden arabalar yavaş yavaş toplumun bazı bölümlerine hizmet etmeye başlar ve diğer bölgelere değil. Bunu para kazanma amacı için yapıyorlar, çünkü daha fakir bölgeler, yerelin daha zengin kısımları kadar gelir getirici olmayabilir. Bu, bazı alanlara hizmet etmek ve diğerlerine hizmet etmemek gibi açık bir özlem değildir. Bunun yerine, kendi kendini süren arabaların yapay zekasının, coğrafi olarak daha yüksek ücretli alanlara odaklanarak daha fazla para kazanılacağını hesaplamalı olarak “anlaması” gibi organik olarak ortaya çıkıyor. Bu toplumsal etik kaygıyı köşemde tartıştım, örneğin buradaki bağlantı.

AI sürüş sistemlerine bir AI kendini tanıyan çift denetleyici eklediğimizi varsayalım. Bir süre sonra, AI bileşeni, kendi kendini süren arabaların nerede dolaştığını hesaplamalı olarak fark eder. Özellikle, bazı bölgelerde, ancak diğerlerinde değil. Bazı Etik AI ilkeleriyle kodlanmış olmasına dayanarak, AI kendi kendini tanıyan çift denetleyici, kendi kendine giden arabaları, aksi takdirde ihmal edilen şehrin diğer bölgelerine yönlendirmeye başlar.

Bu, yapay zekanın kendini tanıma kavramını gösterir ve bunu Etik Yapay Zeka öğesiyle birlikte yapar.

Böyle bir örnek daha, bu Etik AI düşüncesinin de oldukça ciddi ve ciddi bir ölüm kalım sonuçları olabileceğine dair fikir verebilir.

Yakın zamanda gerçekleşen bir araba kazasıyla ilgili bir haber düşünün. Bildirildiğine göre, bir insan sürücü yoğun bir kavşağa geliyordu ve dümdüz ilerlemek için yeşil ışık yaktı. Başka bir sürücü kırmızı ışıkta geçti ve yapmamaları gerekirken kavşağa girdi. Yeşil ışıkta yanan sürücü son anda bu diğer arabanın ciddi bir şekilde arabasına çarpacağını fark etti.

Bu tehlike altındaki sürücüye göre, ya diğer arabanın kendisine çarpacağını ya da yoldan çıkarak araya giren kişiden kaçabileceğini hesapladı. Sapma ile ilgili sorun, tehlikede olabilecek yakındaki yayaların olmasıydı.

Hangi seçimi yapardınız?

Kendinizi darbe almaya hazırlayabilir ve hasarın sizi sakatlamamasını veya öldürmemesini umabilirsiniz. Öte yandan, radikal bir şekilde uzaklaşabilirsiniz, ancak yakındaki yayaları ciddi şekilde tehlikeye atabilir ve muhtemelen onlara zarar verebilir veya onları öldürebilirsiniz. Bu, ahlaki yargıyı kapsayan zor bir sorundur ve tamamen etik (ve yasal) sonuçlarla doludur.

Ünlü veya belki de kötü şöhretli olarak Troley Problemi olarak adlandırılan bu tür ikilemi kapsayan genel amaçlı bir etik ikilem vardır, bkz. Burada bu linki. 1900'lerin başlarına kadar uzanan, etik açıdan uyarıcı bir düşünce deneyi olduğu ortaya çıktı. Bu nedenle, konu bir süredir ortalıkta dolaşıyor ve daha yakın zamanlarda genellikle yapay zeka ve kendi kendini süren arabaların ortaya çıkışıyla ilişkilendirildi.

İnsan sürücüyü, kendi kendini süren bir arabaya yerleştirilmiş bir AI sürüş sistemi ile değiştirin.

O zaman, kendi kendini süren bir yapay zekalı arabanın bir kavşağa girdiğini ve otonom aracın sensörlerinin aniden kırmızı ışıkta tehlikeli bir şekilde gelen ve sürücüsüz arabaya nişan alan insan odaklı bir araba algıladığını hayal edin. Kendi kendini süren arabanın içinde bazı yolcuların olduğunu varsayalım.

Yapay zekanın ne yapmasını istiyorsunuz?

AI sürüş sistemi ilerlemeyi ve sürülmeyi seçmeli mi (muhtemelen araç içindeki yolculara zarar verme veya belki de öldürme) veya sapma eylemi otonom aracı alsa da AI sürüş sisteminin bir şans alıp uzaklaşmasını mı istiyorsunuz? yakındaki yayalara tehlikeli bir şekilde yaklaşabilir ve onlara zarar verebilir veya onları öldürebilir.

Kendi kendini süren arabaların yapay zeka üreticilerinin çoğu, bu etik yapay zekanın can sıkıcı açmazlarına karşı kumdan bir yaklaşım benimsiyor. Genel olarak, şu anda programlandığı şekliyle AI, basitçe ileri atılacak ve diğer araba tarafından şiddetle çarpılacaktır. Yapay zeka, başka kaçış manevraları aramaya programlanmadı.

AI kendi kendini süren araba üreticilerinin bu kötü görme-kötülük-hiç-duyma duruşunun eninde sonunda gelip onları ısıracağını defalarca tahmin ettim (analizim şurada: buradaki bağlantı). AI'nın ne yapmaya programlandığını bulmaya çalışacak bu tür araba kazalarını içeren davalar bekleyebilirsiniz. Yapay zekayı geliştiren ve görevlendiren şirket, yapay zeka geliştiricileri ya da filo operatörü, yapay zekanın yaptıklarından veya yapmadıklarından ihmalkar mı yoksa sorumlu mu? Ayrıca, bu tür vakalar meydana geldiğinde, kamu çapında bir etik AI farkındalığının ortaya çıkacağını bekleyebilirsiniz.

Bu Etik AI ikilemine, etik odaklı, övülen AI kendi kendini tanıyan çift denetleyici adım atıyor. Belki de bu özel AI bileşeni, bu tür durumlarda devreye girebilir. Bölüm, AI sürüş sisteminin geri kalanını ve kendi kendini süren arabanın durumunu izliyor. Bunun gibi korkunç bir an ortaya çıktığında, AI bileşeni bir Troley Problem çözücü olarak hizmet eder ve AI sürüş sisteminin ne yapması gerektiğini önerir.

Kodlamak kolay bir şey değil, sizi temin ederim.

Sonuç

Şimdilik bu konuyla ilgili son düşüncemi sizlerle paylaşacağım.

İlgi çekici bulmanız muhtemeldir.

Hakkında bir şey biliyor musun ayna testi?

Öz-farkındalık çalışmasında oldukça iyi bilinmektedir. Konunun diğer isimleri ayna kendini tanıma testi, kırmızı nokta testi, allık testi ve ilgili ifadelerdir. Teknik ve yaklaşım ilk olarak 1970'lerin başında hayvanların öz farkındalığını değerlendirmek için hazırlanmıştı. Testi başarıyla geçtiği bildirilen hayvanlar arasında maymunlar, belirli fil türleri, yunuslar, saksağanlar ve diğerleri yer alıyor. Test edilen ve testi geçemediği bildirilen hayvanlar arasında dev pandalar, deniz aslanları vb.

İşte anlaşma.

Bir hayvan kendini bir aynada gördüğünde, gösterilen görüntünün kendilerine ait olduğunu anlıyor mu, yoksa hayvan kendini başka bir hayvan mı sanıyor?

Muhtemelen, hayvan, kendi türünden başkalarını gördüğü için kendi türünü görsel olarak tanır ve bu nedenle aynada gösterilen hayvanın bir kuzeni veya belki de kavgacı bir rakip olduğunu düşünebilir (özellikle hayvan ayna görüntüsüne hırlarsa, ki bu da dönüş onlara hırlıyor gibi görünüyor). Belki de ev kedinizin veya sevgili evcil köpeğinizin kendisini ilk kez bir ev aynasında gördüğünde aynı şeyi yaptığını görmüşsünüzdür.

Her halükarda, vahşi bir hayvanın kendisini daha önce hiç görmediğini varsayabiliriz. Eh, bu mutlaka doğru değildir, çünkü belki de hayvan sakin bir su birikintisinde veya parlak bir kaya oluşumunda kendini görmüş olabilir. Ancak bunlar daha az olası şans olarak kabul edilir.

Tamam, bir hayvanın aynada gösterilen hayvan olduğunu anlayıp anlamadığını bir şekilde değerlendirmek istiyoruz. Görünüşte basit olan bu eylemi düşünün. İnsan var olduğunu ve varlığının kendini aynada görerek kanıtlandığını küçük yaşta anlar. Kendilerinin farkına varırlar. Teoride, kendinizi aynada görene kadar siz olduğunuzu fark etmeyebilirsiniz.

Belki hayvanlar aynı şekilde bilişsel olarak kendilerinin farkına varamazlar. Bir hayvan kendini aynada görebilir ve sürekli olarak başka bir hayvan olduğuna inanabilirdi. Kendisini kaç kez görse de, bunun kendisinden farklı bir hayvan olduğunu düşünecektir.

Bunun hile kısmı devreye giriyor. Hayvan üzerinde bir işaret yapıyoruz. Bu işaret ancak hayvan kendini aynada gördüğünde görülebilmelidir. Hayvan bükülebilir veya dönebilir ve kendi üzerindeki işareti (doğrudan) görebilirse, bu deneyi mahveder. Ayrıca hayvan, işareti hissedemez, koklayamaz veya başka bir şekilde algılayamaz. Bir kez daha, bunu yaparlarsa deneyi mahvederdi. Hayvan, üzerine bir işaret koyduğumuzu bilemez, çünkü bu, canavara orada bir şey olduğuna dair ipucu verir.

İşaretin keşfedilebilmesinin tek olası nedeni aynada kendisine bakmak olacak şekilde şeyleri daraltmak istiyoruz.

Aha, test şimdi hazır. Hayvan bir aynanın önüne yerleştirilir veya ona doğru dolanır. Hayvan daha sonra işarete dokunmaya veya kazmaya çalışırsa, bunun gerçekleşmesinin tek yolunun hayvanın işaretin kendi üzerinde olduğunu fark etmesi olduğu sonucuna varırız. Çok az hayvan türü bu testi başarıyla geçebilmiştir.

Testle ilgili çok sayıda eleştiri var. Bir insan test cihazı yakındaysa, işarete bakarak bir şeyler verebilir ve bu da hayvanın fırçalamasına veya hissetmesine neden olabilir. Diğer bir olasılık da, hayvanın aynada başka bir hayvanın gösterildiğine inanması, ancak bunun aynı türden olması ve bu nedenle hayvanın da diğer hayvanın üzerindeki gibi bir işareti olup olmadığını merak etmesidir.

Devam ediyor ve gidiyor.

Eminim bunu bilmekten memnunsunuzdur ve bir hayvanın üzerinde neden böyle bir işarete sahip olmayacak bir nokta veya tuhaf bir işaret olduğunu bundan sonra anlayacaksınız. Kim bilir, yakın zamanda bir ayna testi deneyini bitirmiş olabilir. Cömert bir katılımcı olduğu için hayvanı güvenle tebrik edin.

Bunların yapay zeka tabanlı kendi kendini süren arabalarla ne ilgisi var?

Bu bölümü beğeneceksin.

Uzun bir otoyolda kendi kendine giden bir araba gidiyor. AI sürüş sistemi, diğer trafiği algılamak için sensörler kullanıyor. Bu, bir şeritte kuzeye, diğer şeritte güneye giden trafiğin olduğu iki şeritli bir otoyol. Ara sıra, arabalar ve kamyonlar birbirlerini geçmeye çalışacaklar, bunu karşı şeride girerek ve sonra uygun seyahat şeritlerine geri atlayarak yapacaklar.

Bunu gördünüz, şüphesiz bunu yaptınız.

Bahse girerim bu sonraki olay senin de başına gelmiştir. Kendi kendini süren arabanın önünde, o büyük tankerlerden biri var. Parlak metalden yapılmıştır. Bir ıslık gibi cilalı ve temiz. Böyle bir kamyonun arkasına geçtiğinizde, tankerin arka kısmından aracınızın ayna görüntüsünü görebilirsiniz. Bunu gördüyseniz, ne kadar büyüleyici olabileceğini bilirsiniz. İşte buradasınız, siz ve arabanız, tankerin arkasının aynaya benzer yansımasına yansıyorsunuz.

Çılgın büküm için oturun.

Tankerin arkasında sürücüsüz bir araba beliriyor. Kameralar, ayna benzeri yansımada gösterilen bir arabanın görüntüsünü algılar. Whoa, AI değerlendirir, bu bir araba mı? Kendi kendine giden arabaya mı geliyor? Kendi kendini süren araba, tanker kamyona yaklaştıkça, araba daha da yaklaşıyor gibi görünüyor.

Yikes, AI hesaplamalı olarak bunun tehlikeli bir durum olduğunu hesaplayabilir ve AI'nın bu çılgın haydut araçtan kaçınma eylemi yapması gerekir. Görüyorsunuz, AI aynada kendini tanımadı. Ayna testinde başarısız oldu.

Ne yapalım? Belki de yapay zekanın kendi kendini tanıyan çifte denetleyicisi konuya atlar ve yapay zeka sürüş sisteminin geri kalanına bunun yalnızca zararsız bir yansıma olduğu konusunda güvence verir. Tehlike önlendi. Dünya kurtuldu. AI Mirror Testinin başarılı geçişi!

Şaka gibi bir sonuca vararak, bazen yapay zekanın ortalama bir ayıdan daha akıllı veya en azından kendinin farkında olduğunu bile söyleyebiliriz (yine de ayıların kredisine göre, genellikle ayna testinde başarılı olurlar, çoğu zaman su havuzlarında yansımalarına alışkın).

Düzeltme, belki yapay zeka dev pandalardan ve deniz aslanlarından daha bilinçli olabilir, ancak hayvanlara yapay zeka sistemlerini parçalamak veya ezmek için cazip olabileceklerini söylemeyin. Bunu istemiyoruz, değil mi?

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/