Yapay Zeka Etiği ve Yapay Zeka Yasası, Dans Eden Robot Yapımcıların Yapay Zeka Silahlandırmasını Önleyeceklerini Söyleyerek Bu Yeni Söz Hakkında Zor Sorular Soruyor

Geçen hafta haberlerde görmüş veya sosyal medyada bazı robot üreticilerinin, genel amaçlı robotların yapay zeka tarafından silahlandırılmasını engelleme yönünde açıkladıkları taahhütlerini fark etmiş olabilirsiniz. Birazdan size ayrıntıları anlatacağım, bu yüzden konuyu anlamadıysanız endişelenmeyin.

Bu duyuruya verilen tepki hızlı oldu ve belki de kutuplaşmış toplumumuzda her zamanki gibi hem övgü dolu hem de zaman zaman alaycı bir şekilde eleştirel ya da düpedüz iğrenç bir şüpheci oldu.

Bu iki dünyanın hikayesi.

Bir dünyada bazıları bunun tam olarak ihtiyacımız olan şey olduğunu söylüyor sorumlu AI robot geliştiricileri beyan edecek.

Çok şükür, giderek daha görünür hale gelecek ve endişe verici bir meselenin doğru tarafında olduğunuz için. Bu sevimli dans eden robotlar rahatsız edici çünkü onları silah taşımaya ve en kötü şekillerde kullanılmaya ikna etmek oldukça kolaydır (sosyal medyaya giderek bunu kendiniz kontrol edebilirsiniz ve makineli tüfeklerle silahlanmış dans eden robotları gösteren bol miktarda video vardır. diğer silahlar).

Madalyonun diğer yüzünde sözüm ona rehnin bir pazarlama veya halkla ilişkiler taktiğinden başka bir şey olmadığı yazıyor (bir ek not olarak, rehin ile bağış arasındaki farkı bilen var mı?). Her neyse, şüpheciler bunun dans eden robotlar bağlamında dizginsiz bir erdem sinyali olduğunu öne sürüyorlar. Görüyorsunuz, genel amaçlı robotların silah haline getirilebileceği gerçeğinden yakınmak kesinlikle değerli ve ciddiyetle aranan bir düşüncedir, ancak bir üreticinin bunu yapmayacağını iddia etmek muhtemelen içi boş bir vaattir, bazıları ısrar ediyor.

Sonuç olarak, tüm konu oldukça ağır bir dizi Yapay Zeka Etiği ve Yapay Zeka Hukuku hususunu gündeme getiriyor. Konuyu titizlikle açacağız ve bunun nasıl etik ve yasal bir yapay zeka bataklığının çifte belası olduğunu göreceğiz. Yapay Zeka Etiği ve Yapay Zeka Hukuku ile ilgili devam eden ve kapsamlı kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Ayrıca bu tartışma boyunca yapay zekanın silahlandırılmasının tehlikelerine ilişkin daha önceki analizlerime de atıfta bulunacağım. buradaki bağlantı. Kamera arkası ayrıntıları için bu söyleme göz atmak isteyebilirsiniz.

Solucan Kutusunu Açan Açık Mektup

Bu analize, Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics ve Unitree gibi nispeten iyi bilinen altı gelişmiş robot üreticisi tarafından yakın zamanda yayınlanan Açık Mektup'u adım adım dikkatli bir şekilde inceleyerek başlayalım. Genel olarak, dört ayak üzerinde zıplayan Boston Dynamics robotlarını gördüğünüzü tahmin ediyorum. Köpeğe benziyorlarmış gibi görünüyorlar ve onların etrafta koşturmasını görmekten keyif alıyoruz.

Daha önce ve defalarca uyardığım gibi, bu tür "dans eden" robotların, genel kamuoyunu bu robotların sevimli ve tapılası olduğuna ikna etme aracı olarak kullanılması, ne yazık ki yanıltıcıdır ve onları antropomorfize etmenin birçok tuzağına sürükler. Bu sertleştirilmiş metal ve plastik parçalarını sanki sevimli ve sadık bir köpeğe eşdeğermiş gibi düşünmeye başlarız. Bu robotları kabul etme isteğimiz sahte bir güvenlik ve güvence duygusuna dayanmaktadır. Elbette, bir para kazanmanız gerekiyor ve dans eden robotların etrafında gösteri yaparak bunu yapma ihtimaliniz artıyor, ancak bu, ne yazık ki, bu robotların robot olduğu ve robotları kontrol eden yapay zekanın yanlış bir şekilde tasarlanabileceği gerçeğini göz ardı ediyor veya görünüşte gizler. ya da ters git.

Yapay zekanın bu sonuçlarını düşünün (Yapay zekanın silahlandırılmasıyla ilgili makalemden alıntı: buradaki bağlantı):

  • AI, yoldan çıkmasına neden olan bir hatayla karşılaşabilir
  • AI bunalmış olabilir ve yanıt vermeden kilitlenebilir
  • AI, düzensiz davranışa neden olan geliştirici hataları içerebilir
  • Yapay zeka, implante edilmiş kötü niyetli virüs ile bozulabilir
  • Yapay zeka gerçek zamanlı olarak siber korsanlar tarafından ele geçirilebilir
  • AI, karmaşıklıklar nedeniyle öngörülemez olarak kabul edilebilir
  • AI, hesaplamalı olarak “yanlış” kararı verebilir (nispeten)
  • Vb

Bunlar, başlangıçta doğru olanı yapmak için gerçekten tasarlanan türden yapay zeka ile ilgili noktalardır.

Bu hususların üstüne, başlangıçtan itibaren kötü şeyler yapmak üzere tasarlanmış yapay zeka sistemlerini de dahil etmelisiniz. Yararlı amaçlar için yapılmış yapay zekaya sahip olabilirsiniz; buna sıklıkla şu ad verilir: AI için iyi. Ayrıca kötü amaçlar için kasıtlı olarak yapılmış yapay zekaya da sahip olabilirsiniz. Kötü İçin AI. Ayrıca, sahip olabilirsiniz AI için iyi bozulmuş ya da yeniden düzenlenerek yeniden biçimlendirilmiş Kötü İçin AI.

Bu arada, bunların hiçbirinin yapay zekanın duyarlı hale gelmesiyle hiçbir ilgisi yok, bundan bahsediyorum çünkü bazıları günümüzün yapay zekasının ya duyarlı olduğunu ya da duyarlı olmanın eşiğinde olduğunu haykırıp duruyor. Öyle değil. Analizimde bu mitleri parçalara ayırıyorum buradaki bağlantı.

O halde günümüz yapay zekasının doğası konusunda aynı fikirde olduğumuzdan emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. Duyarlı AI hakkında çılgınca spekülasyon yapmak isteseydik, bu tartışma kökten farklı bir yöne gidebilirdi. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

Her şeyi gerçekçi tutmamızı ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını düşünmemizi şiddetle tavsiye ederim.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Günümüzün yapay zekasını antropomorfize ederken çok dikkatli olun.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şu anda gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü olan önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Tüm bunların önemli ölçüde AI Etiği sonuçları vardır ve AI'yı yasalaştırmaya çalışırken öğrenilen derslere (hatta tüm dersler gerçekleşmeden önce) kullanışlı bir pencere sunar.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazı öldüreceğimiz konusunda önceden uyarıyorlar.

Önceki sütunlarda, yapay zekayı düzenleyen yasalar oluşturmak ve yürürlüğe koymak için çeşitli ulusal ve uluslararası çabaları ele aldım, bkz. buradaki bağlantı, örneğin. Ayrıca, yaklaşık 200 ülkenin benimsediği UNESCO AI Etiği seti gibi Birleşmiş Milletler çabası da dahil olmak üzere, çeşitli ulusların belirlediği ve benimsediği çeşitli AI Etiği ilkelerini ve kılavuzlarını da ele aldım, bkz. buradaki bağlantı.

İşte daha önce yakından araştırdığım AI sistemleriyle ilgili Etik AI kriterlerinin veya özelliklerinin yararlı bir temel taşı listesi:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Bu AI Etik ilkelerinin, AI geliştirme çabalarını yönetenlerin yanı sıra AI geliştiricileri tarafından ve hatta nihayetinde AI sistemlerinde bakım yapan ve bakım yapanlar tarafından ciddiyetle kullanılması gerekiyor.

Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. "Yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayım olduğundan, bu önemli bir vurgudur. Burada daha önce vurgulandığı gibi, AI'yı tasarlamak ve sahaya koymak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Artık Açık Mektup'a girmek için yararlı bir temel oluşturduğuma göre, dalmaya hazırız.

Açık Mektubun resmi konu başlığı şöyle:

  • "Robotik Sektörüne ve Toplumlarımıza Açık Mektup: Genel Amaçlı Robotlar Silahlandırılmamalı”(çevrimiçi olarak yayınlanana göre).

Şimdiye kadar, çok iyi.

Başlık neredeyse dondurma ve elmalı turtaya benziyor. Yapay zeka robotlarının silahlandırılmasından kaçınmak için buna eski bir çağrı olarak nasıl itiraz edilebilir?

Görmek için okumaya devam edin.

İlk olarak, açık mektubun resmi açılış paragrafını ele alalım:

  • “Kendini topluma yeni nesil gelişmiş mobil robot teknolojisi sunmaya adamış dünyanın önde gelen şirketlerinden biriyiz. Bu yeni nesil robotlar, önceki nesillere göre daha erişilebilir, daha kolay çalıştırılabilir, daha otonom, daha uygun maliyetli ve daha uyarlanabilir niteliktedir ve daha önce otomatik veya uzaktan kontrol edilen teknolojilerle erişilemeyen yerlere gitme yeteneğine sahiptir. Gelişmiş mobil robotların, endüstride iş arkadaşı, evimizdeki yol arkadaşı olarak topluma büyük fayda sağlayacağına inanıyoruz” (çevrimiçi paylaşıma göre).

Bu tür robotların ortaya çıkmasının güneşli tarafı, pek çok büyük faydanın ortaya çıkacağını tahmin edebilmemizdir. Buna hiç şüphe yok. Evinizde, evinizi temizlemek, bulaşıklarınızı yıkamak ve evdeki diğer işleri yapmak gibi Jetson benzeri aktiviteleri yapabilecek bir robotunuz olabilir. Fabrikalarda ve üretim tesislerinde kullanılacak gelişmiş robotlarımız olacak. Robotlar, bir binanın çöktüğü ve insan hayatının kurtarılmasının tehlikede olduğu durumlarda, dar alanlarda potansiyel olarak sürünebilir veya manevra yapabilir. Ve benzeri.

Bir yana, bazı yürüyen robotların Elon Musk tarafından Tesla'nın ve toplumun geleceği olarak tasvir edildiği Tesla Yapay Zeka Günü ile ilgili yakın zamanda yaptığım eleştirel haber ilginizi çekebilir, bkz. buradaki bağlantı.

Eldeki konuya geri dönelim. Dans eden robotları veya yürüyen robotları ciddi bir şekilde tartışırken, bu yapay zeka kullanımının ödünleşimlerini veya toplam yatırım getirisini (Yatırım Getirisi) dikkatli bir şekilde hesaba katmamız gerekir. Dikkate alınması gereken maliyetler de varken, faydalara aşırı derecede aşık olmamıza izin vermemeliyiz.

Parlak yeni bir oyuncağın kenarları oldukça keskin olabilir.

Tüm bunlar, AI silahlandırma sorununun şu anda ortaya çıkmasının nedeninin bir kısmının, AI'nın otonom faaliyete doğru ilerlemesinden kaynaklandığına dair önemli ama bir şekilde sessiz kalan bir noktayı teşvik ediyor. Genellikle silahların genellikle insanlar tarafından çalıştırıldığını beklerdik. Silahı ateşleyip ateşlememe kararını bir insan verir. Muhtemelen o insanı eylemlerinden sorumlu tutabiliriz.

Bağımsız çalışacak şekilde tasarlanan veya kandırılabilen yapay zeka, görünüşte insanı döngüden çıkaracaktır. Yapay zeka daha sonra algoritmik olarak insanları öldürmeye veya onlara zarar vermeye yol açabilecek hesaplamalı kararlar alıyor. Yapay zeka üzerinde kontrol eksikliğine ilişkin bariz endişelerin yanı sıra, yapay zekanın eylemlerine ilişkin sorumluluğu belirleme konusunda zorlu bir zamanımız olabileceğine dair endişeleriniz de var. Açıkça kışkırtıcımız olan bir insanımız yok.

Bazılarının, yapay zeka duyarlılığa ulaşmış veya başka bir şekilde tüzel kişilik verilmiş gibi, yapay zekayı basit ve doğrudan eylemlerinden sorumlu tutmamız gerektiğine inandığının farkındayım (yapay zekanın tüzel kişilik kazanması konusundaki tartışmalara ilişkin makaleme bakın) buradaki bağlantı). Bu şimdilik işe yaramayacak. Yapay zekanın izini onu tasarlayan ya da onu sahaya çıkaran insanlara kadar takip etmemiz gerekecek. Şüphesiz yapay zekanın öngördüklerinin ötesine geçtiğini iddia ederek yasal olarak sorumluluktan kaçmaya çalışacaklar. Bu, başa çıkmamız gereken büyüyen bir çekişmedir (ilişkili tartışmalı konulara dair içgörüler için Yapay Zeka Hukuku yazılarıma bakın).

Birleşmiş Milletler (BM), Cenevre'deki Bazı Konvansiyonel Silahlar Sözleşmesi (CCW) aracılığıyla, çevrimiçi olarak yayınlanan resmi rapora göre (ilgili Uluslararası İnsani Hukuk veya IHL hükümlerine yapılan atıfları kapsayan) Ölümcül Otonom Silahlara ilişkin on bir bağlayıcı olmayan Kılavuz İlke oluşturmuştur. , içermek:

(a) Uluslararası insancıl hukuk, ölümcül otonom silah sistemlerinin potansiyel gelişimi ve kullanımı da dahil olmak üzere, tüm silah sistemlerine tam olarak uygulanmaya devam etmektedir;

(b) Hesap verme sorumluluğu makinelere devredilemeyeceğinden, silah sistemlerinin kullanımına ilişkin kararlarda insan sorumluluğu korunmalıdır. Bu, silah sisteminin tüm yaşam döngüsü boyunca düşünülmelidir;

(c) Çeşitli biçimler alabilen ve bir silahın yaşam döngüsünün çeşitli aşamalarında uygulanabilen insan-makine etkileşimi, ölümcül otonom silah sistemleri alanında gelişen teknolojilere dayalı silah sistemlerinin potansiyel kullanımının uygun olmasını sağlamalıdır. yürürlükteki uluslararası hukuka, özellikle IHL'ye uygunluk. İnsan-makine etkileşiminin kalitesini ve kapsamını belirlerken, operasyonel bağlam ve bir bütün olarak silah sisteminin özellikleri ve yetenekleri dahil olmak üzere bir dizi faktör göz önünde bulundurulmalıdır;

(d) CCW çerçevesinde ortaya çıkan herhangi bir silah sisteminin geliştirilmesi, konuşlandırılması ve kullanılmasına ilişkin sorumluluk, bu tür sistemlerin sorumlu bir insan komuta ve kontrol zinciri içinde işletilmesi de dahil olmak üzere, geçerli uluslararası hukuka uygun olarak sağlanmalıdır;

(e) Devletlerin uluslararası hukuk kapsamındaki yükümlülüklerine uygun olarak, yeni bir silah, araç veya savaş yönteminin incelenmesinde, geliştirilmesinde, edinilmesinde veya benimsenmesinde, kullanılmasının bazı veya tüm koşullarda kullanılıp kullanılmayacağına karar verilmelidir. uluslararası hukuk tarafından yasaklanmış;

(f) Ölümcül otonom silah sistemleri, fiziksel güvenlik, uygun fiziksel olmayan önlemler (hack veya veri sahteciliğine karşı siber güvenlik dahil) alanında gelişen teknolojilere dayalı yeni silah sistemleri geliştirirken veya edinirken, terörist gruplar tarafından edinme riski ve çoğalma riski dikkate alınmalıdır;

(g) Risk değerlendirmeleri ve hafifletme önlemleri, herhangi bir silah sisteminde ortaya çıkan teknolojilerin tasarım, geliştirme, test etme ve uygulama döngüsünün bir parçası olmalıdır;

(h) Uluslararası İnsancıl Hukuk ve diğer geçerli uluslararası yasal yükümlülüklere uyumun korunmasında ölümcül otonom silah sistemleri alanında gelişen teknolojilerin kullanımına önem verilmelidir;

(i) Potansiyel politika önlemlerinin hazırlanmasında, ölümcül otonom silah sistemleri alanında ortaya çıkan teknolojiler insansılaştırılmamalıdır;

(j) CCW bağlamında alınan tartışmalar ve herhangi bir potansiyel politika önlemi, akıllı özerk teknolojilerin barışçıl kullanımlarında ilerlemeyi veya bunlara erişimi engellememelidir;

(k) CCW, askeri gereklilik ile insani mülahazalar arasında bir denge kurmayı amaçlayan Sözleşme'nin amaçları ve amaçları bağlamında, ölümcül otonom silah sistemleri alanında gelişen teknolojiler konusunu ele almak için uygun bir çerçeve sunmaktadır.

Bunlar ve diğer çeşitli savaş kanunları ve silahlı çatışma kanunları veya IHL (Uluslararası İnsani Kanunlar), ister kilit taşı olsun, ister silah haline getirilmiş otonom sistemlerin ortaya çıkışı konusunda ne yapmaya çalışabileceğimizi düşünmek için hayati ve her zaman ümit verici bir rehber görevi görmektedir. tasarım veya olay sonrası yöntemlerle.

Bazıları, silah haline getirilebilen yapay zeka otonom sistemlerini açıkça yasaklamamız gerektiğini söylüyor. Doğru, dünya ayağını yere koymalı ve AI otonom sistemlerinin asla silah haline getirilmemesini yüksek sesle talep etmelidir. Topyekûn bir yasak getirilmeli. Hikayenin sonu. Tam durak, nokta.

Ölümcül silahlara sahip otonom sistemlere yönelik yasağın sıkı ve itaatkar bir şekilde uygulanmasını içtenlikle dileyebiliriz. Sorun şu ki, en samimi yasakların herhangi birinde sinsice çok fazla hareket alanı bulunması kaçınılmazdır. Dedikleri gibi kurallar çiğnenmek içindir. İşlerin gevşek olduğu durumlarda ayaktakımının boşlukları bulup kuralların etrafından dolaşmaya çalışacağına bahse girebilirsiniz.

İşte dikkate değer bazı potansiyel boşluklar:

  • Ölümcül Olmayan İddialar. Ölümcül olmayan otonom silah sistemleri yapın (yasak sınırının dışında olduğu için görünüşte sorun yok), bunu daha sonra çok kısa bir sürede ölümcül hale getirebilirsiniz (yalnızca son dakikada yasağın ötesinde olacaksınız).
  • Yalnızca Otonom Sistem İddiaları. Bu arada, ölümcül odaklı otonom sistemler yapmayarak yasağı sürdürün, bu arada, (henüz) silahlanmayan, ancak silah haline getirilmek için bir kuruş güçlendirme yapabileceğiniz günlük otonom sistemler tasarlama konusunda ilerleme kaydedin.
  • Bir Olarak Bütünleşmeme İddiaları. Hiçbir şekilde silahlandırılmayan otonom sistemler yaratın ve zamanı geldiğinde silahlandırmayı sırtlayın, böylece bunların iki ayrı unsur olduğunu hararetli bir şekilde iddia etmeye çalışabilirsiniz ve bu nedenle hepsi bir arada ürünün kapsamına girmediklerini iddia edebilirsiniz. otonom silah sistemi veya kuzeni.
  • Özerk Olmadığını İddia Ediyor. Otonom kapasiteye sahip gibi görünmeyen bir silah sistemi yapın. Muhtemelen özerk olmayan bu sistemde yapay zeka tabanlı özerkliğin devreye girmesi için yer bırakın. Gerektiğinde özerkliği takın ve oynamaya hazırsınız (o zamana kadar yasağı ihlal etmiyormuşsunuz gibi görünüyor).
  • Diğer

Ölümcül otonom silah sistemlerini tamamen yasaklamaya çalışmanın başka ifade edilen birçok zorluğu var. Birkaç tanesine daha değineceğim.

Bazı uzmanlar, yasağın özellikle yararlı olmadığını ve bunun yerine düzenleyici hükümler olması gerektiğini savunuyor. Buradaki fikir, bu mekanizmalara izin verilecek, ancak sıkı bir şekilde denetlenecek. Yasal hedefleme yöntemleri, yasal yetenek türleri, yasal orantılılık ve benzerleriyle birlikte bir dizi yasal kullanım düzenlenmiştir.

Onlara göre, doğrudan yasak, kafanızı kuma sokmak ve odadaki fil yokmuş gibi davranmak gibidir. Ancak bu iddia, bir yasak koyarak bu tür sistemlerin peşinden gitme eğilimini önemli ölçüde azaltabileceğiniz argümanına karşı çıkanların kanını kaynatıyor. Elbette, bazıları yasağı gösteriş yapacak, ama en azından umarım çoğu yapmaz. Daha sonra dikkatinizi gösterişçilere odaklayabilir ve dikkatinizi herkese dağıtmak zorunda kalmazsınız.

Dönüp dolaşıp bu tartışmalar dönüyor.

Sık sık dile getirilen bir diğer endişe ise, iyiler yasağa uysa bile kötülerin uymamasıdır. Bu, iyiyi kötü bir duruma sokar. Kötüler bu tür silahlı otonom sistemlere sahip olacak, iyiler ise olmayacak. Kötülerin elinde olduğu ortaya çıktığında, iyilerin yetişmesi için çok geç olacak. Kısacası yapılacak tek akıllıca şey, ateşe ateşle karşılık vermeye hazırlanmaktır.

Bir de klasik caydırıcılık tartışması var. Eğer iyiler silahlandırılmış otonom sistemler yapmayı tercih ederse, bu, kötüleri kavgaya girmekten caydırmak için kullanılabilir. Ya iyiler daha iyi silahlanacak ve böylece kötüleri caydıracak ya da kötüler bu sistemleri baştan beri gizlice tasarladıklarını ortaya çıkardığında iyiler hazır olacak.

Bu sayaçlara bir karşı, silahlı otonom sistemler yaparak bir silahlanma yarışı yürütüyor olmanızdır. Diğer taraf da aynı şeyi elde etmek isteyecektir. Teknolojik olarak bu tür sistemleri yeniden yaratamasalar bile, artık “iyi” olanların planlarını çalabilecek, yüksek teknoloji cesaretini tersine çevirebilecek veya denenmiş ve doğru olarak gördükleri her şeyi taklit edebilecekler. işi bitirmenin yolu.

Aha, bazılarının cevabı, tüm bunlar karşılıklı bir benzerlik yoluyla çatışmaların azalmasına yol açabilir. Eğer A tarafı, B tarafının ölümcül otonom sistem silahlarına sahip olduğunu biliyorsa ve B tarafı da A tarafının bu silahlara sahip olduğunu biliyorsa, sıkı durabilir ve kavgaya girişmeyebilirler. Bu, karşılıklı garantili yıkım (MAD) titreşimlerinin farklı bir aurasına sahiptir.

Ve benzerleri.

İkinci Paragrafa Yakından Bakmak

Burada zaten pek çok konuyu ele aldık ve şu ana kadar Açık Mektubun yalnızca ilk veya açılış paragrafını ele aldık (toplamda dört paragraf var).

İkinci paragrafa göz atmanın zamanı geldi, işte başlıyoruz:

  • “Yeni yetenekler sunan her yeni teknolojide olduğu gibi, gelişmiş mobil robotların ortaya çıkışı da kötüye kullanım olasılığını beraberinde getiriyor. Güvenilmez kişiler bunları sivil hakları ihlal etmek veya başkalarını tehdit etmek, zarar vermek veya korkutmak için kullanabilir. Özellikle endişe duyulan alanlardan biri silahlanmadır. Uzaktan veya otonom olarak çalıştırılan, halkın kullanımına yaygın olarak sunulan ve insanların yaşadığı ve çalıştığı, önceden erişilemeyen yerlere gidebilen robotlara silah eklenmesinin, yeni zarar risklerini ve ciddi etik sorunları artırdığına inanıyoruz. Bu yeni yetenekli robotların silahlandırılmış uygulamaları, topluma getirecekleri muazzam faydalara zarar verecek şekilde halkın teknolojiye olan güvenini de zedeleyecek. Bu nedenlerden dolayı, gelişmiş hareket kabiliyetine sahip genel amaçlı robotlarımızın silah haline getirilmesini desteklemiyoruz. Geçmişte bu konu hakkında konuşmuş olanlar ve ilk kez bu konuyla ilgilenenler için, son aylarda az sayıda insanın derme çatma çözümlerini gözle görülür bir şekilde duyurmasının neden olduğu artan kamuoyu endişesi ışığında artık yenilenmiş bir aciliyet hissediyoruz. ticari olarak satılan robotları silah haline getirme çabaları” (çevrimiçi olarak yayınlandığı üzere).

İkinci paragrafı okuduğunuzda, burada yapay zekanın silahlandırılmasına ilişkin önceki söylemimin nasıl ön plana çıktığını umarım görebilirsiniz.

Birkaç ek noktayı inceleyelim.

Bazıları tarafından tehlikeye atılan belirli bir ifade yönüne ilişkin endişelerden biri, anlatının "güvenilmez insanların" bu AI robotlarını kötüye kullanabileceğini vurguluyor gibi görünmesidir. Evet, aslında yapay zeka robotlarını "kötüye kullanacak" alçakça eylemlere yol açanlar kötü insanlar veya kötülük yapanlar olabilir.

Aynı zamanda, bu tartışmanın başında da belirttiğimiz gibi, muhtemelen yerleşik hatalar veya hatalar ve benzeri diğer komplikasyonlar nedeniyle yapay zekanın ters gidebileceğini de açıkça belirtmemiz gerekiyor. İfade edilen endişe, yalnızca gerçekleşme ihtimalinin vurgulanmasıdır. güvenilmez insanlar diğer olumsuz olasılıkları görmezden geliyor gibi görünmesidir. Çoğu yapay zeka şirketi ve satıcısı bunu kabul etmekten isteksiz olsa da, otonom sistemlerin güvenliğini ve güvenilirliğini azaltabilecek çok sayıda yapay zeka sistemi sorunu var. Yapay zeka güvenliği ve sıkı ve kanıtlanabilir güvenlik önlemlerine duyulan ihtiyaç hakkındaki kapsamım için bkz. buradaki bağlantı, Örneğin.

Açık Mektubu inceleyenler arasında ortaya çıkan bir diğer dikkate değer nokta, yapay zeka robotlarına ilişkin kamu güveninin zedelenebileceği yönündeki iddiayı içeriyor.

Bir yandan bu geçerli bir iddiadır. Yapay zeka robotları kötü emirler vermek için kullanılırsa halkın oldukça öfkeleneceğine bahse girebilirsiniz. Halk sinirlendiğinde, yasa koyucuların akına katılacağına ve yapay zeka robotlarına ve yapay zeka robot yapımcılarına baskı uygulayacak yasalar çıkarmaya çalışacağına bahse girebilirsiniz. Yasaların her şeyi kapsaması ve yapay zeka robotik faydalarını içeren çabaları durdurması halinde bu durum, yapay zeka robot endüstrisini sekteye uğratabilir. Bir anlamda bebek banyo suyuyla birlikte dışarı atılabilir (eski bir tabir, muhtemelen emekli olmayı hak ediyor).

Ortaya çıkan bariz soru da halkın yapay zeka robotlarına olan güveninin azalmasını engellemeye yönelik bu iddianın kendi kendine hizmet eden bir inanış mı olduğu, yoksa hepimizin iyiliği için mi olduğu (her ikisi de olabilir mi?).

Sen karar ver.

Şimdi Açık Mektubun özellikle önemli kısmına geliyoruz:

  • “Gelişmiş mobiliteye sahip genel amaçlı robotlarımızı veya gelişmiş robot teknolojisine imkan veren geliştirdiğimiz yazılımları silah haline getirmeyeceğimize ve başkalarının da bunu yapmasına destek olmayacağımıza söz veriyoruz. Mümkün olduğunda, potansiyel silahlanmayı önlemek için müşterilerimizin amaçlanan uygulamalarını dikkatle inceleyeceğiz. Ayrıca bu riskleri hafifletebilecek veya azaltabilecek teknolojik özelliklerin geliştirilmesini araştırmayı da taahhüt ediyoruz. Açık olmak gerekirse, ulusların ve devlet kurumlarının kendilerini savunmak ve yasalarını sürdürmek için kullandıkları mevcut teknolojilerle ilgilenmiyoruz” (çevrimiçi olarak yayınlandığı gibi).

Bunu açabiliriz.

Oturup kendinizi buna göre hazırlayın.

Ateşli bir kutuplaşmaya hazır mısın?

Olumlu tarafı, bazıları bu yapay zeka robot üreticilerinin böyle bir taahhütte bulunacağını sesli olarak müjdeliyor. Görünüşe göre bu robot üreticileri, şükürler olsun ki, "ileri hareket kabiliyetine sahip genel amaçlı" robotlarını silah haline getirmemeye çalışacaklar. Ayrıca Açık Mektup, bunu yapanları desteklemeyeceklerini söylüyor.

Eleştirmenler, zekice bir sözcük ustalığı olup olmadığını merak ediyor.

Örneğin “ileri düzey mobilite” nerede başlıyor ve bitiyor? Eğer bir robot üreticisi bir şey tasarlıyorsa basit- Gelişmiş bir robot yerine (ki bu teknoloji jargonunun tanımsız bir parçasıdır) hareketlilik sağlayan yapay zeka robotu, yapılacak olanın kapsamı dışında mı kalacak? değil silahlandırılacak mı? Bu nedenle, görünüşe göre, basit hareket kabiliyetine sahip yapay zeka robotlarını, sözde olmadıkları sürece silah haline getirmekte sorun yok. ileri.

Aynı şey genel amaçlı robotların ifadeleri için de geçerli. Eğer bir yapay zeka robotu özellikle silahlandırma için tasarlanmışsa ve dolayısıyla öyle değilse, genel amaçlı robot, bu kapsamdan geçerli bir dışlama haline mi geliyor?

Bu kelime oyunlarıyla tartışabilir ve hararetle bunun sadece bir Açık Mektup olduğunu ve her köşeyi bucak ayrıntılarıyla anlatan elli sayfalık bir yasal belge olmadığını iddia edebilirsiniz.

Bu bizi bazılarının ifade ettiği görünüşte daha makro düzeydeki kaygıya getiriyor. Aslında “taahhüt” ne anlama geliyor?

Bazıları soruyor, sığır eti nerede?

Böyle bir taahhütte bulunan bir şirket, görünüşe göre bunu oyunda hiçbir gerçek payı olmadan yapıyor. Bu taahhüde imza atan herhangi bir firmanın üst düzey yöneticileri artık taahhüdü yerine getirmemeye karar verirse o firmaya ne olur? Yöneticiler derhal görevden alınacak mı? Şirket kapanacak ve taahhüdü ihlal ettiği için bolca özür dileyecek mi? Ve benzeri.

Anlaşıldığı kadarıyla rehin ihlaline ilişkin özel bir ceza veya yaptırım bulunmamaktadır.

İtibarınızın zarar görmesi ihtimalinin olduğunu iddia edebilirsiniz. Rehin veren bir firma, artık uymadığına dair bir taahhütte bulunduğu için piyasada olumsuz etkilenebilir. Elbette bu aynı zamanda insanların söz verildiğini hatırlayacağını da varsayar. Aynı zamanda taahhüt ihlalinin bir şekilde tespit edileceğini de varsayar (bunu yaparsa bir firmanın her şeyi anlatması pek mümkün görünmemektedir). Taahhüdünü ihlal edenin çağrılması gerekecekti, ancak böyle bir konu, yapay zeka robot üreticileri hakkında devam eden haber tsunamisinde sadece gürültü haline gelebilir.

Ortaya çıkan başka bir açıyı düşünün.

Rehin veren bir firma daha büyük bir firma tarafından satın alınır. Daha büyük olan firma, gelişmiş mobiliteye sahip genel amaçlı robotları yapay zeka destekli silahlı versiyonlara dönüştürmeye başlamayı tercih ediyor.

Bu taahhüt ihlali midir?

Büyük firma, kendisi (büyük firma) hiçbir zaman taahhütte bulunmadığı için bunun bir ihlal olmadığı konusunda ısrar edebilir. Bu arada, küçük firmanın bir araya getirip tasarladığı ve görünüşte en fedakar niyetlerle yaptığı zararsız yapay zeka robotları, neredeyse bir gecede silah haline getirilerek yenileniyor.

Taahhüdü bir nevi baltalıyor, ancak küçük firmanın bunun bir gün olacağını bilmediğini söyleyebilirsiniz. Arzularında ciddiydiler. Daha büyük satın alma firmasının ne yapmayı tercih ettiği onların kontrolü dışındaydı.

Bazıları da bunun hukuki bir sorumluluğu olup olmadığını soruyor.

Taahhüt veren bir firma birkaç ay sonra taahhüdünü yerine getirmeyeceğine karar verir. Fikirleri değişti. Firmaya verdiği rehinden vazgeçtiği için dava açılabilir mi? Kim dava açacak? Davanın dayanağı ne olacak? Bir takım hukuki sorunlar ortaya çıkıyor. Dedikleri gibi, hemen hemen herkes hakkında dava açabilirsiniz, ancak galip gelip gelemeyeceğiniz tamamen farklı bir konudur.

Bunu başka bir şekilde düşünün. Vaat veren bir firma, gelişmiş mobiliteye sahip genel amaçlı robotlarının bir kısmını, robotları almak için çok para ödemeye hazır devasa bir şirkete satarak gerçekten büyük bir anlaşma yapma fırsatını yakalıyor. Bu, hayatta bir kez karşılaşabileceğiniz zilyon dolarlık satın alma anlaşmalarından biri.

Yapay zekalı robot şirketi ne yapmalı?

Yapay zekalı robot bilimi vaadi veren firma halka açıksa, neredeyse kesinlikle satışı yapmayı hedefleyeceklerdir (tam olarak öyle olmasa da aynı şey özel bir şirket için de söylenebilir). Rehin veren firmanın, alıcının robotları silah haline getirmeye çalışabileceğinden endişe duyduğunu hayal edin, ancak diyelim ki masada böyle bir tartışma yok. Sadece alıcının bunu yapabileceği söyleniyor.

Buna göre taahhüt veren firma, robotların silah haline getirilmeyeceğini lisanslarına koyuyor. Alıcı bu dile karşı çıkıyor ve satın alma işleminden uzaklaşıyor.

Taahhüt veren yapay zeka robotik firması ne kadar kârdan vazgeçti?

Elde edilen kârın, lisans kısıtlama gerekliliğinin dahil edilmesinden (veya belki de kısıtlamanın yasal olarak hareket alanına izin verecek ve yine de anlaşmayı gerçekleştirecek şekilde ifade edilmesinden) daha ağır bastığı bir nokta var mı? Sanırım işin içindeki ikilemi görebiliyorsunuz. Bu tür tonlarca senaryo kolaylıkla uydurulabilir. Soru, bu rehin dişlerinin olup olmayacağıdır. Eğer öyleyse, ne tür dişler?

Kısacası, bu tartışmanın başında da belirtildiği gibi, bazıları bu tür bir taahhüdün verildiği konusunda heyecanlanırken, diğerleri taahhüdün geçerli olup olmayacağı konusunda daha karamsar bir görüşe sahip.

Devam ediyoruz.

Bir Rehin Almak

Açık Mektubun dördüncü ve son paragrafı şunu söylüyor:

  • "Taahhüdümüzün tek başına bu riskleri tam olarak ele almak için yeterli olmadığını anlıyoruz ve bu nedenle politika yapıcıları bu robotların güvenli kullanımını teşvik etmek ve kötüye kullanımlarını yasaklamak için bizimle birlikte çalışmaya çağırıyoruz. Ayrıca robotik camiasındaki her kuruluşu, geliştiriciyi, araştırmacıyı ve kullanıcıyı, bu tür robotları yapmama, yetkilendirmeme, desteklememe veya onlara silah eklenmesine izin vermeme konusunda benzer taahhütlerde bulunmaya çağırıyoruz. Bu teknolojilerin insanlığa olan faydalarının, kötüye kullanım riskinden çok daha ağır bastığına inanıyoruz ve insanların ve robotların dünyanın bazı zorluklarının üstesinden gelmek için yan yana çalıştığı parlak bir gelecek için heyecan duyuyoruz” (çevrimiçi olarak yayınlandığı gibi).

Açık Mektubun bu son bölümünde öfkeyi artıran birkaç ek unsur daha var.

Bazıları, politika yapıcılara çağrıda bulunmanın iyi ya da kötü tavsiye olabileceğini öne sürüyor. Bu konularda bilgili olmayan politika yapıcıların, daha sonra klasik aceleyle karar verme ve yapay zeka robotlarındaki ilerlemeyi gasp eden yasa ve düzenlemeleri yapmalarını sağlayabilirsiniz. Daha önce de belirttiğimiz gibi, belki de yapay zeka robotik ilerlemelerini ileriye taşıyan inovasyon sekteye uğrayacak ya da engellenecek.

Eleştirmenler, ne istediğinizi bildiğinizden emin olmanız gerektiğini söylüyor.

Elbette karşı argüman, anlatının, politika yapıcıların bu tür yasa ve düzenlemelerin muhtemelen mantıklı bir şekilde nasıl yapılacağını bulmak için yapay zeka robot firmalarıyla birlikte çalışması gerektiğini açıkça belirtmesidir. Karşı argümanın karşıtı ise politika yapıcıların, onların kaprislerini karşılamaları halinde yapay zeka robotik üreticilerinin onlara bağlı olarak görülebileceğidir. Karşıt argümanın karşıtı ise, teknoloji hakkında bilgisi olanlarla çalışmanın doğal olarak bir zorunluluk olduğu, aksi takdirde sonucun potansiyel olarak kötü olacağıdır. Vesaire.

Belki de tartışmaya dayalı bir şekilde, bazılarının mide ekşimesi yaşadıkları ve herkesi bu konuda benzer sözler vermeye çağıran çizgide oldukları görüldü. bağlama silahlardan gelişmiş hareket kabiliyetine sahip genel amaçlı robotlara kadar. Oradaki anahtar kelime kelimedir bağlama. Birisi silahları birleştiren veya kusursuz bir şekilde yerleştiren bir yapay zeka robotu yapıyorsa, bu, ifadelerin dışına çıkıyor gibi görünüyor. bağlama bir şey. Şimdi bunu görebiliyorsunuz, birisi silahın takılı olmadığını, tamamen yapay zeka robotunun bir parçası olduğunu hararetle savunuyor. Üstesinden gelin, diye bağırıyorlar, biz bu taahhüdün kapsamında değiliz, hatta aksi halde öyle olduklarını bile söyleyebilirlerdi.

Bu durum rehnin yapışkanlığı konusunda bir şikâyeti daha gündeme getiriyor.

Bu taahhüdü vermeyi seçen bir firma veya herhangi bir kişi, bunu yapmak istediği herhangi bir zamanda ve ne sebeple olursa olsun, taahhüt vermediğini beyan edebilir mi?

Görünüşe göre öyle.

Söz verme ve bunların nasıl bir ilgi uyandırdığı konusunda ortalıkta pek çok tartışma var.

Sonuç

Evet, diyebilirsiniz ki, doğru şeyi yapmaya çalışan bu şirketler, doğru şeyi yapmaya çalıştıkları için cezalandırılıyorlar.

Dünyamıza ne geldi?

Böyle bir taahhütte bulunan herkesin şüpheden yararlanması gerektiğini tutkuyla savunabilirsiniz. Cesur ve hayati bir katkı sağlamak için kamusal alana adım atıyorlar. Eğer bunu yaptıkları için onları lekelemeye başlarsak, bu kesinlikle durumu daha da kötüleştirecektir. Hiç kimse böyle bir taahhütte bulunmak istemeyecektir. Firmalar ve diğerleri denemeyecek bile. Saklanacaklar ve bu sevimli dans eden robotların tehlikeli bir şekilde neye dönüşebileceği konusunda toplumu önceden uyarmayacaklar.

Şüpheciler, toplumu bilinçlendirmenin yolunun, dans eden yapay zeka robotlarını sergileme gibi hayali bir eylemden vazgeçmek gibi başka eylemler gerektirdiğini iddia ediyor. Ya da en azından bunu daha dengeli bir hareket haline getirin. Örneğin, yalnızca evcil hayvanlara sadık köpekleri taklit etmek yerine, dans eden robotların, insanları hiç tereddüt etmeden parçalara ayırabilen, tasmasız serbest bırakılmış vahşi kurtlara nasıl daha çok benzeyebileceğini gösterin.

Bunun vaatlerden daha fazla dikkat çekeceğini söylüyorlar.

Taahhütler şüphesiz oldukça büyük bir ikilem olabilir.

Mahatma Gandhi'nin etkili bir şekilde ifade ettiği gibi: "Vaat ne kadar açık olursa olsun, insanlar metni kendi amaçlarına uyacak şekilde çevirecek ve çarpıtacaktır."

Belki de bu yazımı moral verici bir notla bitirmek için Thomas Jefferson taahhütlerle ilgili şunları söyledi: "Birbirimize hayatlarımızı, servetimizi ve kutsal onurumuzu karşılıklı olarak taahhüt ediyoruz."

Yapay zeka robotları, özerklikleri, silahlanmaları ve benzerleri söz konusu olduğunda, sonuçta hepimiz bu işte birlikte olacağız. Karşılıklı taahhüdümüz en azından bu konuları ön planda tutacağımız, bu gelişmelerle başa çıkmanın yollarını bulacağımız ve bir şekilde onurumuzu, servetimizi, hayatımızı güvence altına almanın yolunu bulacağımız yönünde olmalıdır.

Bunun sözünü verebilir miyiz?

Umarım.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robot yapımcıları silahlanmayı-önleyeceklerini-söylüyor/