Yapay Zeka Tabanlı Otonom Silah Sistemlerinin Ateşli Bir-İki Yumruğu ve Şeytani Bir Şekilde Silahlandırılmış Yapay Zeka Güdümlü Otonom Sistemlerin Sömürüsüyle Mücadele Eden Yapay Zeka Etiği

O muhteşem dans eden dört ayaklı robotlar.

Dört ayaklı robotik sistemlerin görünüşte keyifli ve köpek gibi sevilen şekillerde dans edip zıpladığı viral videolarını eminim izlemişsinizdir. Bu yapay zeka güdümlü robotları, engellerin üzerinden tırmanırken ve kutuların üzerine tünediklerinde veya dolapların tepelerine tehlikeli bir şekilde yerleştirildikten sonra hassas bir dayanak elde ettiklerinde görmekten zevk alıyor gibiyiz. İnsan işleyicileri, zaman zaman çileden çıkarıcı bir şekilde adaletsiz görünen ve bu beyni insansıların küstah muamelesine karşı öfkenizi artırabilecek dört ayaklı robotları dürtüyor veya itiyor.

Tamamen farklı bir kalibrenin pek de viral olmayan videolarını görüp görmediğinizi merak ediyorum.

Kendini hazırla.

Şu ya da bu türden belirgin silahlarla donatılmış aynı tür dört ayaklı robotları gösteren yaygın olarak yayınlanan videolar var.

Örneğin, bir makineli tüfek veya benzeri bir ateşli silah, bilinen bir dans eden ve zıplayan robotun üstüne monte edilmiştir. Dört ayaklı robot ile silahın ateşleme mekanizması arasında elektronik bir bağlantı var. Artık silah haline getirilmiş bilgisayarlı yürüyüş düzeneği, bir hedefin yerleştirildiği yere doğru ilerliyor ve makineli tüfek hedefe şiddetle ateşleniyor. Daha sonra kısmen yok edilen hedefi çiviledikten sonra, dört ayaklı robot dans eder ve yakındaki engellerin etrafında zıplar ve aynı eylemi diğer yeni hedeflerde tekrar tekrar tekrarlamak için sıraya girer.

Tam olarak görmeyi beklediğiniz gibi değil. Bu, o sevimli dört ayaklı robotların işlerini yapmalarını içtenlikle izlemenin tasasızlığını ve göreceli neşesini kesinlikle alıyor. Görünüşte sert gerçekliğe hoş geldiniz zararsız otonom sistemler dönüştürülür veya keskin bir şekilde silahlanmaya dönüştürülür. Çok fazla çaba harcamadan, tam donanımlı silahları içerecek şekilde uyarlanmış, "silahsız" bir otonom sisteme bir gecede sahip olabilirsiniz.

Bazı durumlarda neredeyse kolay-peasy.

Bu hararetli tartışmalı konuyu tartışacağım ve ortaya çıkan oldukça ağır AI Etiği sorunlarına değineceğim. Otonom sistemlere, yapay zekaya, özerk araçlara, silahlara ve bir dizi ilgili Etik AI mücadele konusuna bir yolculuğa çıkacağız. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Bazı temel kilit taşlarla başlayalım.

Tartışma uğruna, silahlarla donanmış otonom sistemleri sınıflandırmanın iki ana yolu olduğunu kabul edin:

1) Otonom Silah Sistemleri (tasarım gereği)

2) Silahlı Otonom Sistemler (olaydan sonra)

İki kategori arasında önemli bir fark vardır.

İlk durumda, bir tanımlayacağız otonom silah sistemi baştan beri, bir silah olması amaçlanan, temelden bilgisayarlı bir yaratım olmak. Geliştiriciler, bir silah tasarlamak istediklerini akıllarında tutmuşlardı. Açık arayışları bir silah üretmektir. Silahları en son otonom sistem teknolojileriyle bütünsel olarak birleştirebileceklerini biliyorlardı. Bu, otonom hareket ve otonom eylemlere ulaşan yüksek teknoloji dalgasına dayanan bir silahtır (kısaca daha ayrıntılı olarak açıklayacağım).

Buna karşılık, ikinci durumda, silahlara özel bir eğilimi olmayan otonom sistemler konusunu ele alacağız. Bunlar, başka amaçlar için geliştirilen otonom sistemlerdir. Herkes için mobilite sağlamak ve insan tarafından kullanılan ve insan tarafından çalıştırılan otomobiller nedeniyle meydana gelen binlerce yıllık ölümün azaltılmasına yardımcı olmak için kullanılacak kendi kendini süren bir araba gibi otonom bir araç hayal edin (ayrıntılı kapsamıma bakın) de buradaki bağlantı). İnsanları direksiyonun arkasından çıkarmak ve bunun yerine AI'yi sürücü koltuğuna yerleştirmek için toplumsal olarak iyimser çabalar için bir silah düşünülmüyor gibi görünüyor.

Ancak insanlar isterse, bu zararsız otonom sistemler silahlandırılabilir.

O zaman bu ikinci kategoriye atıfta bulunuyorum silahlandırılmış otonom sistemler. Özerk sistem, orijinal olarak ve büyük olasılıkla silah dışı bir amaç için özenle hazırlanmıştı. Buna rağmen, hülyalı özgecil umut, bir yerlerde bu düzeneğin silaha dönüştürülebileceğine dair inandırıcı bir fikir edinen biri tarafından altüst edilir. Birdenbire, sevimli görünen otonom sistem, bir tür silah yeteneklerini etiketleyerek ölümcül bir silah haline geldi (daha önce bahsedilen, özelliklerine makineli tüfek veya benzeri bir ateşli silah eklenmiş dört ayaklı köpek benzeri robotlar gibi) .

Ne yazık ki, iki kategori bir şekilde aynı yerde, yani potansiyel olarak ölümcül bir temelde silahlar için otonom sistemleri kullanma kapasitesi sağlıyor.

Bu son noktaya ulaşma süreci muhtemelen farklı olacaktır.

Silah olarak belirlenen tamamen silahlı otonom sistemler için, silah yönleri tipik olarak önde ve merkezdedir. Düşünülmekte olan silahın temel taşının otonom sistemle ilgili olduğunu söyleyebilirsiniz. Geliştiricilerin düşünme süreci, bir silahın otonom sistemlerin ortaya çıkışından nasıl yararlanabileceğine benzer.

Diğer bakış açısı genellikle bu zihniyetin tamamı değildir. Geliştiriciler, belki de insanlığın iyileştirilmesi için son teknoloji özerk bir sistem türetmek istiyorlar. Bu geliştiriciler, otonom sistemi yapmak için en içten kalplerini ve ruhlarını ortaya koyuyorlar. Buluşlarının özü budur. Mucizevi bir şekilde faydalı cihazlarını kimsenin gasp edeceğini veya bozacağını hayal etmeyebilirler. Şekillendirilen ve üretilen otonom sistemle ilişkili toplumsal faydalara mutlulukla aşıklar.

Bir noktada, diyelim ki üçüncü şahıslar, otonom sistemin silahlandırılmak üzere yeniden düzenlenebileceğini fark ettiler. Belki de geliştiricileri, yüksek amaçlar olduğu iddia edilen şeyler için özerk sisteme sahip olmalarına izin vermeleri için kandırıyorlar. Kapalı kapılar ardında, bu kötüler otonom sisteme gizlice bir silahlandırma kapasitesi eklemeyi tercih ediyor. Voila, masumiyet düpedüz silahlara dönüştü.

İşler bu şekilde ilerlemek zorunda değil.

Belki de geliştiricilere masum bir özerk sistem geliştirdikleri söylendi, ancak çabayı finanse eden veya yönetenlerin akıllarında başka amaçlar vardı. Belki de özerk sistem çabası gerçekten masum bir şekilde başladı, ancak faturaların ödenmesi gerektiğinde, liderlik, özerk sistemleri alçakgönüllü nedenlerle isteyen bir fon kaynağıyla anlaşma yaptı. Diğer bir olasılık ise, geliştiricilerin daha sonraki bir kullanımın silahlanma için olabileceğini bilmeleri, ancak bu üzücü köprüyü ne zaman veya ne zaman ortaya çıkarsa geçeceklerini düşündükleri. Vb.

Bunların hepsinin nasıl oynandığına dair çok ve çok sayıda farklı yol var.

Konuyla ilgili artan bir AI Etiği farkındalığı olduğunu önceki sütunlarda anlattığım ilginizi çekebilir. çift ​​kullanımlı çağdaş yapay zekanın unsurları, bkz. buradaki bağlantı. Sizi kısaca bilgilendirmeme izin verin.

İyilik için tasarlanan bir AI sistemi, belki de bazı basit değişiklikler yoluyla bazen kötünün eşiğinde olabilir ve buna bağlı olarak çift kullanımlı bir yapıya sahip olarak kabul edilir. Son zamanlarda haberlerde, geliştiricilerin bu tür kötü tasarlanmış kimyasallardan kaçınabileceğimizden veya bunlara karşı dikkatli olabileceğimizden emin olmak istedikleri, öldürücü olabilecek kimyasalları keşfetmek için inşa edilmiş bir AI sistemi vardı. Yapay zekanın, bu öldürücü kimyasalları özverili bir şekilde ortaya çıkarmak için bir şekilde kolayca ayarlanabileceği ve böylece potansiyel olarak kötülerin, uçsuz bucaksız şeytani planları için ne tür kimyasalların potansiyel olarak pişirileceğini bilmelerine izin verebileceği ortaya çıktı.

Özerk sistemler, bu çift kullanımlı zarfa gözle görülür bir şekilde sığabilir.

Bir dereceye kadar, bu yüzden AI Etiği ve Etik AI çok önemli bir konudur. Yapay Zeka Etiği ilkeleri, uyanık kalmamızı sağlar. AI teknoloji uzmanları zaman zaman teknolojiyle, özellikle de yüksek teknolojinin optimizasyonu ile meşgul olabilirler. Mutlaka daha büyük toplumsal sonuçları dikkate almıyorlar. Yapay Zeka Etiği zihniyetine sahip olmak ve bunu yapay zeka geliştirme ve saha oluşturmaya entegre etmek, AI Etiğinin firmalar tarafından nasıl benimsendiğinin değerlendirilmesi de dahil olmak üzere (belki de şaşırtıcı veya ironik bir şekilde) uygun AI üretmek için hayati önem taşır.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Aslında, bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazın altını oyacağımız konusunda önceden uyarıyorlar.

İki İlke Olarak Özerklik ve Silah

Bazılarının, toplu olarak şu şekilde türetilmiş olan, her türden silahlı otonom sistemler hakkında önceden uyarmak için kullandığı bir slogan vardır. mezbahalar.

Bu, üzerinde düşünmemiz gereken ek bir yönü ortaya çıkarır.

Otonom bir silah sistemi ve/veya silahlandırılmış otonom bir sistem, öldürücü veya öldürücü bir robot üstünlüğüne sahip olmak zorunda mı?

Bazıları kesinlikle sahip olabileceğimizi iddia ederdi. öldürücü olmayan silahlı otonom sistemler de var. Dolayısıyla, bu bakış açısından, mezbahalar veya katil robotlar gibi ifadeleri kullanmak son derece uygunsuz görünüyor. Ölümcül olmayan bir varyant, muhtemelen ölümcül olmayan bir zararı bastırabilir veya yürürlüğe koyabilir. Bu tür sistemler öldürmüyor, daha az yaralayıcı kapasiteye sahipler. Yetenekleri abartmayın, düpedüz bir ölüm makinesi kinayesiyle meşgul olmamıza gerek olmadığı konusunda ısrar edenler söyleyin.

Böylece, buna sahip olabiliriz:

  • Ölümcül otonom silah sistemleri
  • Silahlandırılmış ölümcül otonom sistemler
  • Ölümcül olmayan otonom silah sistemleri
  • Silahlandırılmış öldürücü olmayan otonom sistemler

Tabii ki, karşı sav, silahlandırılmış herhangi bir otonom sistemin, yalnızca ölümcül olmayan bir temelde kullanılması düşünülse bile, ölümcül alana kayma potansiyeline sahip olduğu yönündedir. Ölümcül olmayandan öldürücüye giden aşamalı iki adım, otonom bir sistemin ortasında bir silahı zaten elinize aldığınızda hızlı bir şekilde gerçekleştirilecektir. Ölümcül olmayanların ölümcül arenaya girmeyeceğine dair sağlam bir garanti vermekte zorlanacaksınız (bazıları matematiksel bir görünüşte bunu yapmaya çalışıyor olsa da).

Bu genel otonom sistemler ve silahlandırma konusuna daha fazla girmeden önce, belki de aşikar olsa da mutlaka akılda tutulması gerekmeyen başka bir şeye işaret etmek faydalı olabilir.

Şöyle ki:

  • Özerk sistemin parçası ve parseli olan bir AI yönü var
  • Bu denklemin silah tarafı olan bir silah yönü var.
  • AI ayrıca silahlarla bağlantılı olabilir

Açalım şunu.

Günümüzün otonom sistemlerinin, otonom yönleri ortaya çıkarmak için temel bilgisayarlı araçlar olarak AI gerektirdiğini varsayacağız. Bundan bahsediyorum çünkü otonom sistemleri yapmak için AI ile ilgili olmayan teknolojileri ve teknikleri kullanabileceğimizi iddia etmeye çalışabilirsiniz, ki bu doğru olsa da, giderek daha az olası görünüyor. Temel olarak, AI daha yüksek düzeyde özerkliğe izin verme eğilimindedir ve çoğu, buna göre AI yüksek teknolojisinden yararlanmaktadır.

Tamam, yani bir şekilde otonom sistem içinde aşılanmış ve otonom sistemi yönlendirmek ve kontrol etmek için hareket eden AI tabanlı bir yeteneğimiz var.

Bunu bir kural olarak parmaklarınızın ucunda tutun.

Ayrıca bir çeşit silaha da ihtiyacımız olduğu açıkça görülüyor, yoksa neden burada otonom sistemler konusunu tartışıyoruz? ve silahlar. Yani, evet, belli ki, şu ya da bu türden bir silah var.

Kullanılabilecek silah türlerine girmeyeceğim. Aklınıza gelen silahları basitçe değiştirebilirsiniz. Nokta atışı silahları olabilir. Kitle odaklı yıkıcı silahlar olabilir. Mermi veya mermi ile bir şey olabilir. Kimyasallara veya atomik uçucu bileşenlere sahip bir şey olabilir. Liste sonsuz.

Ek düşünce, AI'nın silahlarla birbirine bağlı olup olmadığıdır. AI sadece silahları gezintiye çıkarıyor olabilir. Silahla ateş eden dört ayaklı robot söz konusu olduğunda, belki de silah, silahın tetiğine bağlı uzaktan kumandası olan bir insan tarafından ateşleniyor. Köpek benzeri robot bir sahnede geziniyor ve ardından tetiği çekmek uzaktaki bir insana düşüyor.

Öte yandan, AI, olduğu gibi tetikleyici olabilir. AI, yalnızca gezinmek ve manevra yapmak için değil, aynı zamanda silahı da harekete geçirmek için tasarlanmış olabilir. Bu anlamda, AI A'dan Z'ye her şeyi yapıyor. Şeylerin silah tarafını gerçekleştirmek için uzak bir insana bağımlılık yok. AI bunun yerine bunu yapmak için programlanmıştır.

O halde, silahlandırılmış otonom sistemlerin bu özel kullanım örneğinde açıklığa kavuşturmak için şu tür olanaklara sahibiz:

  • Otonom sistem: AI, özerk sistemi tamamen kendi başına çalıştırır
  • Otonom sistem: AI otonom sistemi çalıştırır, ancak döngüdeki bir insan da müdahale edebilir
  • Silah: Uzaktaki insan silahları çalıştırıyor (AI değil)
  • Silah: AI silahları çalıştırır, ancak döngüdeki bir insan da müdahale edebilir
  • Silah: AI, silahları tamamen kendi başına çalıştırıyor

Daha önce otonom sistemler ve otonom araçlarla ilgili bir döngüde insana sahip olmanın varyasyonlarını ele almıştım, bkz. buradaki bağlantı.

Dans eden ve zıplayan dört ayaklı robotların eğlenceye yönelik videolarını izlediğinizde, bunların genellikle yalnızca yapay zeka tarafından yönlendirilebilen robotlar olduğu varsayılır (peki, bu, derinden hareket edenler arasında özel veya uygun görgü kurallarıdır). bu konularda). Bu aynı zamanda haklı olarak varsayabileceğiniz şeydir. Tabii bunu kesin olarak bilemezsiniz. Uzaktaki bir insan operatörün robotları yönlendirmesi olabilir. Ayrıca, yönlendirmenin bir kısmını AI'nın yapması ve uzaktan bir insan operatörün de bunu yapması, belki de robot zor bir pozisyona girerse ve kendisini serbest bırakmak için uygun bir yolu hesaplamalı olarak hesaplayamıyorsa AI'ya yardım etme olasılığı vardır.

Buradaki ana fikir, AI ve otonom sistemlerin ve silahlandırmanın nasıl birbirine karıştırılabileceğine dair çok sayıda tat olmasıdır. Bazıları, otonom sistemi çalıştıran ancak silahları çalıştırmayan AI'ya sahiptir. Bir insan belki de silahları uzaktan yönetiyor. Başka bir açı, silahların önceden etkinleştirilmesi ve otonom sistemin aktif silahı teslim etmesidir, bu nedenle AI, silahın kendi başına tetiklenmesine doğrudan katılmadı ve bunun yerine bir teslimat aracı olarak hareket etti. Ve AI'nın atasözü her şeyi yapan bir usta olması ve otonom sistem özelliklerinin tüm gamını silah kullanımına da yapması olabilir.

Istediğini al.

Bu arada, bu konuyla ilgili tartışmalar söz konusu olduğunda, döngüdeki insanın büyük bir faktör olduğunu lütfen bilin.

Bazıları tarafından bir ayrım çizgisi, eğer AI hedefleme ve atış yapıyorsa (veya silahın gerektirdiği her neyse), o zaman tüm kit ve caboodle hayır-hayır araziye geçti. Bu, görünüşte, önceden hedeflenmiş insan tarafından belirlenen bir seçime sahip olan geleneksel ateşle ve unut silahlarından farklıdır, örneğin, bir hedefe ateş etmeye hazır bir füzeye sahip bir devriye uçağı gibi. zaten bir insan tarafından seçilir.

Bazıları, silahlandırılmış otonom sistemlerin, otonom sistemin aktif olarak devam eden bir statüde olduğu süreç boyunca neden her zaman bir döngü içinde insan içermediğini merak ediyor. Tüm bu tür silahlı otonom sistemlerin, ya otonom sistemin çalışması için ya da silahları çalıştırmak için (veya her ikisi için) döngüde bir insana sahip olması gerektiği gibi katı bir gereklilik olsaydı daha iyi olabiliriz gibi görünüyor. . Bu yapay zeka karışımında farzedilen emin ve istikrarlı bir insan eli tutmak tamamen kurnaz görünebilir.

Bunun neden mümkün olmadığına dair uzun bir neden listesi için hazırlanın.

Şu zorlukları göz önünde bulundurun:

  • Döngüdeki insan, zamanında yanıt vermek için yeterince hızlı olmayabilir
  • Döngüdeki insan, görev bilinciyle yanıt vermek için yeterli bilgiye sahip olmayabilir
  • İnsan-in-the-loop gerekli zamanda mevcut olmayabilir
  • Döngüdeki insan kararsız olabilir ve gerektiğinde harekete geçmez
  • Döngüdeki insan “yanlış” kararı verebilir (nispeten)
  • Döngüdeki insan, gereken zamanda sistemden erişilebilir olmayabilir
  • Döngüdeki insan kafası karışabilir ve bunalabilir
  • Vb

Kuşkusuz, bu insan zaafları ve sınırlamaları listesine bakmaya ve ardından döngüdeki insanı çıkarmanın ve her zaman onun yerine yapay zekayı kullanmanın mantıklı olduğu sonucuna varmak için cazipsiniz. Bu, ya döngüdeki insanın dışlanması olabilir ya da belki de yapay zekanın yerleşik bir döngü içindeki insan tasarımını geçersiz kılabilmesini sağlayabilir. Yapay zeka ve döngüdeki bir insan arasındaki anlaşmazlıkların nasıl tehlikeli durumlara yol açabileceğine dair analizime bakın. buradaki bağlantı.

Çoğu zaman, bu tür gerçek zamanlı insan odaklı olumsuzlukların küçümseyici bir listesi kendi kendine bırakılır ve yapay zekanın bir şekilde sıçramalı ve sınırlayıcı olması gerektiğine dair kalıcı bir izlenim bırakır. . Bu hain tuzağa düşmeyin. İç içe geçmiş ödünleşmeler var.

Yapay zekanın şu sonuçlarını düşünün:

  • AI, yoldan çıkmasına neden olan bir hatayla karşılaşabilir
  • AI bunalmış olabilir ve yanıt vermeden kilitlenebilir
  • AI, düzensiz davranışa neden olan geliştirici hataları içerebilir
  • Yapay zeka, implante edilmiş kötü niyetli virüs ile bozulabilir
  • Yapay zeka gerçek zamanlı olarak siber korsanlar tarafından ele geçirilebilir
  • AI, karmaşıklıklar nedeniyle öngörülemez olarak kabul edilebilir
  • AI, hesaplamalı olarak “yanlış” kararı verebilir (nispeten)
  • Vb

Döngü içindeki bir insanı kullanmakla yalnızca yapay zekaya bağımlı olmak arasında ödünleşimler olduğunu görebileceğinize inanıyorum. Hazır çözümün her ikisini de kullanmak olduğunu önermek istiyorsanız, her iki dünyanın da en iyisini elde edebileceğinizi, ancak her iki dünyanın da en kötüsünü elde edebileceğinizi vurgulamak isterim. Her zaman ve kesinlikle her iki dünyanın da en iyisi olacağını varsaymayın.

AI ile ilgili yukarıda sıralanan dezavantajlardan birine, özellikle de AI'nın olabileceğine biraz şaşırmış olabilirsiniz. öngörülemeyen. Yapay zekanın kesinlikle mantıklı ve matematiksel olarak kesin olması gerektiğine inanmaya alışkınız. Bu nedenle, yapay zekanın tamamen öngörülebilir olmasını da bekleyebilirsiniz. Yapay zekanın ne yapacağını tam olarak bilmemiz gerekiyor. Dönem, hikayenin sonu.

Balonu patlattığım için üzgünüm ama bu öngörülebilirlik efsanesi yanlış bir isim. Günümüz yapay zekasının boyutu ve karmaşıklığı, genellikle mükemmel bir şekilde öngörülebilir olmaya meydan okuyan bir bataklıktır. Bu, günümüzün bazı Makine Öğrenimi (ML) ve Derin Öğrenme (DL) kullanımlarıyla ilgili Etik AI kargaşalarında görülmektedir. Biraz daha kısa anlatacağım.

Ayrıca, en son AI güvenliği yoluyla doğrulanabilir ve matematiksel olarak kanıtlanabilir şekilde doğru AI sistemlerini sağlamaya yönelik yaklaşan trendlerle ilgili en son analizime bir göz atmak isteyebilirsiniz. buradaki bağlantı.

Yolun Kurallarını Düşünmek

Yoğun ilgiyi hak eden, oldukça yüklü bir terminoloji parçası olan hedef ve hedefleme kavramından bahsetmiştim.

Bunu düşünebiliriz:

  • İnsan olan hedefler
  • İnsan olmayan ama canlı olan hedefler
  • Mülkiyet olarak yorumlanan hedefler

Silahlandırılmış otonom bir sistemimiz olduğunu varsayalım. AI, otonom sisteme rehberlik etmek için kullanılır ve silahlar için kullanılır. AI, A'dan Z'ye her şeyi yapar. Döngü içindeki insan için herhangi bir hüküm yoktur. Hedefleme açısından, AI hedefleri seçecektir. İnsanlar tarafından oluşturulmuş bir ön hedefleme yoktur. Bunun yerine, AI genel olarak hedeflenecek insanlar olup olmadığını tespit etmek için programlanmıştır (belki düşmanca eylemler, belirli tür üniformalar vb. için tarama).

Şimdiye kadar benimle?

Bu senaryo, silahlı otonom sistemler hakkında en çok tepkiye neden olan senaryodur.

Belirtilen endişe, AI'nın (en azından) yapmasına izin verilmemesi gereken üç şeyi yapmasıdır:

  • Hedef olarak insanları hedeflemek
  • Döngü içindeki insan kullanmadan hedefleme
  • Potansiyel olarak tahmin edilemez davrananly

AI'nın tahmin edilemez olduğuna dair endişelerden bahsedildiğine dikkat edin. AI belirli insanları hedef almak için programlanmış olsa da, AI programlaması düşündüğümüz gibi değil ve AI, AI'nın "düşman" olarak yorumlaması gerekenlere ek olarak "dostları" hedef alıyor olabilir. ” (veya belki de yerine). Bunun da ötesinde, bir döngüdeki insan hükmünü dahil etmeyi seçsek bile, AI'nın öngörülemezliği, AI'nın döngüdeki insanla görüşmesi gerektiğinde başarısız olduğu anlamına gelebilir. böylece ve herhangi bir insan müdahalesi olmadan hareket eder.

Uluslararası Kızılhaç Komitesi'nin (ICRC) otonom silah sistemleri hakkında bu tür endişeleri (ICRC web sitesine göre) detaylandıran üç noktalı kapsayıcı bir pozisyon önermesini ilgi çekici bulabilirsiniz:

1. “Öngörülemeyen otonom silah sistemleri açıkça yönetilmelidir. dışarı, özellikle de ayrım gözetmeyen etkileri nedeniyle. Bu, etkileri yeterince anlaşılamayacak, tahmin edilemeyecek ve açıklanamayacak şekilde tasarlanan veya kullanılan otonom silah sistemlerinin yasaklanmasıyla en iyi şekilde sağlanabilir.”

2. “İnsanlığı korumaya yönelik etik mülahazalar ışığında ve sivillerin ve savaş dışı savaşçıların korunmasına yönelik uluslararası insancıl hukuk kurallarına uymak, İnsanları hedef almak için otonom silah sistemlerinin kullanılması dışlanmalıdır.. Bu, en iyi şekilde, kişilere karşı güç uygulamak için tasarlanan veya kullanılan otonom silah sistemlerinin yasaklanmasıyla sağlanabilir.”

3. “Sivilleri ve sivil nesneleri korumak, uluslararası insancıl hukuk kurallarına uymak ve insanlığı korumak için, yasaklanmayacak otonom silah sistemlerinin tasarımı ve kullanımı, aşağıdakilerin bir kombinasyonu da dahil olmak üzere düzenlenmelidir: hedef türleri üzerindeki sınırlaronları doğası gereği askeri amaç olan nesnelerle sınırlamak gibi; süre, coğrafi kapsam ve kullanım ölçeği üzerindeki sınırlarbelirli bir saldırıyla ilgili olarak insan yargısını ve kontrolünü sağlamak da dahil olmak üzere; kullanım durumlarının sınırlarıonları sivillerin veya sivil nesnelerin bulunmadığı durumlarla sınırlamak gibi; rinsan-makine etkileşimi için gereklilikler, özellikle etkili insan denetimi ve zamanında müdahale ve devre dışı bırakma sağlamak için.”

İlgili bir görünümle ilgili olarak, Birleşmiş Milletler (BM), Cenevre'deki Belirli Konvansiyonel Silahlara İlişkin Sözleşme (CCW) aracılığıyla, çevrimiçi olarak yayınlanan resmi rapora göre (ilgili Uluslararası İnsani Silahlara ilişkin referansları kapsayan), Ölümcül Otonom Silahlar hakkında on bir bağlayıcı olmayan Kılavuz İlke oluşturmuştur. Kanun veya IHL hükümleri):

(a) Uluslararası insancıl hukuk, ölümcül otonom silah sistemlerinin potansiyel gelişimi ve kullanımı da dahil olmak üzere, tüm silah sistemlerine tam olarak uygulanmaya devam etmektedir;

(b) Hesap verme sorumluluğu makinelere devredilemeyeceğinden, silah sistemlerinin kullanımına ilişkin kararlarda insan sorumluluğu korunmalıdır. Bu, silah sisteminin tüm yaşam döngüsü boyunca düşünülmelidir;

(c) Çeşitli biçimler alabilen ve bir silahın yaşam döngüsünün çeşitli aşamalarında uygulanabilen insan-makine etkileşimi, ölümcül otonom silah sistemleri alanında gelişen teknolojilere dayalı silah sistemlerinin potansiyel kullanımının uygun olmasını sağlamalıdır. yürürlükteki uluslararası hukuka, özellikle IHL'ye uygunluk. İnsan-makine etkileşiminin kalitesini ve kapsamını belirlerken, operasyonel bağlam ve bir bütün olarak silah sisteminin özellikleri ve yetenekleri dahil olmak üzere bir dizi faktör göz önünde bulundurulmalıdır;

(d) CCW çerçevesinde ortaya çıkan herhangi bir silah sisteminin geliştirilmesi, konuşlandırılması ve kullanılmasına ilişkin sorumluluk, bu tür sistemlerin sorumlu bir insan komuta ve kontrol zinciri içinde işletilmesi de dahil olmak üzere, geçerli uluslararası hukuka uygun olarak sağlanmalıdır;

(e) Devletlerin uluslararası hukuk kapsamındaki yükümlülüklerine uygun olarak, yeni bir silah, araç veya savaş yönteminin incelenmesinde, geliştirilmesinde, edinilmesinde veya benimsenmesinde, kullanılmasının bazı veya tüm koşullarda kullanılıp kullanılmayacağına karar verilmelidir. uluslararası hukuk tarafından yasaklanmış;

(f) Ölümcül otonom silah sistemleri, fiziksel güvenlik, uygun fiziksel olmayan önlemler (hack veya veri sahteciliğine karşı siber güvenlik dahil) alanında gelişen teknolojilere dayalı yeni silah sistemleri geliştirirken veya edinirken, terörist gruplar tarafından edinme riski ve çoğalma riski dikkate alınmalıdır;

(g) Risk değerlendirmeleri ve hafifletme önlemleri, herhangi bir silah sisteminde ortaya çıkan teknolojilerin tasarım, geliştirme, test etme ve uygulama döngüsünün bir parçası olmalıdır;

(h) Uluslararası İnsancıl Hukuk ve diğer geçerli uluslararası yasal yükümlülüklere uyumun korunmasında ölümcül otonom silah sistemleri alanında gelişen teknolojilerin kullanımına önem verilmelidir;

(i) Potansiyel politika önlemlerinin hazırlanmasında, ölümcül otonom silah sistemleri alanında ortaya çıkan teknolojiler insansılaştırılmamalıdır;

(j) CCW bağlamında alınan tartışmalar ve herhangi bir potansiyel politika önlemi, akıllı özerk teknolojilerin barışçıl kullanımlarında ilerlemeyi veya bunlara erişimi engellememelidir;

(k) CCW, askeri gereklilik ile insani mülahazalar arasında bir denge kurmayı amaçlayan Sözleşme'nin amaçları ve amaçları bağlamında, ölümcül otonom silah sistemleri alanında gelişen teknolojiler konusunu ele almak için uygun bir çerçeve sunmaktadır.

Kendimizi İçinde Bulduğumuz İkilem

Bu çeşitli savaş yasaları, silahlı çatışma yasaları veya IHL (Uluslararası İnsancıl Yasalar), ister kilit taşı tasarımıyla, ister kilit taşı tasarımıyla silaha dönüştürülen otonom sistemlerin ortaya çıkması konusunda ne yapmaya çalışabileceğimizi düşünmek için hayati ve umut verici bir kılavuz görevi görür. olay sonrası yöntemlerle.

Ölümcül silahlarla donatılmış otonom sistemlerin yasaklanmasına kesinlikle ve itaatle uyulmasını içtenlikle diliyoruz. Sorun şu ki, en samimi yasaklardan herhangi birinde sinsi bir şekilde çok fazla kıpırdama odası bulunacaktır. Dedikleri gibi, kurallar çiğnenmek içindir. İşlerin gevşek olduğu yerlerde, ayak takımının boşlukları ortaya çıkaracağına ve kuralların etrafından dolaşmaya çalışacağına bahse girebilirsiniz.

İşte dikkate değer bazı potansiyel boşluklar:

  • Ölümcül Olmayan İddialar. Yapmak öldürücü olmayan otonom silah sistemleri (yasak sınırının dışında olduğu için iyi görünüyor), daha sonra ölümcül hale gelebilirsiniz (yalnızca son dakikada yasağın ötesinde olacaksınız).
  • Yalnızca Otonom Sistem İddiaları. Bu arada, ölümcül odaklı otonom sistemler yapmayarak yasağı sürdürün, bu arada, (henüz) silahlanmayan, ancak silah haline getirilmek için bir kuruş güçlendirme yapabileceğiniz günlük otonom sistemler tasarlama konusunda ilerleme kaydedin.
  • Tek Olarak Entegre Edilmediği İddiaları. Hiçbir şekilde silaha dönüştürülmemiş otonom sistemler oluşturun ve zamanı geldiğinde, iki ayrı unsur olduklarını şiddetle savunmaya çalışabileceğiniz ve bu nedenle hepsi bir arada bir değerlendirme başlığına girmediklerini iddia edebileceğiniz arka arkaya silahlandırma yapın. otonom silah sistemi veya kuzeni.
  • Özerk Olmadığı İddiaları. Otonom kapasiteye sahip görünmeyen bir silah sistemi yapın. Bu muhtemelen özerk olmayan sistemde, yapay zeka tabanlı özerkliğin bırakılması için yer bırakın. Gerektiğinde, özerkliği takın ve yuvarlanmaya hazırsınız (o zamana kadar, görünüşe göre yasağı ihlal etmiyordunuz).
  • Diğer

Ölümcül otonom silah sistemlerini tamamen yasaklamaya çalışmanın başka ifade edilen birçok zorluğu var. Birkaç tanesine daha değineceğim.

Bazı uzmanlar, yasağın özellikle yararlı olmadığını ve bunun yerine düzenleyici hükümler olması gerektiğini savunuyor. Buradaki fikir, bu mekanizmalara izin verilecek, ancak sıkı bir şekilde denetlenecek. Yasal hedefleme yöntemleri, yasal yetenek türleri, yasal orantılılık ve benzerleriyle birlikte bir dizi yasal kullanım düzenlenmiştir.

Onlara göre, doğrudan yasak, kafanızı kuma sokmak ve odadaki fil yokmuş gibi davranmak gibidir. Ancak bu iddia, bir yasak koyarak bu tür sistemlerin peşinden gitme eğilimini önemli ölçüde azaltabileceğiniz argümanına karşı çıkanların kanını kaynatıyor. Elbette, bazıları yasağı gösteriş yapacak, ama en azından umarım çoğu yapmaz. Daha sonra dikkatinizi gösterişçilere odaklayabilir ve dikkatinizi herkese dağıtmak zorunda kalmazsınız.

Dönüp dolaşıp bu tartışmalar dönüyor.

Sıklıkla dile getirilen bir başka endişe de, iyiler yasağa uysa bile kötüler uymuyor. Bu, iyiyi kötü bir duruşa sokar. Kötüler bu tür silahlı otonom sistemlere sahip olacak ve iyiler olmayacak. Kötülerin onlara sahip olduğu ortaya çıktığında, iyilerin yetişmesi için çok geç olacak. Kısacası, yapılacak tek akıllıca şey, ateşe ateşle karşılık vermeye hazırlanmaktır.

Bir de klasik caydırıcılık çekişmesi var. İyiler silahlı otonom sistemler yapmayı tercih ederse, bu, kötüleri bir mücadeleye girmekten caydırmak için kullanılabilir. Ya iyiler daha iyi silahlanacak ve böylece kötüleri caydıracak ya da belki de kötüler bu sistemleri başından beri gizlice tasarladıklarını ortaya çıkardığında iyiler hazır olacak.

Bu sayaçlara bir karşı, silahlı otonom sistemler yaparak bir silahlanma yarışı yürütüyor olmanızdır. Diğer taraf da aynı şeyi elde etmek isteyecektir. Teknolojik olarak bu tür sistemleri yeniden yaratamasalar bile, artık “iyi” olanların planlarını çalabilecek, yüksek teknoloji cesaretini tersine çevirebilecek veya denenmiş ve doğru olarak gördükleri her şeyi taklit edebilecekler. işi bitirmenin yolu.

Aha, bazı imbikler, tüm bunlar karşılıklı bir görünüşle çatışmalarda bir azalmaya yol açabilir. A tarafı, B tarafının bu ölümcül otonom sistemlere sahip silahlara sahip olduğunu biliyorsa ve B tarafı, A tarafının onlara sahip olduğunu biliyorsa, sıkıca oturabilir ve çarpışmayabilirler. Bu, karşılıklı garantili yıkım (MAD) titreşimlerinin farklı aurasına sahiptir.

Ve benzerleri.

Özerklikte Yapay Zeka

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Günümüzün yapay zekasını antropomorfize ederken çok dikkatli olun.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Eklenen bu temel arka planla, bir kez daha otonom sistemler ve silahlandırma konusuna dönüyoruz. AI'nın otonom sistem bileşenine girdiğini ve ayrıca silahlandırma bileşenine de girebildiğini daha önce görmüştük. Günümüzün yapay zekası duyarlı değil. Bu tekrar etmeye değer ve bu konulara ek içgörüler için bunu vurgulayacağım.

Bunun ne kadar önemli bir husus olduğunu görmek için bazı senaryoları inceleyelim. Bu konudaki savaş zamanı yöneliminden bir an için ayrılacağım ve bunun diğer birçok sosyal çevreye nasıl nüfuz ettiğini göstereceğim. Kendinizi buna göre sabitleyin.

Silahlarla hiçbir ilgisi olmadığını söyleyeceğimiz otonom bir araç gibi yapay zeka tabanlı otonom bir sistem, normal bir yerde yolunu buluyor. Otonom aracı kullanmak için bir insan gelir. Kişi, önsezili bir silahla silahlandırılmıştır. Bu özel senaryoda tartışma uğruna, kişinin aklında istenmeyen bir şey olduğunu varsayın. Kişi otonom araca biner (her iki şekilde de silahını taşır, gizlenmiş veya gizlenmemiş).

Otonom araç, sürücünün istediği varış noktasına gider. Bu durumda, AI, her gün muhtemelen düzinelerce veya yüzlerce seyahat için yaptığı gibi, bu yolcuyu programlı olarak bir toplama konumundan belirlenmiş bir varış noktasına taşıyor.

Bu bir insan sürücü ve insan güdümlü bir araç olsaydı, muhtemelen insan sürücünün yolcunun silahlı olduğunu ve kötü niyetleri varmış gibi göründüğünü fark etmesi ihtimali vardır. İnsan sürücü aracı kullanmayı reddedebilir. Veya insan sürücü karakola gidebilir. Ya da belki insan sürücü, silahlı yolcuyu bastırmaya çalışabilir (bildirilen durumlar vardır) veya yolcuyu silahını kullanmaktan caydırabilir. Oldukça karmaşıktır ve herhangi bir sayıda varyasyon olabilir. Böyle bir açmazı çözmenin tek bir doğru cevabı olduğunu iddia etmekte zorlanacaksınız. Ne yazık ki, durum can sıkıcı ve açıkçası tehlikeli.

Bu durumda AI'nın bu tür olasılıklardan herhangi biri için programlanması olası değildir. Kısacası, silahlı yolcu, sürüş yolculuğu sırasında otonom araç içinden silahını kullanabilir. AI sürüş sistemi birlikte seyahat etmeye devam edecek ve otonom araç, yolcunun belirtilen tanımına doğru ilerlemeye devam edecek (varış yerinin başka bir şekilde sınır dışı olarak kabul edilmediğini varsayarak).

Çoğu çağdaş AI sürüş sistemi, sürücünün çabalarına değil, yalnızca karayoluna hesaplamalı olarak odaklanacaktır.

İşler bundan daha da kötüye gidebilir.

Birinin, ihtiyaç sahipleri için fazladan yiyecek alan bir yere bir sürü bakkaliye taşınmasını istediğini varsayalım. Kişi otonom bir araç talep ediyor ve market poşetlerini aracın arka koltuğuna yerleştiriyor. Yolculuk için gitmeyecekler ve sadece otonom aracı onlar için yiyecek torbalarını teslim etmek için kullanıyorlar.

Mükemmel görünüyor.

Alçak bir kişinin otonom araca daha barışçıl bakkal poşetleri kavramı yerine bir tür silah yerleştirmeyi tercih ettiğini düşünün. Sanırım neler olabileceğini tahmin edebilirsiniz. Bu, sütunlarımda defalarca dile getirdiğim ve er ya da geç başa çıkmamız gerektiğine dair önceden uyardığım bir endişedir.

Bu tür senaryolara önerilen bir yanıt, belki de tüm otonom araçların, potansiyel bir yolcunun silahlı olup olmadığını ve kötü niyetli olup olmadığını tespit etmek için kameralarını ve diğer sensörlerini kullanacak şekilde programlanabileceğidir. Belki yapay zeka bunu yapmak için programlanmıştır. Veya yapay zeka, kameralar aracılığıyla yolcuyu görsel olarak veya başka şekilde inceleyecek ve muhtemelen yolcuyla etkileşime girecek olan uzaktaki bir insan operatörü elektronik ve sessiz bir şekilde uyarır. Bunların tümü, yoğun gizlilik sorunlarına ve çok sayıda başka potansiyel Etik AI endişesine yol açacak şekilde karmaşık ve potansiyel olarak inatçı bir solucan kutusunun parçasıdır. Şuradaki kapsamıma bakın: buradaki bağlantı.

Bir başka benzer alternatif, AI'nın, normalde insan karar vericiler için ayrılmış olan etik veya ahlaki kararlar vermesini sağlamaya çalışan bir tür gömülü etik programlama içermesidir. Yapay zekaya gömülü bu bira türlerini inceledim, hesaplamalı etik tahmincileri, bkz. buradaki bağlantı ve buradaki bağlantı.

Bir savaş alanı senaryosuna geri dönersek, ölümcül bir otonom silah sisteminin bir savaş bölgesinin üzerinde dolaştığını hayal edin. AI, otonom sistemi çalıştırıyor. AI, gemideki silahları çalıştırıyor. AI'nın görünüşte düşmanca hareketleri veya geçerli savaşçılar olarak kabul edilen insan hedeflerinin diğer göstergelerini taramak için programlanmış olabileceği olasılığını daha önce düşünmüştük.

Aynı yapay zekanın, döngüdeki bir insanın neler yapabileceğini hesaplamalı olarak düşünmeye çalışan, bir anlamda döngü içindeki bir insana sahip olmak yerine hareket eden bir tür etik yönelimli bileşeni olmalı mı?

Bazıları evet diyor, hadi bunun peşinden gidelim. Bazıları dehşet içinde geri tepiyor ve bunun ya imkansız olduğunu ya da insanlığın kutsallığını ihlal ettiğini söylüyor.

Yine bir solucan kutusu daha.

Sonuç

Bu konuyla ilgilenenler için tartışılacak daha çok şey var.

Sana dırdır eden bir bilmeceden kısaca bahsedeceğim.

Normalde bir insanın savaş sırasında meydana gelen her şeyden nihayetinde sorumlu tutulmasını bekleriz. Yapay zeka, otonom bir silah sistemini veya muhtemelen silaha dönüştürülmüş otonom bir sistemi kontrol ediyorsa ve bu sistem savaş alanında akıl almaz olduğuna inanılan bir şey yapıyorsa, bunun için kim veya ne suçlanacak?

Yapay zekanın sorumlu tutulması gerektiğini iddia edebilirsiniz. Ama eğer öyleyse, bu tam olarak ne anlama geliyor? Bugünün yapay zekasını henüz tüzel kişiliğin somutlaşmış hali olarak görmüyoruz, şuradaki açıklamaya bakın: buradaki bağlantı. AI durumunda kuyruğu eşeğe tutturmak yok. Belki bir gün AI duyarlı hale gelirse, bunu yapmayı deneyebilirsiniz. O zamana kadar, bu biraz ulaşılabilir (artı, AI ne tür cezalara veya sonuçlara maruz kalacaktı, analizime bakın) buradaki bağlantı ve buradaki bağlantı, Örneğin).

AI sorumlu şüpheli değilse, doğal olarak AI'yı tasarlayan insan veya insanlar ne olursa olsun sorumlu tutulması gerektiğini söyleyebiliriz. Yapay zeka sadece otonom bir sistem çalıştırıyorsa ve bazı insanlar bunu silahlaştırmayla birleştirirse bunu yapabilir misiniz? AI geliştiricilerinin peşinden mi gidiyorsunuz? Ya da yapay zekayı kullananlar? Yoksa sadece silahlandıran aktör mü?

Samimi tartışmamda buzdağının sadece ucuna dokunduğum fikrine kapılacağına inanıyorum.

Şimdilik, devam edelim ve bu konuşmayı tamamlayalım. John Lyly'yi hatırlayabilirsin. Euphues: Zekanın Anatomisi 1578'de unutulmaz bir şekilde aşkta ve savaşta her şeyin mübah olduğunu belirtti.

Otonom silah sistemlerinin ortaya çıkmasını ve aynı şekilde silahlandırılmış otonom sistemlerin ortaya çıkmasını aklında mı tutacaktı?

Bunu kesinlikle bir an önce aklımızın bir köşesine koymamız gerekiyor.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- silah-sistemleri-ve-ai-güdümlü-otonom-sistemlerinin-şeytani bir şekilde-silahlanmış-sömürüsü/