Yapay Zeka Etiği, Yapay Zekanın Kötü Davranmasının Sorumluluğunu Sağlamak İçin Yasal Olarak Zorunlu Kefaret Fonlarının Esasları Üzerinde Düşünüyor

Kim suçlayacak?

Abbott ve Costello'nun efsanevi ikilisinin bir beyzbol takımı hakkındaki ünlü komedi parçası söz konusu olduğunda, bu basit bir soru gibi görünebilir, ancak "kim" kafa karıştırıcı olabilir. Belli belirsiz aşina olabilirsiniz İlk kim var tüm zamanların en kalıcı skeçlerinden birine dönüştürdükleri komedi rutini (duymayanlarınız için spoiler uyarısı).

Abbott, Costello'ya kimin birinci, Neyin ikinci olduğunu ve Bilmiyorum'un üçüncü olduğunu söyler. Zekice olan hile, ilk kalecinin Kim, ikinci bodrum katının Ne ve üçüncü kalecinin Bilmiyorum olarak adlandırılmasıdır. Tabii ki, bu ifadelerin geleneksel anlamları da vardır ve bu nedenle Abbott'un söylediklerini yorumlamaya çalışmak tamamen kafa karıştırıcı olabilir. Gerçekten de, Costello görünüşte zararsız olan kimin ilk sırada olduğu sorusunu soruyor ve bu soruya kesin olarak evet yanıtı veriliyor. Ama bu Costello için bir anlam ifade etmiyor çünkü bir isim bekliyordu ve bunun yerine şaşırtıcı bir evet cevabı aldı.

Yapay Zeka'nın (AI) ortaya çıkışı söz konusu olduğunda vites değiştirmek, sorulan en can sıkıcı sorulardan biri, AI yoldan çıktığında kimin veya belki de neyin sorumlu tutulacağını gerektirir.

AI'nın suç eylemlerine yol açtığı veya üstlendiği durumlarda cezai sorumluluğu daha önce tartışmıştım, şuradaki kapsamıma bakın: buradaki bağlantı. Ayrıca, burada tartışacağım konu olan AI size yanlış yaptığında kime veya neye dava açabileceğiniz gibi sivil hesap verebilirlik meselesi de var. Tüm bunların önemli AI Etiği hususları vardır. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Yapay Zeka Etiği ilkeleri, uyanık kalmamızı sağlar. AI teknoloji uzmanları zaman zaman teknolojiyle, özellikle de yüksek teknolojinin optimizasyonu ile meşgul olabilirler. Mutlaka daha büyük toplumsal sonuçları dikkate almıyorlar. Yapay Zeka Etiği zihniyetine sahip olmak ve bunu yapay zeka geliştirme ve saha oluşturmaya entegre etmek, AI Etiğinin firmalar tarafından nasıl benimsendiğinin değerlendirilmesi de dahil olmak üzere (belki de şaşırtıcı veya ironik bir şekilde) uygun AI üretmek için hayati önem taşır.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Aslında, bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazları öldüreceğimiz konusunda önceden uyarıyorlar.

Mevcut yasaların toplumda yapay zeka sistemlerinin ortaya çıkışını yeterince ele alıp alamayacağı konusunda hararetli bir tartışma yaşanıyor. Yasal sorumluluk, tipik olarak, zararlı davranışlardan kimin sorumlu olduğu konusunda kuyruğu eşeğe tutturabilmenizi gerektirir. AI durumunda, belirli bir kişiyi veya kişileri bazı zararlı eylemler gerçekleştiren AI'ya bağlayan oldukça belirsiz bir yol olabilir. Yapay zeka, yapay zekayı oluşturan kaynak veya mucit için büyük ölçüde izlenemez olabilir.

Diğer bir husus ise, AI'nın kökleri birisine kadar izlenebilse bile, soru, kişinin veya kişilerin, AI'nın nihayetinde ürettiği olumsuz sonucu makul bir şekilde öngörememiş olup olmayacağıdır. Öngörülebilirliğin püf noktası, yasal sorumluluğun değerlendirilmesinde geleneksel olarak dikkate değer bir faktördür.

Yapay zekanın kendisinin peşine düşebileceğinizi ve yapay zekayı, meydana geldiği iddia edilen zararlardan sorumlu veya sorumlu yasal taraf olarak adlandırabileceğinizi düşünmeye cezbedebilirsiniz. Genel olarak, hakim olan yasal görüş, AI'nın henüz tüzel kişilik seviyesine ulaşmadığı yönündedir. Bu nedenle, kesinlikle AI'nın ödeme yapmasını sağlamaya çalışamayacaksınız ve perde arkasında kolları çalıştıran insanları bulmanız gerekecek (AI için tüzel kişilik analizim için, bkz. buradaki bağlantı).

Tüm bu potansiyel yasal bataklığın içine, kısa vadeli veya muhtemelen uzun vadeli olarak olası bir çare olarak süzülmekte olan bir fikir adım atıyor. Buradaki fikir, belki de AI tarafından zarar görenlere mali yardım sağlamak için özel bir telafi fonunun kurulması gerektiğidir. Aksi takdirde, AI'nın sizi tazmin etmesini sağlayamıyorsanız ve muhtemelen sorumlu tutulması gereken kişileri tespit edemiyorsanız, bir sonraki en iyi seçenek, AI tarafından zarar görenlere yardım etmeyi amaçlayan bir telafi fonundan yararlanmak olabilir.

Böyle bir fon, düşündürücü bir araştırma makalesinde belirtildiği gibi, bir tür sigortaya benzeyecektir: “Bu, esasen belirsizliğe karşı bir sigorta mekanizması olacaktır: Bir sorumluluk davasının açıldığı durumlarda hızlı tazminat için açık ve şeffaf bir çerçeve. Zarar verici davranışın öngörülemeyen doğası, zararın (türünün) kendisi veya prosedürün aşırı maliyetleri ve/veya karmaşıklığı nedeniyle belirsiz veya başarı ihtimali yok” (Olivia Erdelyi ve Gabor Erdelyi'nin makalesi, “AI Liability Puzzle Ve Fon Bazlı Bir Çalışma Ortamı”, Yapay Zeka Araştırmaları Dergisi, 2021).

Telafi fonu, kapsamlı bir AI Garanti Planının (AIGS) parçası olacak ve yasal sorumlulukla ilgili mevcut yasalarda bazı hafif değişikliklerle birlikte sunulacak. Mevcut yasal rejimlerde daha yürek burkan bir dizi açıklayıcı değişiklik yapılsaydı, hafif dokunuş muhtemelen daha kolay yürürlüğe girecek ve zorlu yasal ve toplumsal kaygıları gerektirmeyecekti. Araştırmacılara göre: "Bu, - bu kadar hızlı bir çözümün çekiciliğine rağmen - bizim inancımızı yansıtıyor - değişmemiş mevcut sorumluluk kurallarının yapay zekaya veya korumacı motive Her ne pahasına olursa olsun sorumluluğu tesis etmek amacıyla kusursuz sorumluluğa başvurmak üç nedenden dolayı doğru cevaplar değildir: Birincisi, bu kuralların farklı koşullara göre şekillendirildiğini ve dolayısıyla AI için uygun olmayabileceğini göz ardı ederek, bu kuralların hassas bir şekilde dengelenmiş hedeflerine aykırıdır. yasal sorumluluk sistemi İkincisi, gereksiz yere cezalandırıcı bir yaklaşım benimseyerek yapay zeka inovasyonunu engellerler. Üçüncüsü, kusursuz sorumluluğa haksız yere başvurmak, öngörülebilirlik ve kusur sorunlarını düzeltmekten ziyade dogmatik olarak tutarsız bir şekilde atlatır” (yukarıda belirtilen makaleye göre).

Bu tür AI telafi edici fonların lehine olan argümanlar şunları içerir:

  • Yapay zekanın neden olduğu zararlarla başa çıkmak için uzun ve maliyetli yasal denemelere duyulan ihtiyacı azaltır
  • İnsanlara yapay zekadan yararlanabilecekleri ve zarar görmeleri durumunda tazminat alabilecekleri konusunda güvence verir
  • AI yenilikçilerinin karşılaştığı yasal belirsizliği azaltarak AI inovasyonunu teşvik eder
  • Mevcut yasalarda büyük değişiklikler yapmaktan çok daha hızlı kullanıma yerleştirilebilir
  • Güvenilir ve kolayca bulunabilen nispeten net bir çözüm sunar
  • Diğer

Bu arada, AI telafi edici fon yaklaşımına karşı olanlar şunu söylüyor:

  • Yapay zeka yapımcılarını aşırı derecede serbest bırakalım ve hesap verebilirliklerini yerine getirmelerine izin verelim
  • Yapay zeka üreticilerini, göreve uygun güvenlik ve uygun kontrollerden yoksun yapay zeka üretme konusunda cesaretlendirecek
  • İnsanları, fonlardan faydalanabilmeleri için yapay zekanın zararlarını iddia etmeye teşvik edebilir.
  • Yapay zekayı yeterince yönetmek için yasalarımızı elden geçirmenin gerçek ihtiyacını ortadan kaldırır ve baltalar
  • Fonları tıkayan ve kötüye kullanan bürokratik bir kabus olabilir
  • Diğer

Açıkça görülebileceği gibi, bu tamamen tartışmalı kavramın hem savunucuları hem de karşıtları vardır.

AI telafi fonunu, AI ile ilgili artan ve zarara neden olan endişelere potansiyel bir yaklaşım olarak özetlemekte zorlanacaksınız. Önerilen çözüm de bir smaç değil.

Bir bakış açısı, AI üreticilerinin AI tasarlarken ve yayınlarken çabalarının bir parçası olarak fonlara para yatırmaları gerektiğidir. Bu, yapay zekalarını dünyaya salabilmenin bir parçası olarak ödemeleri gereken bir tür ücret veya vergi olarak yorumlanabilir. Ancak bu ek maliyet, günümüzün yapay zekasının sınırlarını zorlamaya çalışan girişimlerin çabalarını potansiyel olarak bastırıyor mu? Ve AI üreticilerinin ücretlerini veya vergilerini ödediğinden emin olmanın yaptırımı nasıl ele alınacak?

Bir takım sorular ortaya çıkıyor ve dövülerek çözülmesi gerekecek:

  • Hangi ülkelerde bir AI telafi fonu en iyi şekilde uygulanabilir?
  • Birbirine bağlı AI telafi edici fonların küresel bir görünümü oluşturulabilir mi?
  • Bu tür fonlarla ilgili ayrıntılı ve uygulanabilir mekanizmalar neler olabilir?
  • Yapay zeka telafi fonları nasıl finanse edilecek (kamu, özel, hayırsever)?
  • Bu, hatasız bir sigorta temeli mi olacak yoksa başka bir yaklaşım mı izlenecek?
  • Vb

Halihazırda yapay zeka telafi fonları fikrine sahip olan bir alan, otonom araçlar ve kendi kendini süren arabalar gibi otonom sistemlerden oluşuyor. Kendi kendini süren arabalar ve yapay zeka otonom sistemlerle ilgili kapsamım için, bkz. buradaki bağlantı.

İşte bunun AI tabanlı kendi kendini süren arabalar için nasıl çalışabileceğinin bir taslağı.

Kendi kendine giden bir arabanın bir bisiklet sürücüsüne çarptığını varsayalım. Bisiklet sürücüsü zarar görür. Bisiklet sürücüsü, otonom aracın otomobil üreticisini takip ederek yasal tazminat talep edebilir. Veya AI sürüş sistemini yapan kendi kendini süren teknoloji firmasını hedef alabilirler. Kendi kendini süren araba bir filo olarak kullanılıyorsa, başka bir yasal yol da filo operatörünü takip etmek olacaktır. AI'nın tüzel kişiliği henüz kurulmadığı için AI'yı dava etmeye çalışmak bu noktada bir seçenek değildir.

Bu taraflardan herhangi birine karşı yasal işlem başlatmak yerine, uygun bir AI telafi fonuna başvuruda bulunmak veya talepte bulunmak başka bir yol olabilir. Fon, talebin gözden geçirilmesini içeren süreçleri resmileştirecek ve ardından talep sahibine herhangi bir telafi edici ödeme yapılıp yapılmayacağını belirleyecektir. Fon tarafından haksız bir şekilde reddedildiğini veya fon tarafından yeterince tazmin edilmediğini düşünen hak sahiplerine yardımcı olan bir temyiz süreci olabilir.

Teoride, AI telafi fonu, verilen zararın tazmini için çok daha hızlı bir yol olacaktır. Bir davanın ne kadar zahmetli olabileceğini, dava edilen firmaların davayı uzatmaya çalışabileceğini hayal edebilirsiniz.

Avukatlar, AI telafi fonunun, AI üreticileri gibi diğer tarafların, kendi kendine giden arabalarını halka açık yollarda bir bisiklet sürücüsüne çarpmasıyla sonuçlanan herhangi bir net cezadan görünüşte kaçınmalarına izin verebileceğini vurgulayabilirler. Bu firmalar “dikkatsizce” başka ne yapabilir? Başlarının üzerinde sallanan yasal kılıcın baş döndürücü hayaleti olmadan, kendimizi her gün tehlikeye atma kapasiteleriyle dolu AI ile karşı karşıya bulabiliriz.

Argümanlar yuvarlak ve yuvarlak gidin.

Sonuç

AI Ethics, bize her zaman AI'nın etik ve yasal sonuçlarını düşünmemiz gerektiğini hatırlatır. Bu AI telafi fonları durumunda, AI tarafından zarar görenleri tazmin etmek için önerilen sigorta benzeri bir fon havuzu fikri çekici görünüyor. Fonlar görünüşte orada bekliyor olacak, kullanılmaya hazır olacak ve mümkün olan en kısa sürede tazminat sağlayacaktır.

Bunun, giderek daha az güvenlik kontrolüne sahip AI yapma yolunda taşkın kapaklarını açıp açmayacağına dair ödünler, göz korkutucu ve tamamen gerçek bir endişe kaynağıdır. Muhtemelen zaten bir şekilde devam etmekte olan bir yangına yakıt eklememize gerek yoktur.

Bir şekilde hala AI üreticilerini uygun Etik AI tasarlamaya ve aynı anda bu AI telafi edici fonları oluşturmaya devam edebilir miyiz?

Bazıları evet, yapabiliriz diyebilir. Mevcut yasaları AI telafi fonlarıyla uyumlu hale getirerek, AI tarafından zarar görenler potansiyel olarak adil tazminatlarını aramak için ikili bir yola sahip olacaktır.

İlk kim var?

Evet, (hepimizde olduğu gibi) ilk anda, yapay zeka telafi fonlarının potansiyel kullanımı üzerinde kafa yormamız ve mevcut yasaları hafifçe de olsa değiştirerek, hem iyi yapay zekanın hem de iyi yapay zekanın saldırısıyla başa çıkmak için bir araç sağlamamız gerektiğini ilk fark eden kişi odur. kötü AI.

Bu hayati önem hakkında kafa karışıklığı yok.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- Hesap verebilirlik/