Yapay Zeka Etiği, Kaçınılmaz Olarak Kendi Kendini Süren Otonom Arabaların Önüne Gelen Yapay Zeka Kazalarıyla Mücadele Ediyor

Özellikle kazaya meyilli gibi görünen birini tanıyor musunuz?

Sanki hepimiz öyleyiz.

Belki de oturma odanızdaki değerli bir vazoyu devirmeye ya da muz kabuğuna kaymaya yatkın olan kişidir. Onlar şu ya da bu türden kazalar için bir insan mıknatısıdır. O kadar kötü olabilir ki, zaman zaman onların yanında olmaktan bile tiksiniyorsunuz. Uğursuz taşkınlık yaşayabilir veya tatsız kazalarından birinin ardından utanç verici sonuçlara maruz kalabilirsiniz.

Ama belki de herhangi birinin kazalara diğerlerinden daha yatkın olduğunu öne sürerken aşırı sert davranıyoruz. Kazaların hepimizin başına gelebileceğine dair bir tartışma yapılabilir. Hepimiz bir kaza yapma veya bir kazaya karışma olasılığına tabiyiz. En iyilerimiz dahil.

Bu tartışmanın üstüne ayrıca can sıkıcı bir soru yığalım.

Kazalar kaçınılmaz mı?

Başka bir deyişle, kazaları önlemek için ne kadar uğraşırsak uğraşalım, kaçınılmaz bir şekilde, yine de kazaların meydana gelme olasılığı ve nihai kesinliği vardır. Dünyayı kazalardan korumaya çalışabilirsiniz. Bu şüphesiz ihtiyatlı görünüyor. Ama öyle ya da böyle, kazalar yine de çirkin yüzünü gösterecek.

Dedikleri gibi, kazalar olmasını bekliyor.

Bir olaydan, uygun şekilde kaza olarak etiketlenmiş olarak bahsederek ne kastedildiğinin açıklığa kavuşturulması yararlı olabilir. Genel sözlük tanımı, bir kaza, beklenmedik bir şekilde ve kasıtsız olarak meydana gelen ve bir tür hasar veya yaralanmadan oluşan talihsiz bir sonucu olan bir olay türüdür.

Bu tanımı dikkatlice açın.

Bahsedilen olay beklenmedik bir olaydır. Bu, kazanın kendisinin ortaya çıkacağını fark etmediğimiz anlamına gelir.

Bahsi geçen olay kasıtsızdır. Bu, birinin kasıtlı olarak olayı meydana getirmeye çalıştığı durumları göz ardı etmemiz gerektiğini gösteriyor. Bir şakacı, şanssız ve şüphelenmeyen bir masumun adım atacağını bildiği yere bir muz kabuğu koyarsa, üzerine düşen kişinin bir kaza geçirdiğini iddia etmekte zorlanacaksınız. Bunun yerine kandırıldılar ve sinsice bir tuzağa sürüklendiler.

Tanım ayrıca sonucun talihsiz olduğu kriterini de içerir. Bu ışıkta bir kaza, ekşi bir sonuca yol açmalıdır. Yanlışlıkla bir vazoyu deviren kişi çatlamış ve muhtemelen zevk verilen eşyaya onarılamayacak şekilde zarar vermiştir. Değer kaybından vazo sahibi zarar görür. Vazoya koşan kişi, şimdi sahibine kayıp için borçlu olabilir. Tanrı korusun, vazonun kırılmasıyla herhangi biri kesilmiş veya hurdaya ayrılmış olabilir.

Eşit denge adına, "iyi" denilen kazaların da olduğunu belirtmek isteyebiliriz. Bir kişi, bir kaza sonucu kendisini büyük bir servet içinde bulabilir veya başka hayati faydalar elde edebilir. En sık alıntılanan örneklerden biri, Sir Alexander Fleming'den ve onun alkışlanan penisilini keşfinden oluşur. Hikaye, laboratuvarında biraz dikkatsiz olduğunu ve iki haftalık bir tatilden döndükten sonra kültür tabaklarından birinde bir kalıp bulduğunu söylüyor. Rivayete göre konuyla ilgili olarak şunları söyledi: “İnsan bazen aramadığını bulur. 28 Eylül 1928'de şafaktan hemen sonra uyandığımda, dünyanın ilk antibiyotiğini veya bakteri öldürücüsünü keşfederek tıpta devrim yapmayı kesinlikle planlamamıştım. Ama sanırım tam olarak yaptığım buydu.”

Yararlı kazaları bir kenara bırakıp, burada üzücü kazalara odaklanacağız. Kazaların asık surat versiyonu, bu olumsuz sonuçların özellikle yaşamı tehdit edebileceği veya külfetli sonuçlara yol açabileceği yerdir. Mümkün olduğu kadar, en aza indirmek istediğimiz olumsuz kazalar (ve tabii ki, mümkünse, en üst düzeye çıkarmak istediğimiz ters kazalar, ancak bu gülen yüz varyantını daha sonraki bir sütunda ele alacağım).

Kazaların kaçınılmazlığıyla ilgili önceki soruyu biraz yeniden yazmak istiyorum. Buraya kadar dikkatimizi tekil bir kişinin özel durumunda meydana gelen kazalar üzerinde tuttuk. Hiç şüphe yok ki, kazalar aynı anda çok sayıda insanı da etkileyebilir. Bu, özellikle insanlar şu veya bu türden karmaşık bir sisteme daldıklarında karşılaşılabilir.

Daha önce sorulan sorunun bir çeşidi için kendinizi hazırlayın.

Sistem kazaları kaçınılmaz mı?

Bunun üzerinde kafa yormalıyız.

Araba parçaları yapmak için bir fabrika zemininin döşendiğini varsayalım. Fabrikayı tasarlayanlar diyelim ki meydana gelebilecek işçi kazalarından son derece endişeli. Fabrika çalışanlarının her zaman kask takmaları zorunludur. Fabrikadaki işaretler, kazalara karşı dikkatli olmanızı ve işinizde dikkatli olmanızı öğütler. Kazaların yaşanmaması için her türlü önlem alınmaktadır.

Bu sistemde kimsenin kaza yapmamasını umabiliriz. Kaza olma olasılığının sıfır olduğuna inanıyor musunuz? Hiçbir makul düşünürün bu durumda bir kaza olasılığının sıfır olduğuna bahse girmeyeceğini söylemeye cesaret edebilirim. Bir kazanın olma olasılığı gerçekten düşük olabilir, ancak yine de tüm önlemlere rağmen bir kazanın meydana gelme riskinin hala bir nebze de olsa olduğunu biliyor ve varsayıyoruz.

Bütün bunlar, yeterince karmaşık bir sistemde, ne kadar engellemeye çalışsak da, kazaların yine de meydana geleceğine inanmamız gerektiği fikrine işaret ediyor. Sistem kazalarının gerçekten kaçınılmaz olduğu şartına gönülsüzce katılıyoruz. Bu çapta görkemli bir ifade, sistemin, kazaları tamamen önlemek için tüm temelleri kapsamanın esasen imkansız olduğu bazı karmaşıklık eşiğinde olması gerektiği konusunda bir uyarıya sahip olabilir.

Artık, Normal Kazalar veya Normal Kaza Teorisi (NAT) olarak etiketlenebilecek kazalar hakkında genel hatlarıyla belirtilen bir teoriyle adım adım temiz bir şekilde tanıştınız. İşte bu kavramı inceleyen araştırmacılar tarafından yapılan kullanışlı bir açıklama: “Yeterince büyük bir ölçekte, herhangi bir sistem 'normal kazalar' üretecektir. Bunlar, karmaşıklık, bileşenler arasındaki bağlantı ve potansiyel zararın bir araya gelmesinden kaynaklanan kaçınılmaz kazalardır. Normal bir kaza, daha yaygın bileşen arızası kazalarından farklıdır, çünkü normal kazaya yol açan olaylar ve etkileşimler sistem operatörleri tarafından anlaşılır değildir” (Robert Williams ve Roma Yampolskiy, Felsefeler dergi).

Seni sözde topraklara getirmemin sebebi normal kazalar Bu teoriyi, yavaş yavaş ve kaçınılmaz olarak toplumumuzda her yerde bulunan bir şeye, yani Yapay Zekanın (AI) ortaya çıkışına dikkatle uygulamamız gerekebileceğidir.

Bunu inceleyelim.

Bazı insanlar yapay zekanın mükemmellik olacağını yanlış bir şekilde varsayıyor. Yapay zeka sistemleri hata yapmayacak ve başımıza bela olmayacak, spekülasyon devam ediyor. Yapmanız gereken tek şey, bu AI geliştiricilerinin yeterince iyi bir iş çıkardığından emin olmak ve işte, AI asla tesadüfi olarak yorumlanabilecek veya bir kazaya yol açabilecek hiçbir şey yapmayacaktır.

Bu varsayımsal inançta o kadar hızlı değil. teorisini satın almaya istekliysen normal kazalarHerhangi bir önemli karmaşıklığa sahip herhangi bir AI, kaçınılmaz olarak bir kazaya neden olacaktır. Bu AI geliştiricilerinin bir kazayı önlemek için gece geç saatlerde ne kadar kurcalama yaptıklarına bakılmaksızın, AI kesinlikle bir noktada bir kazaya karışacaktır. Kurabiye bu şekilde parçalanır. Ve bunun için dökülen sütümüze ağlamanın bir çaresi yok.

Yapay zekanın karışımını ve yapay zekanın kavramsal ilkelerini düşünün. normal kazalar.

Nükleer silahları kontrol eden bir yapay zeka sistemimiz olduğunu hayal edin. AI özenle hazırlanmış. Akla gelebilecek her çek ve bakiye, AI sistemine kodlanmıştır. Gerçekleşebilecek AI tabanlı bir kazadan güvende miyiz? Normal kazalar bakış açısını destekleyenler, sanıldığı kadar güvenli olmadığımızı söyleyecektir. AI'nın özellikle karmaşık olması muhtemel olduğu göz önüne alındığında, normal bir kaza, belki de mümkün olan en kötü anda, bir gün ortaya çıkmak için sessizce orada bekliyor.

Bu çetrefilli soruların ve endişelerin özü, yapay zekanın kazalarla dolu olmaya mahkum olduğu konusunda tetikte olmamız ve insanlığın ortaya çıkabilecek tehlikeler konusunda mantıklı ve proaktif bir şeyler yapması gerektiğidir. Birazdan göreceğiniz gibi, yapay zeka kullanımı söz konusu olduğunda bu göz önünde bulundurulması gereken bir nokta ve AI Etiği ve Etik AI alanı ne yapılması gerektiği konusunda epeyce boğuşuyor. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Bir tavşan deliğinden aşağı inmeden önce, AI'nın doğası hakkında aynı sayfada olduğumuzdan emin olalım. Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı yapay zekanın, size tavsiye veren bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama). Hepsi bu senaryoların kaynağın değerlendirilmesini hızlandıracağını söyledi.

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Genel bir umut, bir AI Etiği ilkeleri duygusu oluşturarak, en azından AI'nın hem faydalı hem de olumsuz olarak neler üretebileceğine dair toplumsal farkındalığı artırabileceğimizdir. Çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve özetleyen araştırmacılar tarafından tasarlanan bir diziyi kapsamak da dahil olmak üzere, AI etik ilkelerinin çeşitli toplu analizlerini kapsamlı bir şekilde tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Övülen Yapay Zeka Etiği listelerine, yapay zeka tabanlı uygulamaları önlemek veya en azından keskin bir şekilde azaltmak için açıkça düşünmemiz ve aleni eylemlerde bulunmamız gerekenleri eklememiz gerekebilir. normal kazalar bu meydana gelebilir. AI geliştirenlerin bu cephede ellerinden gelenin en iyisini yapmaları gerekiyor. AI dağıtanların da aynı şekilde yapması gerekir. AI kullanan veya bir şekilde AI'ya tabi olanlar, ortaya çıkacak gibi görünen AI kazaları olasılığına karşı dikkatli ve tetikte olmalıdır.

Yapay zekaya bir kaza olasılığının sıfıra düşmesi için yeterli önlemin yerleştirilebileceğini düşünmek cazip gelebilir. Teknisyenler için olağan kibir, bir teknoloji parçası bir sorun yaratabiliyorsa, başka bir teknoloji parçasının kesinlikle sorunu çözebileceğidir. Sorun ortadan kalkana kadar daha fazla teknoloji atmaya devam edin.

Pekala, sistem odaklı kazalar üzerinde çalışmış olanlar, İsviçre Peynir Modeli (SCM) olarak bilinen bir bakış açısı sunarak, varsayılan teknisyen görkemine karşı çıkma ve kibarca karşılık verme eğiliminde olacaktır: "SCM'de güvenlik katmanları, Her güvenlik katmanındaki zayıf noktaları temsil eden delikli peynir. Zamanla, delikler şekil değiştirir ve hareket eder. Sonunda, kaç dilim peynir (güvenlik katmanı) olursa olsun, delikler tüm peynir dilimlerinden düz bir atış yapılmasına izin verecek şekilde hizalanacaktır (bir kaza meydana gelir)” (Robert Williams ve Roman Yampolskiy tarafından daha önce alıntılanan makaleye göre) ).

Yapay zekayı tamamen ve her zaman herhangi bir kaza olasılığını ortadan kaldıracak şekilde programlamanın garantili bir yolu olup olmadığı konusunda bu yan teğete saplanıp kalmak istemiyorum. Denenen her türlü matematiksel ve hesaplamalı kanıtlama yaklaşımı vardır. Bugün ölçeklenebilir bir çalışma yöntemimiz veya zırhlı bir şekilde sıfır şansı garanti edebilecek teknolojilere sahip olmadığımızı beyan etmenin makul ve adil olduğunu düşünüyorum, ayrıca kesinlikle tonlarca yapay zeka ile üretilmekte olan tonlarca yapay zekanın yükü altındayız. emin olun bu tür uygulamalara uymaya çalışmamıştır. Bu son nokta çok önemlidir, çünkü bir yapay zeka laboratuvarında bir şeyler uydurabilsek bile, bunu sürmekte olan ve ortaya çıkmaya devam edecek olan zilyonlarca vahşi ve kaygısız yapay zeka çabasına ölçeklendirmek çetrefilli bir meseledir ve bir hesaplamalı kanıtlama makinesi gümüş bile olsa muhtemelen çözülemez. kurşun vardı.

Kısaca değinmeyi hak ettiğini düşündüğüm bir diğer nokta, kötü niyetli insan aktörler sonucunda istenmeyen davranışlara dönüşen yapay zekadır. Bu örnekleri yapay zeka kazaları alanına sokmayacağım. Açılış tartışmasının bir kazanın sözlük tanımının bir kaza olayı olduğunu öne sürdüğünü unutmayın. kasıtsız doğa. Bir siber dolandırıcı, bir yapay zeka sisteminin kötü şeyler yapmasını sağlamayı başarırsa, bu yapay zekayı bir kaza yaşamak olarak sınıflandırmıyorum. Bu varsayımla hareket edeceğinize inanıyorum.

Çeşitli AI istenmeyen eylemlerinin ne kadarının tamamen bir AI kazasına karşı bir siber suçlunun sinsi eylemiyle ilişkilendirilebileceğine dair ilginç bir soru ortaya çıkıyor. Veritabanlarını bildiren mevcut AI olaylarından bazılarına göre, AI kazalarının kötü niyetli olarak teşvik edilen olaylardan daha fazla gerçekleştiği görülüyor, ancak bu kavramı yüksek dozda tuzla almanız gerekiyor. Bunu söylüyorum çünkü bir AI sistemine saldırıya uğradığını bildirmemek ve belki de bir AI kazası meydana geldiğinde bildirmeye biraz daha istekli olmak için büyük bir cazibe var.

Yapay zeka kazalarıyla ilgili tartışmamız gereken son derece önemli bir uyarı var.

"AI kazaları" sloganını kullanmak genellikle istenmeyen bir durumdur ve hepimiz için, yani tüm toplum için oldukça karışıklık yaratacaktır. Bir insan kaza geçirdiğinde, genellikle omuzlarımızı silkeriz ve kazayı geçiren kişiye sempati duyarız. Görünüşe göre “kaza” kelimesine, olanlardan kimsenin sorumlu olmadığı anlamına geliyormuş gibi davranıyoruz.

Bir araba kazası geçirme örneğini ele alalım. Bir araba sağa dönüşte geniş açı yapıyor ve kazara dümdüz giden başka bir arabaya çarpıyor. Shucks, bu sadece bir kazaydı ve yanlışlıkla oldu. Olaya dahil olmayanlar, olay sadece bir kaza olarak ele alınırsa, belki de meseleyi akışına bırakacaklar.

Yine de, çarpılan arabanın içinde olsaydınız, aşırı geniş dönüşü yapan sürücüye bu kadar sempati duymayacağınızı hissediyorum. Sizin fikriniz kesinlikle diğer sürücünün berbat bir sürücü olduğu ve ya görünüşte yasadışı ya da akıllıca olmayan bir sürüş eyleminin araba kazasına yol açtığı yönünde olacaktır. Olayı "kaza" olarak etiketleyerek, sıkışan sürücü şimdi biraz dezavantajlı durumda, çünkü görünüşe göre her şey, her şeyi berbat eden sürücünün ellerinden ziyade tesadüfen meydana geldi.

Aslında, "kaza" kelimesi o kadar çeşitli çağrışımlarla doludur ki, araba kazalarıyla ilgili hükümet istatistikleri, araba kazaları ifadesini kullanmak yerine, konuya araba çarpışmaları veya araba kazaları olarak atıfta bulunur. Bir araba çarpışması veya araba kazası, olayın nasıl meydana geldiğine dair herhangi bir etkiye sahip görünmüyor. Bu arada, "araba kazası" ifadesi, neredeyse kaderin bir cilvesi ya da bir şekilde insanoğlunun elinde olmadığını düşünmemize neden oluyor.

AI kazalarına atıfta bulunurken bu çağrışımsal düşüncenin nasıl oynadığını bolca görebilirsiniz. Yapay zeka geliştiricilerinin, yapay zekanın yanlışlıkla birine zarar vermesine neden olan çağrışımsal kalkanın arkasına saklanmasını istemiyoruz. Aynı şey yapay zekayı kullananlar için de geçerli. “AI kazaları” ifadesinin, toplumu, AI'nın perde arkasındaki insanların hesap verebilirlikten kaçmasına izin verme konusunda yanlış yönlendirecek olan, AI'nın neredeyse insansı bir hale getirilmesi olduğunu iddia edebilirsiniz. İnsanları yapay zekalarından sorumlu tutmanın artan önemi hakkındaki tartışmam için şu adresteki tartışmama bakın: Burada bu linki ve Burada bu linki.

Bundan böyle burada yapay zeka kazalarının sloganını kullanacağım, ancak bunu isteksizce ve sadece bu fenomene atıfta bulunmanın geleneksel yolu olduğu için yapıyorum. Bunu farklı şekilde ifade etme girişimleri, ne yazık ki daha fazla şişirilme eğilimindedir ve kolayca okunamaz. Lütfen sloganı, başka yöne bakmanıza neden olmayacak şekilde yorumladığınızdan ve AI ters gittiğinde AI'nın altında yatan insanların suçlu olduğunu anlamadığınızdan emin olun.

AI'dan meydana gelen kazalar olarak bahsetmenin olası karışıklığını veya yanıltıcı yönlerini göstermeye yardımcı olmak için bir vazoyu devirme konusundaki görüşlerime dönebiliriz. Bunu yapan AI örneğini düşünün: "Bu problem, AI tarafından kazara veya kayıtsızlıkla yapılan şeylerle ilgilidir. Vazoyu deviren bir temizlik robotu buna bir örnektir. Karmaşık ortamlarda o kadar çok 'vazo' vardır ki, tüm yan etkiler için bir ceza programlayamayız” (Robert Williams ve Roman Yampolskiy tarafından yazılan makaleye göre).

Bir evde kullanıma sunulan ve ardından “yanlışlıkla” bir vazoyu deviren bir yapay zeka sistemi, yapay zekanın bu olumsuz davranışından dolayı kimsenin suçlanmaması gerektiğini gösteriyor gibi görünüyor. Bu sadece bir kazaydı, biri ağıt yakarak karalayabilir. Öte yandan, AI sisteminin neden genel olarak vazo durumunu ele almak için programlanmadığını haklı olarak sormalıyız. AI geliştiricileri, karşılaşılabilecek nesnelerin kapsamında bir vazonun kendi başına olduğunu tahmin etmemiş olsalar bile, AI sistemini devirmekten alıkoyacak kapsayıcı bir nesneden kaçınmanın neden olmadığını kesinlikle sorgulayabiliriz. vazo (böylece AI, vazoyu bir vazo olarak sınıflandırmayabilir, ancak yine de kaçınılması gereken saptanabilir bir nesne olarak ondan kaçınabilirdi).

Kendilerini “AI kazalarına” sokan ve bir tür zarara neden olan AI sistemlerinin ortaya çıkması konusunda yavaş yavaş devasa bir yasal savaşa doğru ilerlediğimizi tahmin ettim ve tahmin etmeye devam ediyorum. Şimdiye kadar toplum, pazara sürülen ve kasıtlı veya kasıtsız olarak olumsuz sonuçlar doğuran AI'ya yasal olarak herhangi bir şekilde tepki göstermedi. Bugünün yarı pişmiş AI üreticilerinin altın hücumu haline gelen ve AI dağıtımını aceleyle yürürlüğe koyanların çoğu, şu anda şanslı oluyor ve hukuk davaları ve cezai kovuşturmalardan nispeten etkilenmeden kalıyor.

AI-stoked yasal tepki, er ya da geç gelecek.

Devam edersek, sözde AI kazalarının kaçınılmazlığıyla nasıl başa çıkmaya çalışacağız?

Hemen yapabileceğimiz bir şey, AI kazalarının nasıl meydana gelebileceğini tahmin etmeye çalışmaktır. Yapay zeka kazalarını önceden tahmin ederek, en azından onları azaltmak veya meydana gelme olasılıklarını en aza indirmek için araçlar tasarlamaya çalışabiliriz. Ayrıca, bir yapay zeka kazası meydana geldiğinde, açıklayıcı zarar olasılığını azaltmak için korkuluklar yerleştirmeye çalışabiliriz.

Daha önce atıfta bulunulan araştırma makalesinde açıklanan yararlı bir dizi faktör Yapay Zeka Hatalarını Anlamak ve Önlemek: Pratik Bir Kılavuz bu özellikleri içerir (araştırma makalesinden alıntılandığı gibi):

  • Yapay zekanın çıktılarından etkilenen sistem.
  • Yapay zeka çıktıları ile daha büyük sistem arasındaki zaman gecikmesi, sistem gözlemlenebilirliği, insan dikkat düzeyi ve operatörlerin yapay zekanın hatalı çalışmasını düzeltme yeteneği.
  • Yapay zekanın kontrol ettiği sistemlerin kötü niyetli kullanımıyla mümkün olan maksimum hasar.
  • Bileşenlerin yapay zekaya ve etkileşimlerin karmaşıklığına yakın olarak birleştirilmesi.
  • Yapay zeka ve kullanılan diğer teknolojilerin bilgi boşluğu ve sistemin enerji seviyesi.

Bu yoğun tartışmanın bu noktasında, bahse girerim, AI kazaları konusunu daha fazla aydınlatabilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, sözde yapay zeka kazalarının ortaya çıkışı hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Yapay Zeka Olayları

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Bunun, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağladığına inanıyorum.

Şimdi kendi kendini süren arabalara ve yapay zeka kazalarının ortaya çıkmasını gerektiren Etik Yapay Zeka olasılıklarına derin bir dalış yapmaya hazırız.

Mahallenizdeki sokaklarda yapay zeka tabanlı kendi kendini süren bir arabanın sürdüğünü ve güvenli bir şekilde sürüyor gibi göründüğünü hayal edin. İlk başta, sürücüsüz arabaya bir bakış atmayı başardığınız her sefere özel bir ilgi gösterdiniz. Otonom araç, video kameralar, radar birimleri, LIDAR cihazları ve benzerlerini içeren elektronik sensör rafıyla öne çıktı. Kendi kendini süren arabanın topluluğunuzun etrafında dolaştığını haftalarca geçirdikten sonra, şimdi bunu zar zor fark ediyorsunuz. Size göre, zaten yoğun olan halka açık yollardaki başka bir araba.

Kendi kendine giden arabaları görmenin imkansız veya mantıksız olduğunu düşünmeyin diye, sürücüsüz araba denemeleri kapsamındaki mekanların nasıl yavaş yavaş çeki düzenli araçları görmeye alıştığını sık sık yazdım. Yerlilerin çoğu sonunda ağızları açık, kendinden geçmiş aval aval aval aval yapmaktan, artık bu dolambaçlı kendi kendine giden arabalara tanık olmak için geniş bir can sıkıntısı yaymaya geçti.

Muhtemelen şu anda otonom araçları fark etmelerinin ana nedeni, tahriş ve çileden çıkma faktörüdür. Kitaba göre AI sürüş sistemleri, araçların tüm hız sınırlarına ve yolun kurallarına uymasını sağlar. Geleneksel insan güdümlü arabalarındaki telaşlı insan sürücüler için, kesinlikle yasalara uyan AI tabanlı kendi kendine giden arabaların arkasında sıkışıp kaldığınızda zaman zaman canınız sıkılır.

Bu, doğru ya da yanlış, hepimizin alışması gerekebilecek bir şey.

Hikayemize dönelim.

Bir gün sürücüsüz araba kaza yapar.

Sağa dönüş yaparken, AI sürüş sistemi otonom aracı genişçe salladı ve insan güdümlü bir araca çarptı. İnsan tarafından yönlendirilen araba, uygun trafik şeridinde dümdüz ilerliyordu. İnsan sürücünün yoldan çıkması veya çarpmaktan kaçınması için özel bir fırsat yoktu. Buna ek olarak, sürücüsüz otomobilin geniş ölçüde doğru dönüşü yapacağına dair herhangi bir uyarı ya da gösterge yoktu.

Bu bir kaza mı?

Kesinlikle bir AI kazası kapsamına girdiğini söyleyebiliriz. Böyle bir iddianın temeli, kendi kendini süren arabanın direksiyonunda bir AI sürüş sisteminin bulunmasıdır. Her nasılsa, herhangi bir nedenle, AI sağa dönüş yaparken geniş bir dönüş yapmayı seçti. Sonuç, kendi kendini süren arabanın insan tarafından yönlendirilen bir arabaya çarpmasına neden oldu.

“Kaza” kelimesiyle ilgili çağrışımlar hakkında daha önce yapılan tartışmayı hatırlayın ve bu senaryoda bu tür alt tonların nasıl oynadığını görün. Ayrıca, geniş bir sağa dönüş yapan ve insan tarafından yönlendirilen bir arabaya çarpan bir insan sürücü vakasını tartıştığımızı unutmayın. Bu eylemin bir “kaza” olduğu fikrinin yanıltıcı ve kafa karıştırıcı olduğunu fark ettik. Geniş dönüşü yapan insan sürücü, tesadüfen veya kaderin kaprisleri gibi görünen bir kazanın yalnızca meydana geldiği fikrinin arkasına saklanabilirdi.

AI tabanlı kendi kendini süren arabanın geniş açılıp insan güdümlü arabaya çarpması durumunda senaryoyu bir "AI kazası" olarak etiketlemek yerine, belki de bunun bir araba kazası veya kendi kendine bir araba çarpışması olduğunu söylemeliyiz. araba sürmek ve insanla çalışan bir araba. O zaman, bunun bilinmeyen araçların bir kazası olduğu şeklindeki anlamsız kafa karışıklığından vazgeçebiliriz.

Sizce olaya halkın tepkisi ne olur?

Peki, otomobil üreticisi veya kendi kendini süren teknoloji firması, konunun bir kaza olarak etiketlenmesine bağlı kalabilirse, toplumun genelinden gelebilecek olası tepkilerin etrafından dolaşabilirler. Tüm anlatılan kazalar hakkında bir sempati duygusu, muhtemelen belirli bir duruma akacaktır. Şehirlerin, ilçelerin ve eyalet liderlerinin yapay zeka otonom araç olaylarına potansiyel olarak nasıl tepki verecekleri hakkında daha fazla bilgi için, ortak liderliğini yaptığım ve şu adreste açıklandığı gibi bir Harvard çalışmasının tartışmasına bakın. buradaki bağlantı.

Durum açıkça bir araba kazası veya araba çarpışması olarak tanımlanırsa, belki de bu, olay için birinin veya bir şeyin suçlu olduğunun farkına varılmasına izin verebilir. Ani bir tepki, yapay zekanın sorumlu tutulması olabilir. Mesele şu ki, AI'yı tüzel kişiliğe sahip olarak atamaya karar verene kadar veya karar verirsek, sorumluluğu kendi başına AI'ya yükleyemezsiniz (bkz. AI ve tüzel kişilik hakkındaki tartışmam buradaki bağlantı).

Görünüşe göre uygunsuz sürüşe ve ardından araba kazasına neyin yol açtığını anlamaya çalışmak için AI sürüş sistemini inceleyebiliriz. Bu, AI'nın sorumlu tutulacağı anlamına gelmez. Sorumlu taraflar arasında yapay zeka geliştiricileri, sürücüsüz otomobilin filo operatörü ve diğerleri yer alıyor. Dönüşün meydana geldiği köşenin tasarımından şehrin kısmen sorumlu tutulma ihtimali olduğu için diğerlerini de dahil ediyorum. Ek olarak, bir yayanın köşeden fırladığını ve yapay zeka sürüş sisteminin bu kişiden kaçınmayı tercih ettiğini ve ardından araba kazasının içine düştüğünü varsayalım.

Ve benzerleri.

Sonuç

Yapay zekanın sayısal olarak neyi hesapladığını ve ne yapmaya programlandığını bilmek isterdik. AI kodlandığı gibi mi yaptı? Belki AI, programlamada eylemleri mazur göstermeyen, ancak çökmenin nasıl meydana geldiğine dair daha fazla ipucu sağlayan bir hata veya hatayla karşılaştı.

AI sürüş sistemine ne tür AI korkulukları programlandı? Korkuluklar olsaydı, neden araba kazasını engellemiyor gibi göründüklerini anlamak isterdik. Belki de yapay zeka sürüş sistemi dönüş yapmak yerine durmuş olabilir. AI'nın olay sırasında hesaplamalı olarak hangi alternatifleri değerlendirdiğini bilmek isteriz.

Belirli bir olayın temeline inmenin yanı sıra, bir başka haklı sorun, AI sürüş sisteminin benzer türde olumsuz eylemler yapacak bir kusur veya gömülü başka bir yönü olup olmadığıdır. Özünde, bu olay daha fazlasının habercisi olabilir. Bu tür bir AI sürüş sisteminin harekete geçmesini denemek ve tahmin etmek için bilgisayar tabanlı sürüş durumlarının simülasyonları nasıl kullanıldı? Araba kazasına yol açmış olabilecek AI sorunlarını ortaya çıkarmak için yeterli karayolu sürüş testi var mıydı?

Bu senaryo, yapay zeka tabanlı kendi kendini süren arabaların ortaya çıkmasıyla karşı karşıya kalan tartışmalı bir muammanın altını çiziyor.

Bu böyle devam ediyor.

Bir yandan, yapay zekalı sürüş sistemlerinin insan sürücüler kadar veya muhtemelen daha güvenli olacağı umudundan dolayı, kendi kendine giden arabaları süratle benimsemeye yönelik toplumsal bir istek var. Yalnızca Amerika Birleşik Devletleri'nde, şu anda araba kazaları ve yaklaşık 40,000 milyon insan yaralanması nedeniyle yılda yaklaşık 2.5 insan ölümü yaşıyoruz. Analizler, bu araba kazalarının önemli bir bölümünün alkollüyken araç kullanma, dikkati dağılmışken araç kullanma vb. gibi insan hatalarına atfedilebileceğini göstermektedir. buradaki bağlantı).

AI sürüş sistemleri içki içip araba kullanmayacak. Dinlenmeye ihtiyaçları olmayacak ve direksiyon başında yorulmayacaklar. Varsayım, kendi kendini süren arabaları uygun bir ulaşım modu olarak kurarak, insan sürücü sayısını azaltabileceğimizdir. Bu da, araba kazalarından kaynaklanan yıllık insan ölümlerinin ve yaralanmaların sayısını özet olarak azaltacağımız anlamına gelmelidir.

Bazı uzmanlar, sıfır ölüm ve sıfır yaralanma ile sonuçlanacağımızı ve bu kendi kendine giden arabaların sözde kırılmaz olacağını söylediler, ancak bu tamamen saçma ve tamamen yanlış bir beklentiler dizisi. Bunun neden bu kadar samimiyetsiz olduğunu açıkladım buradaki bağlantı.

Her durumda, kendi kendini süren arabaların karıştığı bir miktar araba kazası yaşayacağımızı varsayalım. Bu araba kazalarının da bir miktar ölüm ve yaralanma olacağını varsayalım. En çok ıstırap çeken soru, toplum olarak bu tür durumlara göz yummaya istekli olup olmadığımızdır. Bazıları, gerçek kendi kendini süren arabaların bir sonucu olarak bir ölüm veya bir yaralanma meydana gelirse, tüm kit ve kaboodle'ın kapatılması gerektiğini söylüyor.

Telafi eden bakış açısı, kurtarılan hayatlar yıllık sayıları azaltıyorsa, kendi kendini süren arabaların gelişini teşvik etmeye devam etmeli ve böyle mantıksız bir şekilde tepki vermemeliyiz. Kendi kendini süren arabalarda bile bir miktar ölüm ve yaralanmanın devam edeceği varsayımını kabul etmemiz gerekecek ve yine de yıllık sayımın azalması durumunda doğru yolda olduğumuzu gösterdiğini anlamamız gerekecek.

Elbette bazıları, kapsamlı ve kapsamlı bilgisayar tabanlı simülasyonların bir sonucu olarak veya özel kapalı yol testleri yoluyla bu tür bir kullanım için temizlenene kadar halka açık yollarımızda kendi kendine giden arabalara sahip olmamamız gerektiğini savunuyor. Karşı sav, kendi kendini süren arabaları çalıştırmanın tek geçerli ve en hızlı yolunun halka açık yolları kullanmak olduğu ve kendi kendini süren arabaların benimsenmesindeki herhangi bir gecikmenin, aksi takdirde insan güdümlü araba kazalarının korkunç sayılarının devam etmesine izin vereceğidir. Bu tartışmayı sütunlarımda daha uzun bir şekilde ele aldım ve okuyucuları bu tartışmalı konu hakkındaki perspektifleri tam olarak anlamak için bu tartışmalara bakmaya teşvik ettim.

Şimdilik konuyu toparlayalım.

AI kazaları olacak. Bir AI kazasını görünüşte olduğu gibi yorumlama dürtüsüne direnmeliyiz. kazara ve ergo, yapımcıların ve AI'yı kullananların kategorik olarak kancadan uzak olmasına izin verir.

Gününüz için son bir ilgi çekici düşünce olarak size bıraktığım ek bir bükülme var.

Komedyen Dane Cook'un araba kazalarıyla ilgili bu şakayı anlattığı bildirildi: "Birkaç gün önce bir araba kazası geçirdim. Benim hatam değil. Bu senin hatan olmasa bile, diğer kişi arabasından iniyor ve sana bu senin hatanmış gibi bakıyor: Neden kırmızı ışıkta durup 80'de sana çarpmama izin verdin!”

Bükümün öne çıktığı yer, bir AI sisteminin, söz konusu AI'yı içeren bir AI kazası meydana geldiğinde, AI'nın olayın insanın hatası olduğunu ve kesinlikle AI'nın hatası olmadığını söylemesi konusunda ısrar etme olasılığıdır. Bu arada, bu fazlasıyla doğru olabilir ve insan, yapay zekanın hatası olduğunu iddia ederek yapay zekayı günah keçisi yapmaya çalışıyor olabilir.

Ya da belki AI insanı günah keçisi yapmaya çalışıyor.

Görüyorsunuz, tasarladığımız yapay zeka, kazara ya da değil, bu şekilde yanıltıcı olabilir.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-what-looms-over-autonomous-self- araba kullanmak da/