Gerçekte Neyin Güvenilir Yapay Zeka Olduğunu Açıklayan Yapay Zeka Etiği ve Yapay Zeka Yasası

Güven her şeydir, öyle derler.

Ünlü filozof Lao Tzu, yeterince güvenmeyenlere güvenilmeyeceğini söyledi. Saygın bir romancı olan Ernest Hemingway, birine güvenip güvenemeyeceğinizi anlamanın en iyi yolunun onlara güvenmek olduğunu söyledi.

Bu arada, güven hem değerli hem de kırılgan görünüyor. Kişinin sahip olduğu güven, bir kağıt evi gibi çökebilir veya aniden patlayan bir balon gibi patlayabilir.

Antik Yunan trajedi yazarı Sophocles, güvenin öldüğünü, ancak güvensizliğin çiçek açtığını iddia etti. Fransız filozof ve matematikçi Descartes, bizi bir kez bile kandırmış olanlara asla tamamen güvenmemenin ihtiyatlı olduğunu iddia etti. Milyarder iş yatırımcısı olağanüstü Warren Buffett, güvenilir bir itibar inşa etmenin yirmi yıl ve onu mahvetmenin beş dakika sürdüğünü söyledi.

Güvenle ilgili tüm bu çeşitli görüşlerin ve kışkırtıcı görüşlerin Yapay Zekanın (AI) ortaya çıkması için çok önemli olduğunu bilmek sizi şaşırtabilir.

Evet, şiddetle söz edilen bir şey var. güvenilir yapay zeka Bu, AI alanından gelen el sıkışma çağrıları ve ayrıca AI aleminin dışındakilerin şiddetli patlamaları da dahil olmak üzere, bugünlerde çok fazla dikkat çekmeye devam ediyor. Genel kavram, toplumun AI sistemlerine güvenmeye istekli olup olmayacağını gerektirir.

Muhtemelen, toplum AI'ya güvenmezse veya güvenemezse, AI sistemlerinin çekiş elde edememesi ihtimali vardır. AI bildiğimiz gibi şu anda bir kenara itilecek ve sadece toz toplayacak. Şaşırtıcı bir şekilde, AI, tarihsel olarak umutsuzca denenmiş ancak olağanüstü başarısız bir yüksek teknoloji deneyinden başka bir şeye indirgenmemiş, çöp yığınına gidebilir. AI'yı yeniden canlandırmaya yönelik herhangi bir çaba, potansiyel olarak muazzam bir yokuş yukarı savaşla karşı karşıya kalacak ve her türlü itiraz ve açık protesto tarafından durdurulacaktır. Görünüşe göre, AI'ya olan güven eksikliğinden dolayı.

Hangisi olacak, yapay zekaya mı güvenelim yoksa yapay zekaya mı güvenmeyelim?

Özünde, gerçekten güvenilir yapay zekaya sahip olacak mıyız?

Bunlar eski ve çözülmemiş sorular. Paketi açalım.

Yapay Zeka Etiği ve Güvenilir Yapay Zeka Mücadelesi

AI içindeki birçok kişinin inancı, AI sistemlerinin geliştiricilerinin, güvenilir AI'yı uygun şekilde tasarlayarak AI'ya güvenebilecekleridir. İşin özü, AI başlangıçta güvenilir görünmüyorsa güven kazanmayı umamazsınız. Yapay zeka sistemlerini güvenilir olarak algılanacak şekilde oluşturarak, insanların yapay zekayı kabul etme ve yapay zeka kullanımlarını benimseme konusunda sağlam bir şans var.

Bu güvenilir AI değerlendirmesinde zaten rahatsız olan bir sorun, halihazırda bir kamu güven açığı AI'ya gelince. Daha önce gördüğümüz yapay zekanın bir çukur kazdığını ve büyük miktarlarda güveni yerle bir ettiğini söyleyebilirsiniz. Bu nedenle, yeterli bir güvenilirlik temelinde başlamak yerine, AI, insanları AI'nın gerçekten güvenilir olduğuna ikna etmek için ihtiyaç duyulacak olan her arzu edilen ilave güven için pençe atarak, açıktan şaşırtıcı bir şekilde tırmanmak zorunda kalacak.

Bu zorluğun içine AI Etiği ve AI Yasası geliyor.

AI Etiği ve AI Yasası, AI'yı güvenilir kılmak için ne gerektiğini anlamaya çalışmakla büyük bir mücadele veriyor. Bazıları, yapay zekayı güvenilir göklere çıkaracak bir formül veya katı yasalar olduğunu öne sürüyor. Diğerleri, toplumun övülen güvenini elde etmek için AI Etiği ve AI Yasası ilkelerine sıkı çalışma ve tutarlı ve amansız bağlılığın gerekeceğini belirtiyor.

Yapay zekaya güven konusundaki çağdaş muamma, özellikle kendi başına yeni değil.

1990'ların sonlarına kolayca geri dönebilir ve o günlerden beri aranan bir "güvenilir bilgi işlem" arzusunun ortaya çıkışını takip edebilirsiniz. Bu, tüm anlatılan bilgisayarların toplum tarafından güvenilir olarak yorumlanabilecek bir şekilde yapılıp yapılmayacağını ayırt etmeye yönelik büyük ölçekli bir teknoloji endüstrisi çabasıydı.

Anahtar sorular şunlardan oluşuyordu:

  • Bilgisayar donanımı güvenilir olacak şekilde yapılabilir mi?
  • Yazılım güvenilir olacak şekilde hazırlanmış olabilir mi?
  • Güvenilir olacak küresel ağ bağlantılı bilgisayarları yerleştirebilir miyiz?
  • Ve benzerleri.

O zaman ve bu güne kadar devam eden hakim düşünce, güvenilir bilgisayarın ne yazık ki hala tam olarak erişemeyeceğimiz bir tür kutsal kâse olduğu yönündedir. ACM'nin İletişimi). Yapay zekanın bilgi işlem güvenilirliğinin bir başka bileşeni olduğunu inandırıcı bir şekilde iddia edebilirsiniz, ancak yapay zeka güven arayışını daha da zorlu ve belirsiz hale getiriyor. AI, güvenilir bilgi işlem elde etme mücadelesinde potansiyel bir spoiler haline geldi. Muhtemelen zincirin en zayıf halkası.

Yapay zekanın neden daha az güvenilir olma konusundaki cesaretimizi aldığına hızlıca bir göz atalım. Ek olarak, bugünün yapay zekasının zaten yarı-su altında algılanan güvenini (veya köpüren güvensizliğini) desteklemeye yardımcı olacağı umulan Yapay Zeka Etiği ilkelerini keşfedeceğiz. Devam eden ve kapsamlı AI Etiği kapsamım için, bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Bunu güvenilir AI hakkındaki soruya bağlayalım

Olumsuz önyargılar ve ayrımcı eylemler sergileyen AI'ya kesinlikle güvenmek istemiyoruz. Bu durumda bizim inancımız, böyle bir yapay zekanın kesinlikle güvenilir olmadığı yönünde olacaktır, bu nedenle yapay zekaya aktif olarak güvenmemeye meyledeceğiz. Antropomorfik bir karşılaştırmada aşırıya kaçmadan (birazdan AI antropomorfizasyonu hakkında daha fazla söyleyeceğim), istenmeyen önyargılar sergileyen bir insan da özellikle güvenilir olmadığı için derecelendirmeye tabi olacaktır.

Güven ve Güvenilirlik İçine Kazmak

Belki birine veya bir şeye güvenip güvenmediğimizi iddia ederken ne demek istediğimize bir göz atmalıyız. İlk olarak, güvenin birkaç günlük sözlük tanımını düşünün.

Güvenin tanım olarak ne anlama geldiğine ilişkin örnekler:

  • Birinin ya da bir şeyin karakterine, yeteneğine, gücüne ya da gerçeğine duyulan güven (Merriam-Webster çevrimiçi sözlük).
  • Bir kişinin veya şeyin bütünlüğüne, gücüne, kabiliyetine, güvencesine vb. (Dictionary.com)
  • Birinin veya bir şeyin güvenilirliğine, doğruluğuna, yeteneğine veya gücüne olan kesin inanç (Oxford Languages ​​çevrimiçi sözlüğü).

Tüm bu tanımların “biri”ye atıfta bulunduğunu ve aynı şekilde “bir şey”den de potansiyel olarak güvenilir olarak söz edildiğini belirtmek isterim. Bu dikkate değerdir, çünkü bazıları yalnızca insanlara güvendiğimizde ve güvenme eyleminin yalnızca insanlığa ait olduğu ve güvenilirlik hedefimiz olduğu konusunda ısrar edebilir. Öyle değil. Mutfak tost makinenize güvenebilirsiniz. Tostunuzu güvenilir bir şekilde yapıyor gibi görünüyorsa ve bunu yapmak için rutin olarak çalışıyorsa, ekmek kızartma makinesinin gerçekten güvenilir olup olmadığı konusunda kesinlikle bir güvene sahip olabilirsiniz.

Aynı düşünce doğrultusunda, yapay zeka da güven bakış açımızın konusu olabilir. Olasılıklar, AI ile ilişkili güvenin sıradan bir ekmek kızartma makinesi söylemekten çok daha karmaşık olacağı yönünde. Bir ekmek kızartma makinesi genellikle yalnızca birkaç işlem yapabilir. Bir AI sisteminin çok daha karmaşık olması ve daha az şeffaf bir şekilde çalışması muhtemeldir. Yapay zekanın güvenilirliğini değerlendirme ve tespit etme becerimiz çok daha zor olacak ve belirgin zorluklar ortaya çıkaracaktır.

Daha karmaşık olmasının yanı sıra, tipik bir AI sisteminin deterministik olmadığı ve potansiyel olarak kendi kendini düzenleyen veya kendi kendini ayarlayan olduğu söylenir. Bu kavramı kısaca keşfedebiliriz.

Deterministik bir makine, aynı şeyleri tekrar tekrar, tahmin edilebilir bir şekilde ve nasıl çalıştığına dair uygulanabilir bir şekilde fark edilebilir bir modelle yapma eğilimindedir. Sıradan bir tost makinesinin kabaca aynı şekilde tost yaptığını ve tost makinesini kullanan kişi tarafından genellikle öngörülebilir olan, kızartmayı yöneten kızartma kontrollerine sahip olduğunu söyleyebilirsiniz. Buna karşılık, karmaşık AI sistemleri genellikle deterministik olmayacak şekilde tasarlanmıştır, yani aksi takdirde beklediğinizden çok daha farklı şeyler yapabilirler. Bu, AI'nın kendi kendini ayarlayacak şekilde yazılması durumunda kısmen daha da güçlendirilebilir; bu, AI'nın ML/DL durumunda avantajlı bir şekilde gelişmesine izin verebilecek bir özellik olsa da, rahatsız edici bir şekilde AI'nın düşmesine veya saflara girmesine neden olabilir. AI kötülüğünden. Yapay zekanın eylemlerine tamamen hazırlıksız yakalandığınız için, bir bakıma size neyin çarptığını bilemeyebilirsiniz.

Yapay zekayı güvenilirliğe yaklaştırmak için ne yapabiliriz?

Bir yaklaşım, yapay zekayı oluşturan ve kullananların bir dizi AI Etiği kuralına uymasını sağlamaya çalışmaktan oluşur. Bu AI araştırmacıları tarafından belirtildiği gibi: "Güven, bir ajanın beklendiği gibi davranacağına ve hedefine ulaşmak için güvenilebileceğine dair bir tutumdur. Temsilci ve güvenen kişi arasındaki bir hata veya yanlış anlaşılmadan sonra güven bozulur. Yapay zekaya güvenin psikolojik durumu, genellikle birçok tasarım, eğitim, dağıtım, performans ölçümü, düzenleme, yeniden tasarım ve yeniden eğitim döngüsünü içeren karmaşık bir sistemin ortaya çıkan bir özelliğidir. ACM'nin İletişimi, Stuart Middleton, Emmanuel Letouze, Ali Hossaini ve Adriane Chapman, Nisan 2022, “Avrupa Bölgesinde Güven, Düzenleme ve İnsan-in-the-Loop AI”.

Ana fikir, AI geliştiricilerinin Etik AI'ya uymasını sağlayabilirsek, sonunda güvenilir AI üretmelerini umarız. Bunların hepsi iyi ve güzel, ancak kesinlikle takip etmeye değer bir yol olmasına rağmen, gerçek dünya bazında biraz pratik görünmüyor.

İşte demek istediğim.

AI geliştiricilerinin, genellikle X olarak adlandıracağımız bir amaç için bir AI sistemi oluşturan özenli bir çaba gösterdiklerini varsayalım. AI'nın AI Etiği'nin şeffaflık ilkelerine uymasını dikkatlice sağlarlar. Gizliliğin yapay zekaya uygun şekilde yerleştirilmesini şiddetle sağlarlar. Neredeyse tüm olağan AI Etik ilkeleri için, AI geliştiricileri, AI'nın verilen kuralı karşılamasını kapsamlı bir şekilde sağlar.

Şimdi bu yapay zekaya güvenmeli misiniz?

Bu açık uçlu soru hakkındaki düşüncelerinizi süzmeme yardım etmeme izin verin.

Siber dolandırıcıların yapay zekaya sızmayı ve yapay zekanın X'i gerçekleştirmesini sağlamayı başardığı ve aynı zamanda siber korsanlara yapay zekanın topladığı tüm verileri beslediği ortaya çıktı. Bunu yaparak, bu kötü niyetli kişiler gizlice mahremiyet ilkesinin altını oyuyorlar. Bunun AI başlığı altında gerçekleştiğinden mutlulukla habersizsiniz.

Eklenen bu bilgiyle, size aynı soruyu tekrar soracağım.

Bu yapay zekaya güveniyor musun?

Çoğu insanın kesinlikle yaptıklarını hemen ilan edeceğini söylemeye cüret ediyorum. değil bu özel yapay zekaya güvenin. Daha önce güvenmiş olabilirler. Artık yapay zekayı güvenilir olarak görmemeyi tercih ediyorlar.

Bu basit örneğe dayanan birkaç temel anlayış üzerinde düşünmeye değer:

  • Güven Dinamiği. AI Ethics'in bir AI sistemine dahil edilmesini sağlamanın tüm temellerini kapsamaya yönelik en iyi niyetler bile, AI'nın ne olabileceğinin veya olabileceğinin garantisi değildir. Yapay zeka kullanıma sunulduğunda, dışarıdan gelenler potansiyel olarak Etik Yapay Zeka birikimlerini baltalayabilir.
  • İçeriden Güveni Azaltmak. Güvenilirliğin altını oyma eylemi mutlaka dışarıdan olmak zorunda değildir. AI sistemine düzenli bakım yapan bir içeriden biri, AI'yı daha az güvenilir olmaya doğru karıştırabilir ve zayıflatabilir. Bu AI geliştiricisi, yaptıklarından habersiz olabilir.
  • İstenmeyen Güven Uzlaşmaları. Kendi kendini ayarlayan veya kendi kendini düzenleyen bir yapay zeka, bir noktada kendini ayarlayabilir ve güvenilmez bölgeye sapabilir. Belki de AI, AI'nın şeffaflığını güçlendirmeye çalışır ve aynı zamanda gizlilik yönlerinden aynı anda ve uygunsuz bir şekilde ödün verir.
  • Güvenin Saçılması. Tüm AI Etik ilkelerini aynı en yüksek güvenilirlik derecesine ulaştırmaya çalışmak, genellikle farklı amaçlara sahip olduklarından veya başka potansiyel çatışmalara sahip olduklarından, genellikle kolayca uygulanabilir değildir. Tüm Etik AI ilkelerinin rüya gibi hizalandığına ve hepsinin eşit derecede maksimuma çıkarılabilir bir dereceye kadar ulaşılabilir olduğuna inanmak oldukça idealize edilmiş bir bakış açısıdır.
  • Güveni Elde Etmek Pahalı Olabilir. Çeşitli kapsamlı ve kapsamlı adımları atarak ve Yapay Zeka Etiği ilkelerine bağlı kalarak birinci sınıf bir güvenilir yapay zeka görünümü elde etmeye çalışmanın maliyeti nispeten yüksek olacaktır. Aksi takdirde toplum için önemli değeri olan bazı AI sistemlerini kullanıma sokmak açısından maliyetin engelleyici olacağını kolayca iddia edebilirsiniz, AI bir güvenilirlik arzusundan idealden daha azını söylesek bile.
  • Ve benzerleri.

Önceki açıklamaları, bir şekilde güvenilir yapay zekayı kapsamlı bir şekilde inşa etme ve sahaya çıkarma çabasından kaçınmamız gerektiğini önermek için yanlış yorumlamayın. Özetle, bebeği banyo suyuyla birlikte atıyor olacaksınız. Doğru yorum, yapay zekayı güvenilir bir değerlendirmeye almak için bu güvenilir faaliyetleri yapmamız gerektiğidir, ancak bu tek başına her derde deva veya gümüş bir kurşun değildir.

Güvenilir Yapay Zeka İçin Çok Uçlu Yollar

Güvenilir yapay zekaya doğru çaba sarf etmenin önemli ek çok yönlü yolları vardır.

Örneğin, daha önce sütunlarımda ele aldığım gibi, AI ile ilgili yeni ortaya çıkan sayısız yasa ve düzenleme, AI üreticilerini güvenilir AI geliştirmeye yönlendirmeyi amaçlıyor, bkz. buradaki bağlantı ve buradaki bağlantı.

Bu yasal korkuluklar, yapay zeka tasarlayanların yapay zekalarından tamamen sorumlu tutulmalarını sağlamanın kapsayıcı bir yolu olarak çok önemlidir. Bu tür potansiyel yasal çözümler ve yasal cezalar olmadan, yapay zekayı pazara hızlı bir şekilde sokanların, güvenilir yapay zeka elde etmek için çok az veya ciddi bir saygı ile bunu yapmaya devam etmeleri muhtemeldir. Özellikle şunu ekleyebilirim, eğer bu yasalar ve düzenlemeler yetersiz tasarlanırsa veya yetersiz uygulanırsa, üzücü bir şekilde güvenilir AI arayışını baltalayabilir, belki de ironik ve garip bir şekilde güvenilir AI üzerinde güvenilmez AI'yı teşvik edebilir (daha fazla açıklama için sütun tartışmalarıma bakın).

Ayrıca hararetle bahsettiğim şeyin sadık bir savunucusu oldum. AI koruyucu melek botları (bkz. kapsama alanım buradaki bağlantı). Bu, ateşle ateşle savaşmaya çalışmak için yaklaşan bir yöntem veya yaklaşımdır, yani güvenilir olabilecek veya olmayabilecek diğer AI ile başa çıkmamıza yardımcı olması için AI'yı kullanma.

İlk olarak, bazı arka plan bağlamları faydalı olacaktır.

Güvenilirliğinden emin olmadığınız bir yapay zeka sistemine güvenmeyi seçtiğinizi varsayalım. Önemli bir endişe, AI'ya güvenilip güvenilmeyeceğini anlama girişimlerinizde yalnız olmanız olabilir. Yapay zeka potansiyel olarak sizden hesaplama açısından daha hızlıdır ve sizden faydalanabilir. Yardım etmek için yanınızda birine veya bir şeye ihtiyacınız var.

Bir bakış açısı, bir AI sistemini kullanırken size yardımcı olmaya hizmet edecek döngüde bir insanın her zaman olması gerektiğidir. Bu sorunlu bir çözüm olsa da. Yapay zeka gerçek zamanlı olarak çalışıyorsa, ki bu yapay zeka tabanlı kendi kendini süren arabaların ortaya çıkışı söz konusu olduğunda bir an tartışacağız, döngüde bir insana sahip olmak yeterli olmayabilir. AI gerçek zamanlı olarak hareket ediyor olabilir ve AI'nın düzgün çalışıp çalışmadığını anlamak için belirlenmiş bir döngüdeki insan resme girdiğinde, felaket bir sonuç meydana gelmiş olabilir.

Bu bir yana, güven konusunda bir başka faktörü de gündeme getiriyor. Genellikle karşı karşıya olduğumuz bağlama veya duruma göre bir güven düzeyi atarız. Yeni yürümeye başlayan oğlunuzun veya kızınızın size karşı sadık olacağına tamamen güvenebilirsiniz, ancak yürüyüşe çıkıyorsanız ve yürümeye başlayan çocuğa bir uçurumun kenarına basmanın güvenli olup olmadığını söylemesine güvenmeye karar verirseniz, bence akıllıca olursunuz. yürümeye başlayan çocuğun bu tür bir ölüm kalım tavsiyesi sağlayıp sağlayamayacağını düşünmek için. Çocuk bunu ciddiyetle ve içtenlikle yapabilir ve yine de böyle bir tavsiyede bulunamayabilir.

Aynı kavram, yapay zeka söz konusu olduğunda güvenle ilişkilendirilir. Dama veya satranç oynamak için kullandığınız bir yapay zeka sistemi, muhtemelen herhangi bir ölüm kalım tartışmasına dahil değildir. Güven görevinizle daha rahat olabilirsiniz. Bir otoyolda yüksek hızlarda hızla ilerleyen AI tabanlı kendi kendine giden bir araba, çok daha yorucu bir güven seviyesi gerektirir. AI sürüş sisteminin en ufak bir darbesi, doğrudan sizin ölümünüze ve başkalarının ölümüne yol açabilir.

Küresel Deloitte AI Enstitüsü İcra Direktörü ve kitabın yazarı Beena Ammanath'ın yayınlanmış bir röportajında Güvenilir AI, AI güvenilirliğinin oynadığı bağlamsal yönleri dikkate almaya benzer bir vurgu: “Hasta teşhisi yapan bir AI çözümü oluşturuyorsanız, adalet ve önyargı çok önemlidir. Ancak jet motoru arızasını öngören bir algoritma oluşturuyorsanız, adalet ve önyargı o kadar önemli değildir. Güvenilir yapay zeka, gerçekten kuruluşunuzdaki güvenin boyutları hakkında düşünmeye başlamanızı sağlayacak bir yapıdır” (VentureBeat, 22 Mart 2022).

Güvenilir yapay zekayı tartışırken, bu konuyu çeşitli şekillerde yorumlayabilirsiniz.

Örneğin, güvenilir yapay zeka hepimizin arzu edilen ve arzulanan bir hedef olarak gördüğü bir şeydir, yani güvenilir yapay zeka tasarlamayı ve yaymayı arzulamamız gerekir. Cümlenin başka bir kullanımı daha var. Biraz alternatif bir kullanım, güvenilir yapay zeka birinin güvenilir bir yapay zeka örneği olan bir yapay zeka sistemi oluşturduğunu iddia edebileceği bir koşul veya ölçüm durumudur. ifadesini de kullanabilirsiniz. güvenilir yapay zeka AI güvenilirliğini elde etmek için kullanılabilecek bir yöntem veya yaklaşım önermek. Vb.

İlgili bir notta, tüm AI'ların aynı olmadığını ve AI'nın tamamı hakkında kapsamlı açıklamalar yapmamaya dikkat etmemiz gerektiğini anladığınıza inanıyorum. Belirli bir AI sisteminin, başka bir AI sisteminden önemli ölçüde farklı olması muhtemeldir. Bu yapay zeka sistemlerinden biri son derece güvenilir olabilirken, diğeri marjinal olarak güvenilir olabilir. Yapay zekanın ya tamamen güvenilir ya da tamamen güvenilir olmayan bir monolit olduğunu varsayarak dikkatli olun.

Bu sadece durum böyle değil.

Bundan sonra, ilginizi çekebilecek, güvenilir yapay zeka hakkında devam eden araştırmalarımdan bazılarına kısaca değinmek istiyorum. AI koruyucu melek botları.

İşte nasıl gidiyor.

Başka bir AI sisteminin güvenilirliğini ölçmek için tasarlanmış bir AI sistemi (bir AI koruyucu melek botu) ile donanmış olacaksınız. AI koruyucu melek botu, güvenliğinize her şeyden önce odaklanır. Bunu, gerçek cebinizde, belki de akıllı telefonunuzda veya bu tür diğer cihazlarda çalışan farklı bir AI sistemine sahip olarak, güvendiğiniz AI'yı izleme araçlarına sahip olduğunuzu düşünün. Ünlü AI koruyucunuz, güvendiğiniz AI'nın da yaptığı, yüksek hızlarda çalışarak ve eldeki durumu gerçek zamanlı olarak hesaplayarak, döngüdeki bir insanın yapabileceğinden çok daha hızlı bir şekilde hesaplayabilir.

İlk bakışta, halihazırda güvendiğiniz yapay zekanın bazı özelliklere sahip olması gerektiğini düşünebilirsiniz. AI koruyucu melek botunu ayrı olarak hesaplayan bu AI korkulukları. Evet, bu kesinlikle istenirdi. Bir sorun, bir AI sistemine yerleştirilmiş AI korkuluklarının, AI ile kendi başına entegre ve önyargılı olarak hizalanmış olabileceğidir, bu nedenle, varsayılan AI korkuluğu artık bir anlamda AI'yı bağımsız olarak doğrulayamaz veya doğrulayamaz.

Zıt fikir, AI koruyucu melek botunuzun, güvendiğiniz AI'dan farklı, bağımsız veya üçüncü taraf bir AI mekanizması olmasıdır. Diğer yapay zekanın dışında yer alır, size adanmış kalır ve izlenen veya değerlendirilen yapay zekaya adanmış değildir.

Bunu düşünmenin basit bir yolu, aşağıdaki basitleştirilmiş denklem benzeri ifadelerle ifade edilebilir. “P”nin, belirli bir “X” görevini yapması için potansiyel olarak “R”ye güvenmek istediğini söyleyebiliriz:

Bu, yalnızca insanlar dahil olduğunda aşağıdakiler olacaktır:

  • P kişisi, X görevini yapmak için R kişisine güvenir.

Yapay zekaya güvenmeyi seçtiğimizde, ifade şu şekilde yeniden şekillenir:

  • P kişisi, X görevini yapmak için AI örneği-R'ye güvenir.

AI koruyucu melek botunu şunu söyleyerek ekleyebiliriz:

  • P Kişisi, AI koruyucu melek bot örneği-Z tarafından izlendiği için X görevini yapmak için AI örneği-R'ye güvenir

AI koruyucu melek botu, güvendiğiniz AI'yı yorulmadan ve durmaksızın değerlendiriyor. Bu nedenle, kullanışlı AI koruyucunuz, bu diğer AI'nın güveninin yersiz olduğu konusunda sizi uyarabilir. Veya, AI koruyucusu, güvenilir olmaktan uzaklaşan herhangi bir sapmanın hızlı bir şekilde düzeltilmesini sağlamak için diğer AI ile elektronik olarak etkileşime girebilir, vb. buradaki bağlantı).

Güvenilir Güven Rezervuarı Metaforu

Değişen güven düzeylerini tartıştığımız için, güveni bir tür rezervuar olarak tasavvur ederek güvenilirlik hakkında kullanışlı bir metafor kullanabilirsiniz.

Belirli bir zamanda belirli bir durumda belirli bir kişi veya şey için belirli bir miktarda güveniniz var. Güven düzeyi, o kişi veya şeyle ilgili başka neler olduğuna bağlı olarak yükselecek veya düşecektir. Kişi veya şey için hiçbir güveniniz olmadığında, güven sıfır düzeyinde olabilir. O kişiye veya şeye güvenmemeye başladığınızda, güven olumsuz olabilir.

AI sistemleri söz konusu olduğunda, belirli bir durumda güvendiğiniz belirli AI için güven rezervuarınız, AI'nın güvenilirliğini ölçmenize bağlı olarak yükselecek veya düşecektir. Zaman zaman, AI hakkındaki bu değişen güven düzeyinin farkında olabilirsiniz, diğer durumlarda ise daha az farkında olabilirsiniz ve daha çok, güvenilirlik hakkında önseziler yaparak kararlar verebilirsiniz.

AI için güven seviyelerini artırmanın yollarını burada tartıştığımız yollar şunları içerir:

  • AI Etiğine bağlılık. Güvendiğiniz AI, uygun AI Etiği ilkelerine bağlı kalmaya çalışarak tasarlandıysa, muhtemelen bu anlayışı, söz konusu AI sistemi için güven rezervuarınızın seviyesini artırmak için kullanırsınız. Bir yan not olarak, aynı şekilde, diğer AI sistemlerine güvenilirlikleri konusunda genelleme yapmanız da mümkündür, ancak bu bazen benim dediğim şeyin yanıltıcı bir şekli olabilir. AI güven aurası yayılıyor (Bunu yaparken dikkatli olun!).
  • Döngü İçinde İnsan kullanın. AI'nın döngüde bir insanı varsa, AI'ya olan algılanan güveninize olumlu bir şekilde katkıda bulunabilirsiniz.
  • Kanun ve Yönetmelikler Oluşturun. Bu belirli yapay zeka türüyle ilgili yasalar ve düzenlemeler varsa, aynı şekilde güven düzeyinizi de artırabilirsiniz.
  • Bir AI Koruyucu Melek Botu Kullanın. Hazırda bir AI koruyucu melek botunuz varsa, bu da güven seviyenizi daha da yükseltecektir.

Daha önce bahsedildiği gibi, güven oldukça kırılgan olabilir ve bir anda dağılabilir (yani, güven rezervuarı hızla ve aniden oluşan tüm güveni boşaltır).

AI tabanlı kendi kendini süren bir arabanın içinde olduğunuzu ve AI sürüşünün aniden radikal bir sağa dönüş yaparak tekerleklerin gıcırdamasına ve otonom aracı neredeyse tehlikeli bir devrilmeye zorlamasına neden olduğunu hayal edin. Güven seviyenize ne olurdu? Yapay zekayı daha önce yüksek bir güven seviyesinde tutmuş olsanız bile, güven seviyenizi dramatik ve aniden düşürecekmişsiniz gibi görünüyor.

Bu ağır tartışmanın bu noktasında, güvenilir yapay zekanın doğasını ve kapsamını gösterebilecek ek açıklayıcı örneklere arzu duyduğunuza bahse girerim. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım durumu veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, güvenilir yapay zeka arayışı hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Güvenilir Yapay Zeka

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Bunun, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağladığına inanıyorum.

Artık sürücüsüz arabalara ve güvenilir yapay zekaya derin bir dalış yapmaya hazırız.

Güven her şeydir, özellikle de yapay zeka tabanlı kendi kendini süren arabalar söz konusu olduğunda.

Toplum, kendi kendini süren arabaların ortaya çıkışını ihtiyatla izliyor gibi görünüyor. Bir yandan, gerçek kendi kendini süren arabaların ortaya çıkmasının, yıllık araba ile ilgili ölümlerin sayısını gözle görülür şekilde azaltacağına dair büyük bir umut var. Yalnızca Amerika Birleşik Devletleri'nde araba kazaları nedeniyle yılda yaklaşık 40,000 ölüm ve yaklaşık 2.5 milyon yaralanma var, şu adresteki istatistik koleksiyonuma bakın: buradaki bağlantı. İnsanlar içer ve araba kullanır. İnsanlar dikkati dağılmışken araba kullanırlar. Araba kullanmanın görevi, tekrar tekrar ve hatasız bir şekilde araba kullanmaya odaklanabilmek ve araba kazalarına girmekten kaçınmaktan ibaret gibi görünüyor. Bu nedenle, yapay zeka sürüş sistemlerinin kendi kendini süren arabaları tekrar tekrar ve hatasız bir şekilde yönlendireceğini hayal ederek umabiliriz. Kendi kendine giden arabaları, araba kazasında ölüm ve yaralanmaların hacmini azaltmanın yanı sıra potansiyel olarak hareketliliği çok daha geniş ve erişilebilir bir temelde sağlamaktan oluşan bir ikili olarak yorumlayabilirsiniz.

Ancak bu arada endişe, kendi kendini süren arabaların genel olarak halka açık yollarımızda olacak kadar güvenli olup olmayacağına dair toplumsal algılar üzerinde beliriyor.

Kendi kendini süren bir araba bile tek bir ölüme veya ciddi yaralanmaya neden olan bir çarpışma veya çarpışmaya girerse, bugünün AI tabanlı sürücüsüz arabalara yönelik bir şekilde birikmiş güvenin hızla düşeceğini tahmin edebilirsiniz. Bunun, Arizona'da bir yayaya çarpıp onu öldüren bir şekilde (gerçekten değil) kendi kendini süren bir arabayı içeren şu anda rezil olay meydana geldiğinde gördük (bkz. Burada bu linki).

Bazı uzmanlar, yapay zekalı sürücüsüz arabaların güvenini, yalnızca bir sonraki ölüme neden olan kaza veya çarpışmanın zaten nispeten kazasız halka açık karayolu denemelerini baltalayabileceği yönüne dayandırmanın haksız ve uygunsuz olduğuna dikkat çekiyor. Ek olarak, daha adil olmayan bir temelde, hangi AI sürücüsüz otomobil markası veya modelinin üzücü bir olaya bulaştığı önemli değil, toplum şüphesiz tüm kendi kendini süren araba markalarını suçlayacaktır.

Kendi kendini süren arabaların tamamı özet olarak karalanabilir ve bir bütün olarak endüstri, tüm kamuya açık yol denemelerinin olası bir şekilde kapatılmasına yol açan büyük bir geri tepmeye maruz kalabilir.

Böyle bir geri tepmeye katkıda bulunan bir kişi, açık sözlü kendi kendine giden araba taraftarlarının, tüm sürücüsüz arabaların kırılmaz olacağına dair saçma sapan beyanlarda bulunur. Bu kırılmazlık fikri yalnızca tamamen yanlış olmakla kalmaz (bkz. buradaki bağlantı), kendi kendini süren otomobil endüstrisini sinsi bir şekilde tamamen sıra dışı bir dizi beklenti için kuruyor. Kendi kendini süren arabalar nedeniyle sıfır ölüm olacağına dair bu tuhaf ve ulaşılmaz açıklamalar, herhangi bir sürücüsüz araba kazasının tüm kitin ve kaboodle'ın boşuna olduğuna dair kesin bir işaret olduğu yanılgısını körüklüyor.

Kendi kendini süren arabalara yönelik ilerlemenin ve toplumsal güvenin her seferinde bir inç birikiminin bir anda ortadan kalkabileceğini fark etmenin belirgin bir üzüntüsü var. Bu, güvenin kırılganlığı hakkında harika bir vitrin olacak.

Sonuç

Birçok otomobil üreticisi ve kendi kendini süren teknoloji firması, güvenli ve güvenilir AI tabanlı kendi kendini süren arabalar açısından güvenilir AI'yı denemek ve oluşturmak için genellikle AI Etik ilkelerine uyar. Lütfen bu firmalardan bazılarının diğerlerinden daha güçlü ve Etik Yapay Zeka ilkelerine daha bağlı olduğunun farkına varın. Ayrıca, AI Etiği temel taşlarının çoğunu bir kenara atıyor gibi görünen, ara sıra saçak veya acemi, kendi kendini süren araba ile ilgili yeni başlayanlar da var (bkz. buradaki bağlantı).

Diğer cephelerde, kendi kendine giden arabaları kapsayan yeni yasalar ve düzenlemeler yavaş yavaş yasal kitaplara girmeye başladı. Onları desteklemek için gerekli dişlere sahip olup olmadıkları, aynı şekilde bu yasaların uygulanmasının ciddiye alınıp alınmadığı veya göz ardı edilip edilmediği farklı bir konudur (bu konudaki analizler için sütunlarıma bakın).

Bunun bir de yüksek teknoloji açısı var. Otonom araç ve sürücüsüz arabalar arenasında ön plana çıkacak olan AI koruyucu melek botlarının çeşitlerini yavaş yavaş göreceğimizi tahmin etmiştim. Henüz orada değiliz. Kendi kendini süren arabaların popülaritesi daha yaygın hale geldiğinde bu daha yaygın hale gelecektir.

Bu son nokta, şüphesiz zaten ezbere bildiğiniz güven hakkında ünlü bir çizgiyi gündeme getiriyor.

Güven ama doğrula.

Belki de cömertçe güvenimizi genişletmemize izin verebiliriz. Bu arada, yarattığımız güvenin hem sözlerle hem de eylemlerle doğrulandığından emin olmak için bir şahin gibi izlemeliyiz. Yapay zekaya biraz güvenelim, ancak güvenimizi uygun bir şekilde ve gözlerimizi sonuna kadar açarak verdiğimizi durmadan doğrulayalım.

Bu konuda bana güvenebilirsin.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/