Yapay Zeka Etiği Etik Olarak Kötü Tam Otonom Sistemleri Yakalamak ve Yakalamak için Yapay Zeka Önyargılı Av Ödülleri Sunmanın Sağduyulu mu Yoksa Boşuna mı Olduğunu Dikkatli Bir Şekilde Değerlendiriyor

Aranan: AI önyargı avcıları.

Bu, sosyal medya kanallarında belirmeye ve çeşitli çevrimiçi iş ilanlarında görünmeye başlayacağınız modern bir zaman reklamı olabilir. Bu nispeten yeni bir kavram veya roldür. Tartışmayı da beraberinde getiriyor. Bazı ateşli inananlar hararetle bunun çok mantıklı olduğunu ve başından beri olması gerektiğini iddia ederken, diğerleri oldukça gergin bir şekilde ciddi kafa kaşıyarak ve bunun iyi bir fikir olduğundan emin değiller.

Rolün özü, herhangi bir gizli önyargıyı veya gömülü ayrımcı uygulamaları AI'dan çıkarmaktan ibarettir. Kurtarmaya istekli ve tamamen eski AI önyargılı avcılar geliyor. Muhtemelen bilgisayardan anlayan ödül avcıları olacaklardı. Dahası, umarım, AI yeteneklerinin derinliklerine batmıştır.

Silaha sahip olun, seyahat edin ve AI yetenekli keskin nişancılık yoluyla bu tatsız ve istenmeyen AI önyargılarını ortaya çıkarmayı başarabilir.

Bu, yapay zeka önyargılarını keşfetmeye gelince böyle bir taktiği izlemenin duyarlılığı hakkında bir dizi zorlu soruyu gündeme getiriyor. Birazdan tartışacağım gibi, lütfen AI'nın ortaya çıkışının, AI önyargılarının ortaya çıkmasını da beraberinde getirdiğini bilin. AI önyargıları torrent. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Belirli bir AI sisteminin önyargıları olduğunu nasıl keşfedeceğiz?

Bunu yapmak için yapay zekayı tasarlayan yapay zeka geliştiricilerine emanet edebilirsiniz. Mesele şu ki, önyargılara o kadar saplanmış olabilirler ki, kendi uydurdukları AI içindeki önyargıları kendileri tanıyamaz. Hepsi onlara iyi görünüyor. Ya da yapay zeka konusunda çok heyecanlı olabilirler ve bununla ilgili kendilerinden gurur duyabilirler ki, daha sonra onu önyargılara karşı incelemek için eleştirel bir gözle bakmaları zor ve gerçek bir moral bozucu olur. Yapay zeka geliştiricilerinin bu görevi üstlenmesini engelleyen bu tür diğer birçok neden, gömülü önyargıları anlama becerisi eksikliği, bir projede bunu yapmak için zaman eksikliği vb.

Tamam, öyleyse devam edin ve kirli işleri sizin yerinize yapması için dışarıdan danışmanlar kiralayın. Danışmanların, AI'nızı önyargılar için mutlu bir şekilde inceleyecekleri ve bunu yapmak için sizden güzel bir kuruş (çok ve çok kuruş) talep edecekleri ortaya çıktı. AI sisteminizle hız kazanmaları için ödeme yapmanız gerektiğini anlayın. Daha sonra, etrafta dolaşmasını sağlamanız gerekir, bu da sayısız maliyetli ve zahmetli saatler gerektirebilir. Bunun için bütçeniz varsa danışmanları kullanmak bir seçenektir.

Bu sinsi AI önyargılarının nasıl bulunacağına dair potansiyel "boşluğa", kahramanca ve atılgan AI önyargıları ödül avcıları geliyor.

Genellikle onlara peşin ödeme yapmazsınız. AI önyargılarını kendi zamanlarında bulmaya çalışırlar ve bunu yaparken kendi faturalarını ödemek zorunda kalırlar. Sadece önyargıları başarılı bir şekilde bulurlarsa ödeme alırlar. Sanırım, uygun bir düşünce tarzıyla, ödül avcısının geleneksel tanımının bu olduğunu kolayca iddia edebilirsiniz. Başarılı olursan ödeme al. Başarılı olamazsanız ödeme almayın. Dönem, hikayenin sonu.

Ödül programları, en azından Romalılar zamanından beri var olmuştur ve bu nedenle, tüm bu yıllar boyunca bir uygulama olarak başarılı bir şekilde varlığını sürdürerek işe yaradıklarını tahmin edebiliriz.

İşte size büyüleyici bir tarihi bilgi parçası. Bildirildiğine göre, Roma İmparatorluğu döneminde Pompeii kentinde yayınlanan bir mesaj, küçük bir dükkandan kaybolan bakır bir tencereyi bulmak için ödül avcılarına ihtiyaç olduğunu ilan etti. Bakır çömleğin geri alınmasının ödülü, altmış beş bronz sikkeden oluşan etkileyici bir ödüldü. Üzgünüz, herhangi bir ödül avcısının bakır tencereyi bulup bronz paraları talep edip etmediğini bilmiyoruz, ancak ödül avcılığının o eski zamanlardan beri kesinlikle devam ettiğini biliyoruz.

Daha modern zamanlarda, 1980'lerde kullanıma hazır yazılım paketlerindeki bilgisayar hatalarını veya hataları bulmak için bazı kayda değer ödüller sunulduğunu ve daha sonra 1990'larda Netscape'in web tarayıcılarında hata bulmak için belirgin bir ödül sunduğunu biliyor olabilirsiniz. (bunu yapan o günün en önde gelen firmalarından biri olmak). Google ve Facebook, sırasıyla 2010 ve 2013 yıllarından başlayarak böcekler için ödül avına çıkmayı tercih etti. Birkaç yıl sonra, 2016'da ABD Savunma Bakanlığı (DoD) bile bir "Pentagon'u Hackleyin" ödül çabasıyla harekete geçti (kamuya odaklanan ödülün DoD ile ilgili çeşitli web sitelerinde bulunan hatalar için olduğunu unutmayın. savunma görevi için kritik sistemler).

Hata ödülü konusunu daha derinlemesine inceleyelim. Bu tartışmada esas olarak ödül avcılığındaki AI önyargıları hakkında konuşmayı hedeflediğimin farkındayım, ancak böcek ödül arenasıyla oldukça alakalı paralellikler var.

Bazıları, herhangi bir firmanın sistemlerindeki hataları (veya bu durumda, AI önyargılarını) bulmak için bir ödül teklif etmek isteyeceğine açıkça şaşırıyor.

Yüzeyde, bu "bunu siz istiyorsunuz" türünden bir strateji gibi görünüyor. Yazılımınızda boşluklar bulmaya çalışabilecekleri hoş karşıladığınızı tüm dünyaya bildirirseniz, bu, hırsızlara devam etmelerini ve evinize girmeye çalışmalarını söylemekle aynı şey gibi görünüyor. Halihazırda oldukça iyi bir hırsız alarm sisteminiz olduğuna ve kimsenin güvenli evinize giremeyeceğine inanıyor olsanız bile, ikamet ettiğiniz yere inip hırsızlardan ricada bulunduğunuzu ve gerçekten de onlara yalvardığınızı hayal edin. içine kırın. Ah kendimize ördüğümüz dertler.

Aynı şey, ödül avcılarından AI'nızdaki önyargıları bulmalarını istemek için de söylenebilir.

İlk olarak, belki de AI'nızın önyargıları olduğuna zaten inandığınızı veya hatta tamamen bildiğinizi ima ediyor. Bu, çok az kişinin yapmaya istekli görüneceği ve potansiyel olarak geri tepebilecek şaşırtıcı derecede açık zımni bir itiraftır.

İkincisi, o ödül avcılarının neler yapabileceğini kesin olarak bilmiyorsunuz. Tüm dünyaya yapay zekanızda önyargı bulduklarını söylemeyi seçebilirler. Bazıları bunun ödül almayı kaybedebileceğini varsayar, ancak bazıları dikkati çekebilir veya danışmanlık konserleri ve diğer gelir getirici olanaklar almak için durumlarını güçlendirmeyi amaçlayabilir. Belki de tamamen fedakar olabilir. Bir tür AI aktivizmi olabilir. devam edebilirim.

Üçüncüsü, tüm meselede sinsi bir bükülme olabilir. AI önyargılarını aradığını iddia eden bir ödül avcısı, AI sisteminize saldırmanın yollarını bulmak için şeytani bir şekilde etrafta dolaşıyor olabilir. Her şey, nihayetinde ciddi bir siber saldırıya girişmek için bir maskaralık. Kalplerinde kötülük varken, yardım etmeye çalıştıklarını varsaymış olabilirsiniz. Üzücü ama mümkün.

Dördüncüsü, bu konuda daha da sinsi bir şekilde çarpıtabiliriz. Bir ödül avcısı, bazı utanç verici ve potansiyel olarak davayı teşvik eden yapay zeka önyargıları bulur. Ödül, X diyeceğimiz bir miktar dolar. Ödül avcısı, ödül talep etmek yerine bir tür tuhaf fidye yazılımı provokasyonu yapıyor. Ödül avcısına X'in on katı kadar bir miktar öderseniz veya belki de gökyüzü limiti öderseniz, size AI önyargıları hakkında bilgi verirler. Cevap vermek için Pazar gecesi gece yarısına kadar vaktin var. Bu noktadan sonra, herkesin görmesi için AI önyargıları ortaya çıkacak. Yikes, içinde olmak için korkunç bir çıkmaz.

Beşincisi, en sonuncusu, bir grup çevrimiçi hamur çaldıktan sonra tövbe etmeye ve ele geçirdikleri haksız elde edilmiş ganimetin bir kısmını iade etmeye karar veren sözde "geri dönüş hack" siber dolandırıcılarıdır. Paralarını kısmen geri alan şirket, kalan çalınan miktarı hırsızlara ödül olarak verildikten sonra bir ödül olarak kabul etmeye isteklidir. Görünüşe göre herkes "kazanıyor", çünkü fonların büyük kısmı geri veriliyor ve bu arada siber dolandırıcılar yasal olarak takip edilmiyor, ayrıca korsan ödülünü de alıyorlar. Bu ihtiyatlı mı yoksa sinsi bir şekilde haksız fiilleri sürdürmek mi?

Bazılarınızın, içinde herhangi bir önyargı bulunan yapay zekayı serbest bırakmaması gerektiğini söylediğinizin farkındayım. Bu, AI önyargılı ödül avcılarını kullanıp kullanmama konusundaki tüm bu ikilemi çözüyor gibi görünüyor. Kendinizi bir ödül durumuna sokmayın. Yapay zeka geliştiricilerinizin doğru şeyi yaptığından ve yapay zeka sistemlerinde yapay zeka önyargılarına izin vermediğinden emin olun. Belki iki kez kontrol etmek için danışmanları kullanın. Özünde, bu AI önyargılı ödül avcılarını masaya gelmelerini düşünmekten veya istemekten kaçınmak için yapmanız gereken her şeyi yapın.

Evet, bu tamamen mantıklı görünüyor. Sorun şu ki, aynı zamanda biraz rüya gibi. Birçok AI sisteminin karmaşıklığı o kadar büyüktür ki, tek bir AI önyargısının ortaya çıkmamasını sağlamaya çalışmak zor olacaktır. Bunun da ötesinde, bazı AI sistemleri, ilerledikçe uyum sağlamak ve “öğrenmek” için bilerek tasarlanmıştır. Bu, gelecekte bir noktada, ilk başta tamamen temiz ve önyargısızmış gibi davranalım, tasarladığınız AI'nın, önyargıları somutlaştırmaya yönelebileceği anlamına gelir (bunu antropomorfik bir şekilde kastetmiyorum, çünkü daha sonra açıklayacağım). Bu konuya devam edin).

Yazılım hataları için ödül avcılığını tercih edenler, bu tür ödüller sunmanın mantıklı olduğunu iddia etmeye meyillidirler. Mantığını göz önünde bulundurabilir ve bunun AI önyargıları alanı için de geçerli olup olmadığını görebiliriz.

Böcek ödüllerinin savunucuları, sisteminizde hiç boşluk yokmuş gibi davranmaya çalışmak yerine, neden deliklerin bulunmasını “kontrollü” bir şekilde yapmaya teşvik etmeyelim ki? Buna karşılık, böyle bir ödül çabası olmadan, rastgele tesadüfen kimsenin bir delik bulamamasını umabilir ve dua edebilirsiniz, ancak bunun yerine bir ödül teklif ediyorsanız ve bir delik bulanlara ödüllendirileceklerini söylüyorsanız, bu size bir ödül sunar. daha sonra deliği kendi başınıza güçlendirme ve sonra diğerlerinin daha sonraki bir zamanda gizlice bulmasını engelleme şansı.

Aynısı, AI önyargılarının kullanım durumunda da söylenebilir. Yeterli bir ödül verirseniz, umarım ödül avcıları AI önyargılarının keşfini dikkatinize sunar. Daha sonra, nispeten sessiz ve ölçülü bir şekilde AI önyargılarıyla başa çıkabilirsiniz. Bu, daha sonra çok daha büyük ve ürkütücü bir sorunu önleyebilir, yani bir başkası AI'nızda AI önyargıları bulur ve bunun hakkında yüksek göklere bağırır.

Genel olarak, böcek ödül avcılığı çabasını etkinleştirmek isteyen bir firma, bir Güvenlik Açığı İfşa Politikası (VDP) uygulayacaktır. VDP, hataların nasıl bulunacağını ve firmaya nasıl rapor edileceğini ve avcıya ödül veya ödülün nasıl sağlanacağını gösterir. Genellikle VDP, avcının bulduklarını başkalarına ifşa etmeyecek şekilde bir Gizlilik Sözleşmesi (NDA) imzalamasını gerektirir.

Ödül avcıları ile bir NDA kullanma fikri bazı tartışmalara sahiptir. Ödül teklif eden şirkete, bulunan riskleri korumak istemesi belki de mantıklı gelse de, bu tür hatalar hakkında genel farkındalığı bastırdığı da söyleniyor. Muhtemelen, yazılım hatalarının konuşulmasına izin verilirse, potansiyel olarak diğer firmalardaki diğer sistemlerin güvenliğine yardımcı olacak ve bu da daha sonra risklerini artıracaktır. Bazı ödül avcıları, kısmen halkın isteği ve kısmen de kendi kimliklerini gizli tutmaya çalıştıkları için bir Gizlilik Sözleşmesi imzalamayacaktır. Ayrıca, NDA yönünün, avcının önceden talep etmek yerine, bir hata bulduğunu iddia etmesinden sonra ortaya çıkmadığını da unutmayın.

Bazı VDP'ler, NDA'nın yalnızca sınırlı bir süre için olmasını şart koşar ve firmanın ilk önce görünen deliğe bir çözüm bulmasına ve ardından daha geniş bir açıklamaya izin vermesine izin verir. Delik kapatıldıktan sonra firma, dünyanın geri kalanının hatayı bilmesi için NDA'nın gevşemesine izin verir. Ödül avı böcekler için tipik çözüm süresinin, bir firma hemen takmak istediğinde 15-20 gün civarında olduğu, diğer durumlarda ise 60-80 güne kadar uzayabileceği bildiriliyor. Ödül avcısına ödeme açısından, sözde ödeme zamanı, deliğin gerçekten var olduğu doğrulandıktan sonra, ödül ödemelerinin daha küçük örnekler için yaklaşık 15-20 gün içinde ve yaklaşık 50-60 gün içinde olduğu bildiriliyor. daha büyük örnekler için günler (bunlar sürekli değişen sektör göstergeleridir ve yalnızca açıklayıcı olarak belirtilir).

AI önyargılı ödül avcılarından da bir VDP'ye katılmaları ve bir NDA ile ilgilenmeleri istenmeli mi?

Bu soruya evet ve hayır alabilirsiniz. Evet, bazı firmalar bu yoldan gitmeli. Hayır, mutlaka o rotaya gitmeyi tercih etmeyebilirsiniz. Faktörler arasında yapay zekanın boyutu ve doğası, ilgili herhangi bir yapay zeka önyargısı maruziyetinin potansiyeli ve ortaya çıkan bir dizi diğer etik, yasal ve ticari husus yer alır.

AI'nızın AI önyargıları için bir ödül avı girişimi oluşturmanın, ilk bakışta varsaydığınızdan çok daha uzun bir düzen olduğunu ekleyebilirim.

AI önyargılı ödül avcıları tarafından bunalmış olmanızın müthiş olasılığı ile başlayacağız.

Şu anda, böyle bir arama kartına sahip pek çok kişi bulmakta zorlanacaksınız. Etrafta pek yok. Bu bakımdan Vahşi Batı günleridir. Ancak, ödül avcılığında yapay zekanın önyargıları kavramı yakalanırsa, özellikle ödüller bol ve zengin bir şekilde ödüllendirildiğinde, herkesin önyargılı yüzme havuzuna dalacağına bahse girebilirsiniz.

AI sisteminizde AI önyargılarını takip eden her türlü ayak takımı ister misiniz? Bu tür şeylerde gerçekten uzman olan bazı alıcılar elde edeceksiniz. Amatör olan ve ortalığı karıştırabilecek veya ağlatan başka alıcılar alacaksınız. Bildiğiniz bir sonraki şey, "Yapay Zeka" kelimesini heceleyebilen herkes, bu değerli AI önyargılı altın külçeleri için bir AI sisteminin altın madenini kazmaya gelecek. Altına hücum sürüyor. Bu senin için iyi olmayabilir.

Ödül avcısı gönderilerini incelemeniz gerekecek. Ödül avcısı bazılarını bulduklarında ısrar etse de, iddia edilen AI önyargılarının çoğunun mevcut olmadığı anlamında, bildirilen iddialarda çok fazla "gürültü" olacaktır. Ödül taleplerini incelemek, her birinin geçerliliğini araştırmak ve daha sonra potansiyel olarak ödül avcısıyla altının bulunup bulunmadığı konusunda ileri geri gitmek için kendi AI ekiplerinizin ne kadar emek gerekeceğini hayal edin.

Bazıları, her şeyi kendiniz yapmak için başka bir neden olduğunu iddia edebilir. Kaçınılmaz olarak, ödül olayının değerinden daha fazla sorun olduğunu keşfedebilirsiniz.

İşte üzerinde düşünülmesi gereken başka bir soru. Ödül avcıları bir AI önyargısının neye benzediğini nasıl bilecek? Özünde, ne aranacağına dair bir benzerlik olmadan, herhangi bir parlak kayanın, kazılmakta olan AI altın madeninde bir AI önyargısı sergilediği iddia edilebilir.

Eski Batı günlerinde, Billy the Kid'i (ünlü bir kanun kaçağı) yakaladığınız için bir ödül teklif ettiğinizi varsayalım. Bunu yaptıysanız ve Billy'nin nasıl göründüğünün bir resmini eklemediyseniz, Billy the Kid olduğunu umdukları veya düşündükleri birini şerifin ofisine sürükleyebilecek ödül avcılarının sayısını hayal edin. Sahte Billy'lere boğulabilirsin. Bu kötü çünkü muhtemelen her birine bakmanız, derinlemesine sorular sormanız ve bu kişinin gerçekten Billy olup olmadığını belirlemeye çalışmanız gerekecek.

Mesele şu ki, AI önyargılarının ödül çabasını oluşturmak için AI önyargılarının nelerden oluştuğunu düşündüğünüzü netleştirmeye çalışmak akıllıca olacaktır. Bu, Goldilocks türünde bir kalibrasyon gerektirir. Ödül avcılarının, yalnızca sizin belirlediğiniz tanımınıza uymadıkları için AI önyargılarını gözden kaçıracak kadar kısıtlayıcı olmak ve “Eureka!” diye bağırmalarını da istemezsiniz. muhtemelen buldukları bir AI önyargısının her zerresinde.

AI yanlılıklarının nelerden oluştuğuna dair doğru Goldilocks dengesine ihtiyacınız olacak ve bu nedenle tercihen açık yönergeler sağlayacaksınız.

Bu AI önyargılı ödül avcılığının çoğu, AI tabanlı Makine Öğrenimi (ML) ve Derin Öğrenme (DL) sistemlerine odaklanacak. Bu, ML/DL yaygınlığının ortaya çıkışının artması nedeniyle mantıklıdır ve ayrıca aşırı AI önyargılarını kapsamanın en olası zorluklarından bazılarına sahip görünmektedir.

Bu araştırmacılar, özellikle ML/DL bağlamında, bir AI'nın ödül avcılığı çabasını ne kadar ön plana çıkardığını tespit ediyor: "Zamanla, yazılım ve güvenlik toplulukları, sistem geliştiricileri ve eleştirmenleri arasında benzer dinamikleri döndürmek amacıyla 'hata ödülleri' geliştirdiler. (veya bilgisayar korsanları) daha etkileşimli ve üretken amaçlara yöneliktir. Umut, dış tarafları sistemlerinde yazılım veya donanım hataları bulmaya kasıtlı olarak davet ederek ve genellikle bunu yapmak için parasal teşvikler sağlayarak, daha sağlıklı ve daha hızlı yanıt veren bir ekosistemin gelişeceğidir. ML topluluğunun, önyargılı veya diğer istenmeyen davranışlara sahip modellerin ve sistemlerin zamanında keşfedilmesi ve onarılması için benzer bir "önyargı ödülü" yaklaşımını dikkate alması doğaldır. Yazılımda hatalar bulmak yerine, harici taraflar önyargıları bulmaya davet edilir - örneğin, eğitimli bir modelin düşük performans gösterdiği (demografik veya diğer) girdi alt grupları - ve bunu yaptıkları için ödüllendirilir” (“Önyargı için Algoritmik Çerçeve” makalesinde Bounties”, Ira Globus-Harris, Michael Kearns ve Aaron Roth).

Araştırma makalesinde yazarlar, ödül avcıları tarafından ne tür AI önyargılarının aranabileceğine dair önerilen bir yaklaşımın ana hatlarını çiziyor. Ayrıca, bu şekilde keşfedilen iddia edilen AI önyargılarıyla ilişkili ödül avcısı iddialarının nasıl değerlendirileceğine dair bir gösterge de var. Buradaki daha önceki sözlerime göre, büyük olasılıkla, yanıltıcı iddialar alacaksınız ve AI saptırma buğdayını samandan ayırmanız gerekecek.

AI önyargı avcılığının altında yatan vahşi ve yünlü düşünceler hakkında biraz daha et ve patatese girmeden önce, son derece bütünsel konularda bazı ek temeller oluşturalım. Yapay Zeka Etiğine ve özellikle Makine Öğrenimi (ML) ve Derin Öğrenmenin (DL) ortaya çıkışına kısaca bir dalış yapmamız gerekiyor.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfedeceğiz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Şimdi AI önyargı avı konusuna dönelim.

AI yanlılığı ödül avcılığı yapmayı düşünenleriniz için, en iyi şekilde nasıl ilerleyeceğinize dair tavsiye ettiğim yedi önemli adımı burada bulabilirsiniz:

1) Belirlemek. Koşullarınız için ve AI sistemlerinize göre bir AI önyargı ödül avı çabasının uygunluğunu değerlendirin

2) Dizayn. Uygun bir AI önyargı ödül avcılığı yaklaşımı tasarlayın

3) Uygulamak. AI önyargı ödül avcılığı çabalarınızı uygulayın ve duyurun

4) Alan. AI'nın ödül iddialarını önyargılı hale getirin ve buna göre işlem yapın

5) sabit. AI'nızı bu keşfedilen AI önyargı risklerine uygun olarak düzeltin veya ayarlayın

6) Ayarlamak. AI önyargı ödül avcılığını gerektiği gibi ayarlayın

7) Durdur. Artık ihtiyaç duyulmadığında AI önyargı ödül avcılığını durdurun

Yukarıdaki adım dizimde, AI sisteminizde iddia edilen bir AI yanlılığının gerçekten var olduğunu tespit etmeye dayanarak muhtemelen AI'nızı düzeltmek veya ayarlamak isteyeceğinizi belirttiğimi unutmayın. Bu çok mantıklı. Neredeyse kesinlikle bulunan herhangi bir AI önyargısını desteklemek isteyeceksiniz. Bunu yapmazsanız, yasal (ve etik) sonuçları düşünün. Bir AI önyargısının var olduğunu bilmediğinizi ve bu nedenle var olmasına izin verdiğinizi iddia etmek bir şeydir, ancak bir AI önyargısının farkında olduğunuzu ve bu konuda hiçbir şey yapmadığınızı kaydetmek çok daha sarsıcı bir zemindir.

AI düzeltmesinin veya ayarlamasının doğası ve derecesi, elbette AI önyargılarının ne kadar önemli olduğuna ve sorunların ne kadar derine gömülü olduğuna bağlı olacaktır. Şanslıysanız, AI'da yapılacak küçük bir değişiklik, sorunları düzeltebilir. Diğer potansiyel, AI'nın tamamını yeniden yazmanız gerekebilecek olmasıdır. ML/DL tipi AI için bu, çizim tahtasına geri dönmeyi ve tamamen yeni bir veri seti ve temizlenmiş bir ML/DL modeli ile yeni bir başlangıç ​​yapmayı gerektirebilir. Tatsız AI'ya karşı potansiyel bir yasal çözüm olarak AI'nın bozulmasının veya AI'nın yok edilmesinin ortaya çıkışını tartıştım, bkz. buradaki bağlantı.

Üzerinde kafa yoracak bir soru, ödül avcılarının AI önyargılarının varlığını belirlemekten fazlasını yapmasını isteyip istemediğinizdir. Örneğin, önerilen düzeltmelerin de hoş karşılandığını belirterek ödülü tatlandırabilirsiniz. Bir AI önyargısı bulundu bir ödül avcısı tarafından belirtilen bir ödül veya ödül ödenebilir. Ödül avcısı da uygun bir teklif sunabilirse düzeltmek AI yanlılığına daha sonra ek bir ödül verilebilir.

Bazıları bunun çok uzak bir köprü olduğunu iddia ediyor. AI önyargı ödül avcılarını yalnızca AI önyargılarını bulmaya odaklamanız gerektiğini söylüyorlar. Onları düzeltmeler önermeye davet ederek bir dizi istenmeyen olumsuz sonuç yaratacaksınız. İşleri basit tutun. Amaç, daha sonra ne yapacağınıza karar verebilmeniz için AI önyargılarını keşfetme konusunda daha fazla göze sahip olmaktır. Suları bulandırmayın.

Çözülmesi gereken zorlu bir yön, AI önyargılarını gerçekten keşfeden ödül avcıları için ödülün veya ödülün büyüklüğünü gerektirir. Kazancın kanıtlayıcı olmasını istiyorsunuz. Yeterince yüksek bir ödül olmadan, çok fazla ödül avcısı alamayacaksınız veya AI sistemlerinizdeki AI önyargılarını aramaya özellikle hevesli olmayacaklar. Bunun yerine diğer AI önyargı ödül çabalarına odaklanabilirler.

Ayrıca, belirtildiği gibi, ödül avcılarının AI önyargı keşiflerini diğer altın biçimlerine dönüştürme dürtüsünü denemek ve bastırmak istiyorsunuz. Ödül az görünüyorsa, ödül avcılarını daha yüksek kazançlar aramaya itebilir. Size karşı bir fidye yazılımı yaklaşımı alabilirler. Bir rakibin bilmek isteyeceği ve AI'nızda AI önyargısının var olduğunu söyleyerek firmanıza karşı kullanabileceği sulu bir AI önyargılarına sahip olduklarını beyan edebilirler. Böylece, keşfedilen AI yanlılığını en yüksek teklifi verene satarlar. Ve benzeri.

Ödülü son derece yüksek bir aralıkta ayarlarsanız, potansiyel sorun da istiyorsunuz demektir. Bu, her türden çılgın ödül avcısını çekebilir. Buna karşılık, sosyal medyayı, çok sayıda AI önyargısı bulduklarına dair puslu iddialarla doldurabilirler, bunu kendi tanıtımları için ve aslında herhangi bir AI önyargısını ön plana çıkarmadan yaparlar. Bir anlamda, yükseltilmiş ödülünüz yanlışlıkla AI'nıza bir ışık tutar ve bir dizi kaba güveyi buna karşılık olarak parlayan ışık huzmesine tehlikeli bir şekilde çekilmeye teşvik eder.

Diğer bir husus, AI'nıza erişilebilirliği içerir.

Bir AI ödül avcılığı olasılığını etkinleştirmek için, ödül avcılarının AI'nıza yeterince erişmesi gerekir. Tamamen kilitlenirlerse, AI önyargılarını bulma konusunda pek şansları olmayacak. Ancak, yapay zeka sisteminizi tamamen tehlikeye atabileceğinden siber güvenlik korumalarınızdan vazgeçmek istemezsiniz.

Ödül avcılarının yasal olarak bağlayıcı çeşitli beyanlar imzalamasını ve ardından onlara gerekli erişimi sağlamasını deneyebilirsiniz. Bazı ödül avcıları bu tür bir yaklaşımdan hoşlanmayacak. Onların bakış açısı, yalnızca halka açık ve açık uçlu herhangi bir yolun izin verdiği her şeyi yapacaklarıdır. Onlar sanki özgür başıboşlar ve sanki eyerlenmekten hoşlanmıyorlar. Göz korkutucu yasal belgelere imza atmalarını sağlamak, birçoğunun AI'nızda AI önyargıları aramaktan kaçınmasına neden olacaktır. Ya da yasal dayağınıza kızabilirler ve kamuya açık yollarla ne bulabileceklerini görmeye karar verebilirler ve bunu size gerçekte ne kadar savunmasız olduğunuzu göstermek için belki de keskin bir dürtüyle yaparlar.

Başını döndürebilecek başka bir açım daha var.

Yapay zeka konusunda bilgili bir ödül avcısı, yapay zekanızı inceleyebilecek ve muhtemelen yapay zekanızdaki yapay zeka önyargılarını keşfedebilecek bir yapay zeka sistemi geliştirmeye karar verebilir. Bu, el emeğini kendileri yapmak yerine işi yapmak için bir araç yapmayı seçen araç üreticisidir. Yapay zeka konusunda uzman bir ödül avcısı, zahmetli bir şekilde yapay zekanızı incelemek yerine, zamanını aynı şeyi yapan bir yapay zeka aracı oluşturmak için harcar. Daha sonra AI aracınızda AI aracını kullanırlar. Güzelliği de, AI aracını, kendi AI'larında da ödül avı fırsatı sunan başka herhangi biri üzerinde yeniden kullanabilmeleridir.

Muhtemelen ne düşündüğünü biliyorum. AI'yı önyargılar için incelemek için bir AI aracı tasarlanabilirse, AI önyargıları için incelenen AI'nın yapımcısı ya böyle bir AI aracı oluşturmalı ya da kendi kullanımları için bir tane satın almalıdır. Teorik olarak, başlangıçta tüm ödül avcısı karnavalıyla mücadele etmeleri gerekmez. AI önyargılarını bulmak için AI kullanın.

Evet, bu yavaş yavaş ortaya çıkmasını bekleyebileceğiniz bir şey. Bu arada, bu çabaların temel dayanağı büyük olasılıkla ödül avcılığı yapan AI geliştiricilerinden oluşacak. Çabalarına yardımcı olmak için çeşitli araçlar kullanabilirler, ancak yakın vadede, AI aracını akılsızca otomatik olarak ayarlamaları ve aracın AI önyargı avının tamamını onlar için yapması için biraz kestirmeleri olası değildir.

Henüz orada değiliz.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, AI önyargı ödül avcılığının kullanımı hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADA olarak adlandırılan otomatik eklentilerADA
S (Gelişmiş Sürücü Destek Sistemleri).

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Yapay Zeka Önyargısı Ödül Avı

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Sütunlarımda, otonom araçlar ve kendi kendini süren arabalar aleminde hata odaklı ödül avcılarının kullanımını uzun uzadıya tartıştım. Bu yaklaşım gerçekten de bu niş içinde yerini almıştır. Bunun sağlam bir fikir olup olmadığı konusunda olağan tartışmalar var. Çabalar genellikle sınırlı nitelikte olmuştur ve genellikle nispeten sessiz tutulmuştur.

Odak kendi başına sistem hatalarını aramak yerine AI önyargılarını aramaya doğru kaydığında da benzer bir söylem ortaya çıkabilir. Bazıları, yaparsan lanet olsun, bilmecen yoksa lanet olsun diyor.

İşte nedenidir.

İlk olarak, açık olmak gerekirse, otonom araçların ve kendi kendini süren arabaların AI önyargılarını içermeye tabi olacağı sayısız yol var, şuradaki kapsamıma bakın: buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim. Otomobil üreticileri ve kendi kendini süren otomobil firmaları, bu AI önyargılarının AI sistemlerinde görünmesini engellemeye çalışmak akıllıca görünüyor. Bu tür firmalara karşı yasal ve etik ateş fırtınası şüphesiz yoğun olacaktır.

Bir AI önyargılı ödül avcılığının kullanılması, bu özel bağlamda uygun bir yaklaşım mı?

Bir cevap, evet, bu kullanışlı olacak ve bir AI sürücüsüz araba veya benzerlerinin gömülü AI önyargılarını denemek ve yakalamak için bol miktarda "ücretsiz" yeni göz seti sağlayacaktır. Kendi kendini süren arabalar inşa eden AI geliştiricilerinin çoğu, bir arabayı A noktasından B noktasına güvenle sürebilen AI yapmakla meşgul. Bu temel yetenekle meşguller ve herhangi bir yerde olabilecek herhangi bir AI önyargısına ne zamanları ne de dikkatleri var. onların AI'sı.

Diğer cevap, hayır, ister hatalar ister AI önyargıları olsun, otonom araçlar ve kendi kendini süren arabalar için ödül avına izin vermekten şiddetle kaçınılması gerektiğidir. Argüman, bu araçların ve AI'larının bir ölüm kalım kalibresinde olduğudur. AI ile herhangi bir şekilde uğraşmak, bir şekilde AI için yıkıcı olabilir ve AI sürüş sisteminin ne yaptığını etkileyebilir.

Bu son noktaya karşı bir argüman, ödül avcılarının incelemekte oldukları AI'yı değiştiremeyecek olmaları gerektiğidir. Böylece, AI ile uğraşma ve bu bağlamda AI'nın aniden çılgın bir AI sürüş sistemi haline gelmesine neden olma tehlikesi yoktur. Ödül avcıları yalnızca salt okunur erişime sahip. Daha ileri gitmelerine izin vermek fazlasıyla aptalca ve büyük bir hata olur.

Bu karşı argümanın karşı argümanı, ödül avcılarının AI'nızı incelemesine izin vererek ve teşvik ederek, tüm meselenin riskli hale gelmesidir. Bu ödül avcıları, bulunan herhangi bir hata veya önyargıdan yararlanmanın yollarını bulabilir. Bu istismarlar sırayla dolambaçlı amaçlar için olabilir. Deyim yerindeyse evinize “hırsızları” davet etmemeniz daha iyi olur. Eklemi bir kez kasaya koyduklarında, sonunda başınız belaya girecek.

Ölüm kalım büyüklüğünden daha az AI sistemlerine sahip olanlar için, ters giden bir ödül avcılığının yankılarının çok daha az riskli olduğuna inanılıyor. Belki bu yüzden. Öte yandan, eğer bir firma paralarını ödül avcılarının gasp etmeyi başardığı bir yapay zeka sistemine akıttıysa, itibar zararlarının ve diğer potansiyel zararların yine de zarar göreceğini varsayabilirsiniz.

AI önyargı ödül avcılığı söz konusu olduğunda ücretsiz öğle yemeği yoktur.

Şimdilik hızlı bir kapanış konuşması.

Kötü şöhretli kanun kaçağı Jesse James, Eski Batı'da arandığında, yakalanması için 5,000 dolar ödül veren ("ölü ya da diri" yazan) bir "Aranıyor" posteri basıldı. O zamanlar oldukça büyük bir paraydı. Kendi çete üyelerinden biri Jesse'yi vurup ödülü almayı seçti. Sanırım bu, bir ödülün ne kadar etkili olabileceğini gösteriyor.

AI önyargılı ödül avcılarının kullanılması iyi bir şey mi yoksa kötü bir şey mi olacak?

Bir AI önyargılı ödül avcısı girişimi başlatmayı seçerseniz, gözlerinizi sonuna kadar açık tutmanızı ve her zaman omzunuzun üzerinden bakmanızı öneririm. Bu sizin ve AI'nız için ihtiyatlı. İşbirlikçi bir ödül avcısının bir şekilde AI'nıza gizlice bir AI önyargısı eklemesi ve dünyaya AI'nızda vicdansız bir AI önyargısı bulduklarını bağırması da dahil olmak üzere ne olabileceğini asla bilemezsiniz. Belki de bunu, ödül ödülünü aramak için küstah ve ölçüsüz bir girişimle yapıyor, ayrıca kendilerini aslında övülen Jesse James'i alan bir kahraman ilan ediyorlardı.

Bir düşününce, duyarlı bir yapay zeka muhtemelen bu rahatsız edici ölü ya da diri hüküm fikrinden hoşlanmayacaktır, birileri bu kadar tembelce spekülasyon yapabilir.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etik-kötü-tamamen-özerk-sistemler-ihtiyatlı-ya da-boşuna/