Yapay Zeka Etiği Otonom Yapay Zeka Sistemlerinde Önyargılı Algoritmaları Çağırmak İçin Sözde Kırmızı Bayrak Yapay Zeka Yasaları Oluşturma Konusunda Şüpheli

Kırmızı Bayrak Yasaları hakkında konuşalım.

Kızıl Bayrak Yasaları kavramının son zamanlarda haberlerde çokça yer aldığını şüphesiz biliyorsunuzdur. Konuyu kapsayan başlıklar oldukça fazladır. Bu tür konulardaki tutkular ve ateşli tartışmalar, günümüzün ve hızla ortaya çıkan Kızıl Bayrak Silah Yasalarını gerektiren ve toplumsal bir endişe olarak akıllarda ilk sırada yer almaktadır.

Yine de, 1800'lerin sonlarında motorlu taşıtlar ve günümüzün günlük modern otomobillerinin öncüleri ile ilgili olarak çıkarılan diğer Kırmızı Bayrak Kanunlarına aşina olmayabileceğinizi söylemeye cüret edebilirim. Evet, bu doğru, Kızıl Bayrak Kanunları, günümüzün çağdaş odağına kıyasla diğer konuları kapsamasına rağmen, tarihe geri döner. Bunlara genellikle Kırmızı Bayrak Trafik Yasaları denir.

Artık asırlık ve tamamen geçersiz olan bu yasalar, buharla çalışan herhangi bir motorlu arabanın veya motorun o zamanlar araçtan önce bir yetişkinin olmasını ve uyarı amacıyla kırmızı bayrak taşımasını gerektiriyordu. Buradaki fikir, çiftlik hayvanlarının topraktan veya marjinal asfalt yollardan yavaşça ve düzensiz bir şekilde inen bu gürültülü ve huysuz mekanizmalar tarafından alarma geçirilebileceğiydi, bu nedenle birisinin güçlü bir şekilde kırmızı bayrak sallayarak düzeneğin önünde yürümesi, umarız felaketlerin ortaya çıkmasını önleyebilirdi. Merak ettiyseniz, demiryolları ve trenler, raylara ayrılmaz bir şekilde bağlı araçlar oldukları ve eylemlerini kapsayan başka kanunları olduğu için aynı kanunların dışında kabul edildi.

Halka açık yollarımızdaki her araba için bugün kırmızı bayrak sallamak zorunda olduğunuzu hayal edin.

Örneğin, mahallenizin sokağından gelen sıradan bir sürücü, kırmızı bayrak sallayan bir yetişkinin hareket halindeki arabanın önünde bulunduğundan ve geçit töreni yaptığından emin olmalıdır. Bu, sokağınızdan geçen her araç için gerçekleşmelidir. Belki insanlar, aksi takdirde önlerine gidebilecek ve öngörülen el sallama eylemini yapabilecek bir arkadaşı veya akrabası olmayan yoldan geçen araba sürücülerine kiralanan kırmızı bayraklı işadamları olacaklardı.

Günümüzde karayoluyla ilgili kırmızı bayrak sallamayı karayolu inşaat sahalarıyla ilişkilendirme eğilimindeyiz. Kazılmış bir yola yaklaştığınızda, işçiler dikkatinizi çekmek için bir kırmızı bayrak tutuyor olacak. Bu size yavaşlamanızı ve tetikte olmanızı söyler. Yolunuza çıkacak bir buldozer olabilir. İleride dev bir delik olabilir ve çevresinden dikkatli bir şekilde geçmeniz gerekir.

Ama 1800'lerin kırmızı bayrak kullanımına geri dönelim.

İster inanın ister inanmayın, kırmızı bayrak sallayanın, yaklaşmakta olan motorlu makineden önce en az sekizde bir mil ilerlemesi gerekiyordu. Bu oldukça uzun bir mesafe gibi görünüyor. Ancak, bunun o günlerde çok anlamlı olduğu varsayılır. Motorun ürkütücü sesleri ve belki de sadece aracın görüntüsü bile hayvanların sinirlerini bozmak için yeterli olabilir. O dönemin Kızıl Bayrak Yasalarından bazıları, gece boyunca parlak kırmızı bir ışığın havada tutulmasını gerektiriyordu, böylece görsel olarak belirgin bir kırmızı ihtiyati uyarı karanlık bir mesafeden görülebiliyordu.

Genel olarak, bir toplum olarak kırmızı bayrağı, bir şeylerin potansiyel olarak yanlış olduğuna veya en azından dindar dikkatimize ihtiyaç duyduğuna dair bir tür işaret veya işaret olarak ilişkilendirme eğiliminde olduğumuzu iddia etmenin adil olduğunu düşünüyorum.

Bu kırmızı bayrak fenomeninde biraz değişiklik yapmaya hazır olun.

Yapay Zeka (AI) söz konusu olduğunda kırmızı bayrak hükümlerine ihtiyaç duymamız gerektiğine dair bir tartışma var.

Bu biraz şaşırtıcı ve birçok kafayı kaşıyan şaşırtıcı bir kavram. Nasıl veya neden sözde olması gerektiği konusunda kafanız karışmış olabilir. Kırmızı Bayrak AI Yasaları. Konuyu Kızıl Bayrak Trafik Kanunlarından (1800'lerin sonlarındakiler gibi) ayırmak ve ayrıca günümüzün daha yaygın olan diğer Kızıl Bayrak Silah Kanunlarından ayırmak için bunu Kızıl Bayrak AI Kanunları olarak etiketlediğimi lütfen unutmayın.

Açıkça ve yalnızca yapay zeka konularına yönelik Kırmızı Bayraklı Yapay Zeka Yasalarına gerçekten ihtiyacımız var mı?

Önerilen yaklaşımı destekleyenler, aşırı önyargılar içeren ve ayrımcı şekillerde hareket eden AI'yı kısıtlamaya yardımcı olacak yasal hükümlere kesinlikle ihtiyacımız olduğunda ısrar edeceklerdir. Şu anda, AI'nın oluşturulması ve konuşlandırılması, Vahşi Batı'daki her şey yolunda durumuna benzer. Kötü AI'yı dizginleme çabaları şu anda AI Etik yönergelerinin formülasyonuna ve benimsenmesine bağlıdır. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Kötü yapay zekaya konu olan yasalar yavaş yavaş tasarlanıyor ve yürürlüğe giriyor, şuradaki kapsamıma bakın: buradaki bağlantı. Bazıları milletvekillerinin yeterince hızlı gitmediğinden endişe ediyor. Önyargılı yapay zekanın dünyada teşvik edilmesine izin vermenin taşkın kapıları şu anda büyük ölçüde açık gibi görünüyor. El sıkışma, yeni yasalar kitaplara girdiğinde, kötü cin şişeden çoktan çıkmış olacağını söylüyor.

O kadar hızlı değil, karşı argümanlar gidiyor. Endişeler, eğer yasalar çok hızlı bir şekilde yürürlüğe konulursa, altın kazları olduğu gibi öldüreceğimiz, bu sayede AI çabalarının kuruyacağı ve yeni AI sistemlerinin toplumsal olarak artan faydalarını alamayacağız. AI'yı yöneten bir dizi yeni yasa aniden federal, eyalet ve yerel düzeylerde yürürlüğe konulursa, AI'yı kullanmak isteyen AI geliştiricileri ve firmaları ürkebilir.

Bu dağınık olaya, Red Flag AI Yasaları çağrısı geliyor.

Öngörülen Kızıl Bayrak AI Yasasının altında yatan vahşi ve yünlü düşünceler hakkında biraz daha et ve patatese girmeden önce, son derece önemli konularda bazı ek temeller oluşturalım. Yapay Zeka Etiğine ve özellikle Makine Öğrenimi (ML) ve Derin Öğrenmenin (DL) ortaya çıkışına kısaca bir dalış yapmamız gerekiyor.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfedeceğiz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Kırmızı Bayrak AI Yasalarına odaklanmamıza dönelim.

Temel konsept, insanların bir yapay zeka sisteminin gereksiz yere önyargılı veya ayrımcı bir şekilde çalıştığına inandıklarında bir kırmızı bayrak kaldırabilecekleridir. Kendi başına fiziksel bir bayrak açmazsınız ve bunun yerine endişelerinizi bildirmek için bazı elektronik araçlar kullanırsınız. Planın veya yaklaşımın kırmızı bayrak kısmı, fiziksel bir düzenlemeden çok bir metafordur.

Ev kredisi için başvurduğunuzu farz edin. Kredi başvurusunda bulunmak için bir çevrimiçi bankacılık hizmeti kullanmayı tercih ediyorsunuz. Bazı kişisel verileri girdikten sonra, krediye layık olup olmadığınıza karar vermek için kullanılan AI sistemini bir an için beklersiniz. AI size kredi için reddedildiğinizi söylüyor. Neden reddedildiğinize dair bir açıklama talep ettiğinizde, metinsel anlatım size yapay zekanın karar verme algoritmasının bir parçası olarak aşırı önyargılı faktörleri kullandığını öneriyor gibi görünüyor.

AI hakkında bir Kırmızı Bayrak kaldırma zamanı.

Bu kırmızı bayrak tam olarak nerede dalgalanacak?

Bu milyon dolarlık bir soru.

Bir bakış açısı, insanların AI ile ilgili kırmızı bayraklarını işaretlemelerine izin verecek ülke çapında bir veritabanı kurmamız gerektiğidir. Bazıları bunun federal hükümet tarafından düzenlenmesi gerektiğini söylüyor. Federal kurumlar, kırmızı bayrakları incelemekten ve doğruluk konusunda genel halkın yardımına gitmekten ve kırmızı bayrak raporlama çetelelerini ateşleyen muhtemelen “kötü AI” ile uğraşmaktan sorumlu olacaktır.

Ulusal bir Kızıl Bayrak AI Yasası görünüşte Kongre tarafından oluşturulacaktı. Yasa, AI ile ilgili bir kırmızı bayrağın ne olduğunu açıklayacaktır. Kanun, bu AI growing kırmızı bayraklarının nasıl ortaya çıktığını açıklayacaktır. Ve benzeri. Ayrıca, bireysel devletlerin kendi Kızıl Bayrak AI Yasalarını oluşturmayı da tercih etmeleri söz konusu olabilir. Belki de bunu ulusal bir inisiyatif yerine yapıyorlar ya da özellikle kendi durumlarına çekici gelen ayrıntıları öne çıkarmak için yapıyorlar.

Federal veya hükümet destekli herhangi bir Red Flag AI programını eleştirenler, bunun özel sektörün yapabileceği bir şey olduğunu ve Büyük Birader'in öne çıkmasına ihtiyacımız olmadığını iddia edeceklerdir. Endüstri, insanların AI sistemleri hakkında kırmızı bayrakları kaydedebilecekleri çevrimiçi bir havuz oluşturabilir. Endüstrinin kendi kendini denetleme eylemi, bu sorunlarla yeterince ilgilenecektir.

Sözde endüstri yaklaşımıyla ilgili bir endişe, adam kayırma kokusu gibi görünmesidir. Firmalar özel olarak işletilen bazı Red Flag AI veri tabanlarına uymaya istekli olur mu? Birçok firma, yapay zekalarıyla ilgili işaretlenmiş kırmızı bayrakları potansiyel olarak görmezden gelir. Şirketlerin girilen kırmızı bayraklarla ilgilenmesini sağlamak için keskin dişler olmazdı.

Hey, özel sektör yaklaşımının savunucuları ses çıkarmıyor, bu ulusal Yelp benzeri hizmete benzer. Tüketiciler, kırmızı bayraklara bakabilir ve bir dizi AI odaklı kırmızı bayrak toplayan şirketlerle iş yapmak isteyip istemediğine kendileri karar verebilirler. AI'ları hakkında tonlarca kırmızı bayrak alan bir bankanın dikkat etmesi ve AI sistemlerini yenilemesi gerekecekti, bu yüzden mantık devam ediyor, aksi takdirde tüketiciler firmadan veba gibi kaçınacaktı.

Tüm bu yaklaşımın hükümet tarafından mı yoksa endüstri tarafından mı üstlenildiği, önerilen Red Flag AI Yasaları önermesinin karşı karşıya olduğu zorlu sorulardaki buzdağının sadece görünen kısmıdır.

Kendinizi yapay zeka geliştiren veya kullanan bir firmanın yerine koyun. Tüketiciler, bunu yapmak için geçerli bir temel olmamasına rağmen kırmızı bayraklar kaldırabilirdi. İnsanlar yapay zeka hakkında özgürce kırmızı bayrak yayınlayabilirlerse, bunu bir hevesle veya belki de tüketiciye karşı yanlış bir şey yapmayan bir firmadan intikam almak için cazip gelebilirler.

Kısacası, AI hakkında birçok yanlış pozitif Kırmızı Bayrak olabilir.

Bir diğer husus, ortaya çıkan kırmızı bayrakların devasa boyutu veya büyüklüğüdür. Milyonlarca kırmızı bayrak kolayca yükseltilebilir. Bütün bu kırmızı bayrakları kim takip edecek? Bunu yapmanın maliyeti ne olurdu? Kırmızı bayrak takip çabalarını kim ödeyecek? Vb.

AI hakkında bir kırmızı bayrak kaydeden veya bildiren birinin bir ücret ödemesi gerektiğini söyleyecekseniz, karanlık ve sinsi bir aleme girdiniz. Endişe, yalnızca zenginlerin kırmızı bayrakları yükseltmeye gücü yetecek olmasıdır. Bu da, yoksulların kırmızı bayrak faaliyetlerine eşit olarak katılamayacaklarını ve esasen olumsuz AI hakkında uyarı için hiçbir yere sahip olamayacaklarını ima ediyor.

Şimdilik sadece bir ek bükülme daha, yani AI ile ilgili bu tür kırmızı bayrak yasaları veya yönergeleri, önceden bir uyarı işlevi görmekten ziyade gerçeğin ardından görünüyor.

Kızıl Bayrak Trafik Kanunlarına dönersek, kırmızı bayrak kullanmanın vurgusu, başlangıçta bir felaketi önlemekti. Kırmızı bayrak sallayanın yaklaşmakta olan arabanın çok önünde olması gerekiyordu. Aracın önünde olmak, hayvanlar uyarılacak ve hayvanları koruyanlar, yakında gelecek olan rahatsız edici kaynak nedeniyle önlem almaları gerektiğini bileceklerdi.

İnsanlar, yalnızca görünüşte zaten zarar görmüş veya haklarına zarar vermiş olan AI hakkında kırmızı bir bayrak kaldırabiliyorsa, meşhur at zaten ahırdan çıkmıştır. Bunun başardığı tek şey, umarız ki diğer insanlar artık bu yapay zeka sistemine karşı dikkatli olmaları gerektiğini bilirler. Bu arada, haksızlığa uğradığı iddia edilen kişi zaten acı çekti.

Bazıları, belki de insanların AI hakkında kırmızı bayraklar yükseltmelerine izin verebileceğimizi öne sürüyor. şüpheli AI'yı kullanmamış olsalar ve AI'dan doğrudan etkilenmemiş olsalar bile önyargılı olabilirler. Böylece hasar meydana gelmeden kırmızı bayrak dalgalanır.

Yikes, imbik gidiyor, gerçekten AI ile başa çıkma kırmızı bayraklarını tamamen yönetilemez ve kaotik bir mesele haline getireceksiniz. Herhangi bir nedenle herhangi biri bir AI sistemi hakkında kırmızı bayrak kaldırırsa, o AI ile hiçbir şey yapmamış olmanıza rağmen, kırmızı bayraklarla dolup taşarsınız. Daha da kötüsü, samanla samanı ayırt edemeyeceksiniz. Tüm kırmızı bayrak yaklaşımı, kendi ağırlığı altında çökecek ve flotsam ve riffraff'ın tüm gemiyi batırmasına izin vererek fikrin iyiliğini ortadan kaldıracak.

Baş döndürücü ve kafa karıştırıcı.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, Red Flag AI Yasaları hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Kırmızı Bayrak AI Yasaları

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Red Flag AI Yasasından yararlanabilecek bir senaryo çizelim.

Yapay zeka tabanlı kendi kendini süren bir arabaya biniyorsunuz ve otonom aracın sizi yerel bakkalınıza götürmesini istiyorsunuz. Nispeten kısa yolculuk sırasında, AI size biraz yanlış gibi görünen bir rota izler. Yapay zeka, en doğrudan yoldan gitmek yerine tenha sokaklara gider ve bu da sürüş süresinin normalde olabileceğinden daha uzun olmasına neden olur.

Neler oluyor?

Kendi kendini süren arabanın kullanımı için ödeme yaptığınızı varsayarsak, yapay zekanın seyahatin ücretini veya maliyetini yükseltmek için daha uzun bir rota sürmeye programlandığından şüphelenebilirsiniz. Geleneksel bir insan tahrikli taksiye binmiş olan herkes, sayaçta daha fazla hamur elde etmek için yapılabilecek hileyi bilir. Elbette, taksi veya benzeri bir araçta sürerken akıllı telefonlarında GPS bulunan kişilerle, gizlice gereksiz yere uzun yollar kat eden bir insan sürücüyü kolayca yakalayabilirsiniz.

Güzergah seçimiyle ilgili başka bir endişeniz olduğu ortaya çıktı, bu sizi gerçekten kemiren bir şey.

Yönlendirmenin, ırksal yönlerden dolayı şehrin belirli bölgelerinden kaçınmak için yapıldığını varsayalım. Bu tür seçimler yaparken yakalanan belgelenmiş insan sürücüleri vakaları var, şuradaki tartışmama bakın: buradaki bağlantı. Belki de yapay zeka ters olarak programlanmıştır.

Kırmızı bayrak kaldırmaya karar verdiniz.

Tartışma uğruna, yargı alanınızı kapsayan bir Kırmızı Bayrak AI Yasasının çıkarıldığını varsayalım. Yerel hukuk, eyalet hukuku, federal veya uluslararası hukuk olabilir. Topluluklar sürücüsüz araba kullanımını benimserken yerel liderliğin artan önemi üzerine Harvard'ın Otonom Araç Politikası Girişimi (AVPI) ile birlikte yazdığım bir analiz için bkz. buradaki bağlantı.

Böylece, bir Red Flag AI veritabanına çevrimiçi olursunuz. Olay veritabanına, sürücüsüz araba yolculuğuyla ilgili bilgileri girersiniz. Bu, kendi kendini süren otomobilin marka ve modeliyle birlikte sürüş yolunun tarihini ve saatini içerir. Ardından, şüpheli görünen seyir rotasına girersiniz ve AI'nın önyargılı veya ayrımcı niyet ve kapasitelerle tasarlandığını öne sürer veya belki de düpedüz iddia edersiniz.

Bu özel senaryoda daha sonra ne olacağına dair Kızıl Bayrak AI Yasasının diğer ayrıntıları üzerinde spekülasyon yapmamız gerekecek. Teoride, birinin kırmızı bayrağı gözden geçirmesi için bir hüküm olacaktır. Muhtemelen otomobil üreticisinin veya kendi kendini süren teknoloji firmasının, kaydedilen kırmızı bayrak hakkındaki bakış açılarını açıklamasını sağlamaya çalışacaklardı. Bu tür başka kaç kırmızı bayrak kaydedildi? Bu kırmızı bayraklar ne gibi sonuçlar doğurdu?

Ve böylece devam edecekti.

Sonuç

Mantıksız, bazı şüpheciler teşvik ediyor.

Kızıl Bayrak AI Yasalarına ihtiyacımız yok, onlar sert bir şekilde uyguluyorlar. AI'nın hızı ve ilerlemesi söz konusu olduğunda, bu tür bir şey yapmak işleri zorlaştıracaktır. Bu tür herhangi bir yasa hantal olurdu. Bir sorunu çözmeyen bir sorun yaratmış olursunuz. AI ile başa çıkmanın kötü olan başka yolları da var. Önyargılı AI ile başa çıkmak için pipetleri körü körüne tutmayın.

Vites değiştirirken, boğa güreşçilerinin kızgın boğanın dikkatini çekmek için kırmızı pelerin kullandığını hepimiz biliyoruz. Bu uygulamayla en çok ilişkilendirdiğimiz renk kırmızı olsa da, bilim adamlarının boğaların muleta'nın kırmızı rengini algılamadığını (kırmızıya karşı renk körüdür) söylediğini bilmek sizi şaşırtabilir. popüler gösteri MythBusters bu konuda oldukça eğlenceli bir inceleme yaptı. Seçilen renkten ziyade pelerinin hareketi kilit unsurdur.

Kızıl Bayrak AI Yasalarına olan ihtiyacı bir kenara atanlar için, bir karşı iddia, AI geliştiricilerinin ve AI dağıtan firmaların önyargılı veya kötü AI'dan uzak durmasını sağlamak için dramatik ve açık bir dalgalı yapıya ihtiyacımız olduğudur. Bir kırmızı bayrak için değilse, belki çırpınan bir pelerin veya temelde herhangi bir uyarı yaklaşımı, gerekli değerlendirmenin alanı içinde olabilir.

Kötü AI'nın var olduğundan ve çok daha fazla kötü AI'nın bize doğru gideceğinden eminiz. Kendimizi olumsuz AI'dan korumanın yollarını bulmak çok önemlidir. Aynı şekilde, kötü AI'nın dünyaya girmesini engellemek için korkuluklar ayarlamak da aynı derecede önemlidir.

Ernest Hemingway, boğa güreşçileri dışında kimsenin hayatını sonuna kadar yaşamadığını ünlü bir şekilde belirtti. AI kötülüğü veya çılgınlığı bize ne olursa olsun, insanların hayatlarını sonuna kadar yaşayabildiğinden emin olmalıyız.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-founding-so- çağrılan-red-flag-ai-laws-for-calling-out- otonom yapay zeka sistemlerinde önyargılı algoritmalar/