Yapay Zekayı Zehirli veya Önyargılı Olarak Eğitmenin Yararlı Olabileceğine İlişkin Şok Edici Açıklama Yapay Zeka Etiği, Otonom Kendi Kendini Süren Arabalar Dahil

İşte daha önce duyduğuna emin olduğum eski bir replik.

Birini bilmek için biri yeterli.

Bunun 1900'lerin başlarına kadar izlenebilecek bir ifade olduğunu ve genellikle yanlış yapanlara atıfta bulunulurken çağrıldığını fark etmeyebilirsiniz (yaygın ifadenin diğer varyasyonları 1600'ler gibi daha geriye gider). Bu ifadenin nasıl kullanılabileceğine dair bir örnek, bir hırsızı yakalamak istiyorsanız, bunu yapmak için bir hırsız kullanmanız gerektiği fikrini içerir. Bu, bir kişiyi tanımanın gerekli olduğu iddiasını gösterir. Birçok film ve TV şovu, bir sahtekarı yakalamanın tek geçerli yolunun, aynı derecede yozlaşmış bir sahtekarı, yanlış yapanın peşine düşmek için işe almak olduğunu göstererek, bu kullanışlı bilge bilgelikten yararlandı.

Bazıları vites değiştirirken, birisinin aşırı önyargılar ve ayrımcı inançlar besleyip sergilemediğini ayırt etmenin uygun bir yolunun zaten bu tür eğilimlere sahip birini bulmak olduğunu iddia etmek için aynı mantığı kullanabilir. Muhtemelen, zaten önyargılarla dolu olan bir kişi, bu diğer insanın da aynı şekilde ağzına kadar toksisite ile dolu olduğunu daha kolay hissedebilecektir. Yine, birinin alenen mantra olduğunu bilmesi gerekir.

Önyargılı bir kişiyi başka bir önyargılı kişiyi ortaya çıkarmak için kullanma olasılığına ilk tepkiniz şüphecilik ve inançsızlık olabilir. Birinin istenmeyen önyargılara sahip olup olmadığını sadece onları inceleyerek ve benzer nitelikte başka birini bulmaya başvurmak zorunda kalmadan anlayamaz mıyız? Toksik olarak önyargılı olan diğerlerini ortaya çıkarmak için kasıtlı olarak önyargılı birini keşfetmeye çalışmak tuhaf görünebilir.

Sanırım bu kısmen, birinin bilmesini gerektiren varsayımsal kaçınmayı kabul etmeye istekli olup olmadığına bağlı. Bunun, bir hırsızı yakalamanın tek yolunun, yalnızca ve her zaman bir hırsızdan yararlanmanızı gerektirdiğini göstermediğini unutmayın. Makul bir şekilde, bunun yalnızca gerekli değerlendirmeye tabi tutulabilecek ek bir yol olduğunu iddia ediyor gibi görünebilirsin. Belki bazen bir hırsızı bir hırsızı yakalamak için kullanma olasılığını eğlendirmeye istekli olursunuz, diğer koşullar bunu anlaşılmaz bir taktik haline getirebilir.

Dedikleri gibi, doğru ayar için doğru aracı kullanın.

Şimdi bu temelleri ortaya koyduğuma göre, bu hikayenin belki de sinir bozucu ve görünüşte şok edici kısmına geçebiliriz.

Hazır mısınız?

AI alanı, özellikle önyargılı veya ayrımcı bir şekilde hareket eden AI'yı ortaya çıkarmaya çalışmak durumunda, bazen birinin bilmesi gereken aynı kuralı aktif olarak takip ediyor. Evet, akıl almaz fikir, aynı toksisite görünümüne sahip diğer AI'ları keşfetmek ve ortaya çıkarmak için bir araç olarak kullanmak için tamamen ve arsızca önyargılı ve ayrımcı bir AI tasarlamak isteyebileceğimizdir. Birazdan göreceğiniz gibi, konunun altında yatan çeşitli can sıkıcı AI Etiği sorunları var. AI Etiği ve Etik AI ile ilgili genel olarak devam eden ve kapsamlı kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Sanırım, diğer zehirli AI'nın peşinden gitmek için bu zehirli AI kullanımını, meşhur ateşle ateşle mücadele anlayışı olarak ifade edebilirsiniz (bu durumu tasvir etmek için çok sayıda örtmece ve açıklayıcı metafor kullanabiliriz). Veya, daha önce vurgulandığı gibi, bir kişiyi tanımanın gerekli olduğu iddiasına cimri bir şekilde atıfta bulunabiliriz.

Kapsayıcı konsept, belirli bir AI sisteminin geleneksel yöntemlerle aşırı önyargılar içerip içermediğini anlamaya çalışmak yerine, belki de daha az geleneksel yöntemler kullanmaya çalışmamız gerektiğidir. Bu tür alışılmadık yöntemlerden biri, en kötü önyargıları ve toplumsal olarak kabul edilemez toksisiteleri içeren bir yapay zeka tasarlamak ve daha sonra bu yapay zekayı, aynı kötülük eğilimlerine sahip diğer yapay zekayı yönlendirmeye yardımcı olmak için kullanmak olacaktır.

Bunu çabucak düşündüğünüzde, kesinlikle son derece mantıklı görünüyor. Maksimum düzeyde toksik olan AI oluşturmayı hedefleyebiliriz. Bu toksik AI daha sonra toksisiteye sahip diğer AI'ları ortaya çıkarmak için kullanılır. Daha sonra ortaya çıkan “kötü” AI için, toksisiteyi geri alarak, AI'yı tamamen terk ederek onunla başa çıkabiliriz (bkz. Burada bu linki) veya AI'yı hapsetmek (bkz. AI hapsi kapsamım Burada bu linki) veya yapılması uygun görünen başka ne varsa onu yapın.

Bir karşı argüman, toksik ve önyargılarla dolu yapay zekayı kasıtlı ve isteyerek tasarladığımızı kafamızı incelememiz gerektiğidir. Bu, hiç düşünmemiz gereken en son şey, bazıları teşvik edecek. Tamamen iyilikten oluşan yapay zeka yapmaya odaklanın. Kötülüklere ve gereksiz önyargılara sahip yapay zeka geliştirmeye odaklanmayın. Böyle bir arayış kavramının kendisi bazılarına itici görünüyor.

Bu tartışmalı görevle ilgili daha fazla endişe var.

Belki de zehirli yapay zeka tasarlama görevi, toplumu alt edebilecek yapay zeka yapmak isteyenleri cesaretlendirmekten başka bir işe yaramaz. Sanki uygunsuz ve tatsız önyargılara sahip yapay zeka üretmenin gayet iyi olduğunu söylüyoruz. Endişe yok, tereddüt yok. Kalbinizin içeriğine göre toksik AI tasarlamaya çalışın, tüm dünyadaki AI inşaatçılarına yüksek sesle iletiyoruz. Hepsi iyilik adınadır.

Ayrıca, bu toksik AI türünün yakalandığını varsayalım. AI, diğer birçok AI oluşturucu tarafından kullanılıyor ve yeniden kullanılıyor olabilir. Sonunda, toksik AI, her türlü AI sistemi içinde gizlenir. Muhtemelen mühürlü bir laboratuvardan kaçan, insanı baltalayan bir virüs tasarlamak için bir benzetme yapılabilir. Bildiğiniz bir sonraki şey, lanet olası şey her yerde ve biz kendimizi yok ettik.

Bir saniye, bu karşı savlara karşı çıkanlar gider, türlü türlü çılgın ve desteksiz varsayımlarla kafayı sıyırmış olursunuz. Derin bir nefes al. Sakin ol.

Zehirli yapay zekayı güvenli bir şekilde yapabilir ve onu sınırlı tutabiliriz. Toksik yapay zekayı, maalesef aşırı önyargılara sahip olan artan yapay zeka yaygınlığını bulmak ve azaltmaya yardımcı olmak için kullanabiliriz. Bu akıl almaz derecede vahşi ve asılsız kartopu ünlemlerinden herhangi biri tamamen anlık tepkilerdir ve ne yazık ki aptalca ve tamamen gözüpektir. Bebeği banyo suyuyla atmaya çalışmayın, önceden uyarılırsınız.

Bunu bu şekilde düşünün, savunucuları iddia ediyor. Araştırma, değerlendirme ve diğer toplumsal olarak saldırgan AI'ları ortaya çıkarmak için bir dedektif gibi hareket etmek amacıyla toksik AI'nın uygun şekilde inşa edilmesi ve kullanılması, değerli bir yaklaşımdır ve peşinden gidildiğinde adil bir şekilde sarsılmalıdır. Döküntü tepkilerinizi bir kenara bırakın. Yeryüzüne inin ve buna ayık bir şekilde bakın. Gözümüz ödülde, yani önyargıya dayalı yapay zeka sistemlerinin fazlalığını açığa çıkarmak ve ortadan kaldırmak ve bir toplum olarak zehirli yapay zeka ile istila edilmememizi sağlamak.

Dönem. Tam dur.

Yararlı amaçlar için toksik veya önyargılı yapay zekayı kullanma fikrini derinlemesine incelemenin çeşitli kilit taşı yolları vardır:

  • Yapay zekayı ne yapılmaması ve/veya nelere dikkat edilmesi gerektiği konusunda eğitmek için kullanılabilecek kasıtlı olarak önyargılı ve tamamen toksik veriler içeren kurulum veri kümeleri
  • Önyargıları tespit etme ve toplumsal toksisiteyi gerektiren hesaplama kalıplarını bulma konusunda Makine Öğrenimi (ML) ve Derin Öğrenme (DL) modellerini eğitmek için bu tür veri kümelerini kullanın.
  • Hedeflenen AI'nın potansiyel olarak önyargılı ve toksik olup olmadığını belirlemek için toksisite eğitimli ML/DL'yi diğer AI'ya uygulayın
  • Algoritmik olarak yerleştirilmiş önyargıların nasıl ortaya çıktığını görmek için modelleri kolayca inceleyebilmeleri için yapay zeka geliştiricilerine nelere dikkat etmeleri gerektiğini göstermek için toksisite eğitimli ML/DL'yi kullanılabilir hale getirin
  • Zehirli AI'nın tehlikelerini AI Etik ve Etik AI farkındalığının bir parçası olarak bu sorunlu çocuk kemiğe kötü AI serisi örneklerle anlatın
  • Diğer

Bu birkaç yolun özüne girmeden önce, bazı ek temel ayrıntılar oluşturalım.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfederek sahneyi kurabiliriz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Bütün bunlar için başka ne yapılabilir?

Biraz alışılmışın dışında bir "birini tanımak için bir tane gerekir" yaklaşımını kullanarak AI önyargıları veya toksik AI ile nasıl başa çıkılacağına dair daha önce belirtilen listeye dönelim. Listenin şu temel noktalardan oluştuğunu hatırlayın:

  • Yapay zekayı ne yapılmaması ve/veya nelere dikkat edilmesi gerektiği konusunda eğitmek için kullanılabilecek kasıtlı olarak önyargılı ve tamamen toksik veriler içeren kurulum veri kümeleri
  • Önyargıları tespit etme ve toplumsal toksisiteyi gerektiren hesaplama kalıplarını bulma konusunda Makine Öğrenimi (ML) ve Derin Öğrenme (DL) modellerini eğitmek için bu tür veri kümelerini kullanın.
  • Hedeflenen AI'nın potansiyel olarak önyargılı ve toksik olup olmadığını belirlemek için toksisite eğitimli ML/DL'yi diğer AI'ya uygulayın
  • Algoritmik olarak yerleştirilmiş önyargıların nasıl ortaya çıktığını görmek için modelleri kolayca inceleyebilmeleri için yapay zeka geliştiricilerine nelere dikkat etmeleri gerektiğini göstermek için toksisite eğitimli ML/DL'yi kullanılabilir hale getirin
  • Zehirli AI'nın tehlikelerini AI Etik ve Etik AI farkındalığının bir parçası olarak bu problemli çocuk AI örnekleri serisi aracılığıyla anlatın.
  • Diğer

Bu göze çarpan noktalardan ilkine yakından bakacağız.

Toksik Verilerin Veri Kümelerini Ayarlama

Tatsız toplumsal önyargılar içeren veri kümeleri oluşturmaya çalışmanın anlaşılır bir örneği, WILDS küratörlüğünde koleksiyonun CivilComments veri kümesidir.

İlk olarak, biraz hızlı arka plan.

WILDS, ML/DL eğitimi için kullanılabilecek açık kaynaklı bir veri kümesi koleksiyonudur. WILDS için belirtilen birincil amaç, AI geliştiricilerinin temsil eden verilere hazır erişime sahip olmalarına izin vermesidir. dağıtım kaymaları çeşitli özel alanlarda. Halihazırda mevcut olan alanlardan bazıları, hayvan türleri, canlı dokulardaki tümörler, buğday kafası yoğunluğu gibi alanları ve birazdan açıklayacağım CivilComments gibi diğer alanları kapsar.

Dağıtım değişimleriyle uğraşmak, AI ML/DL sistemlerini düzgün bir şekilde tasarlamanın çok önemli bir parçasıdır. İşte anlaşma. Bazen eğitim için kullandığınız veriler, test edilen veya "doğal" verilerden oldukça farklı olur ve bu nedenle, muhtemelen eğitilmiş ML/DL'niz gerçek dünyanın nasıl olacağının başıboş kalır. Zeki AI geliştiricileri, bu tür dağıtım değişimleriyle başa çıkmak için ML/DL'lerini eğitmelidir. Bu önceden yapılmalı ve daha sonra ML/DL'nin kendi başına yenilenmesini gerektiren bir sürpriz olmamalıdır.

WILDS'ı tanıtan makalede açıklandığı gibi: "Dağıtım kaymaları - eğitim dağılımının test dağıtımından farklı olduğu yerlerde - vahşi ortamda dağıtılan makine öğrenimi (ML) sistemlerinin doğruluğunu önemli ölçüde azaltabilir. Gerçek dünyadaki dağıtımlarda her yerde bulunmalarına rağmen, bu dağıtım değişiklikleri bugün makine öğrenimi topluluğunda yaygın olarak kullanılan veri kümelerinde yeterince temsil edilmemektedir. Bu açığı gidermek için, gerçek dünya uygulamalarında doğal olarak ortaya çıkan çeşitli dağılım değişimlerini yansıtan, tümör tanımlama için hastaneler arası geçişler; vahşi yaşamı izlemek için kamera tuzakları; ve uydu görüntüleme ve yoksulluk haritalamada zaman ve konum boyunca” (“WILDS: A Benchmark of in-the-Wild Distribution Shifts” başlıklı makalede Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu ve diğerleri).

Bu tür WILDS veri kümelerinin sayısı artmaya devam ediyor ve veri kümelerinin doğası, genel olarak, verileri ML/DL eğitimi için kullanma değerini desteklemek için geliştiriliyor.

CivilComments veri seti şu şekilde açıklanmaktadır: “Kullanıcı tarafından oluşturulan metnin otomatik olarak gözden geçirilmesi – örneğin, toksik yorumların tespit edilmesi – İnternette yazılan metin hacmini yönetmek için önemli bir araçtır. Ne yazık ki, önceki çalışmalar, bu tür toksisite sınıflandırıcılarının eğitim verilerindeki önyargıları yakaladığını ve toksisiteyi belirli demografik özelliklerden söz edilmesiyle sahte bir şekilde ilişkilendirdiğini göstermiştir. Bu tür sahte korelasyonlar, belirli alt popülasyonlarda model performansını önemli ölçüde düşürebilir. Bu konuyu CivilComments veri setinin değiştirilmiş bir çeşidi aracılığıyla inceliyoruz” (WILDS web sitesinde yayınlandığı gibi).

İstenmeyen çevrimiçi gönderilerin nüanslarını düşünün.

Neredeyse her türlü sosyal medyayı kullanırken şüphesiz toksik yorumlarla karşılaştınız. Bu günlerde yaygın gibi görünen buruk ve berbat içeriği görmekten sihirli bir şekilde kaçınmanız neredeyse imkansız görünüyor. Bazen kaba malzeme inceliklidir ve belki de önyargılı veya ayrımcı ton veya anlamın özünü anlamak için satır aralarını okumanız gerekir. Diğer durumlarda, kelimeler açıkça zehirlidir ve pasajların ne anlama geldiğini anlamak için bir mikroskop veya özel bir kod çözücü halkasına ihtiyacınız yoktur.

CivilComments, toksik içeriği hesaplamalı olarak algılayabilen AI ML/DL'yi denemek ve tasarlamak için bir araya getirilmiş bir veri kümesidir. İşte araştırmacıların odaklandığı çabanın altında yatan şey: “Makine Öğrenimindeki istenmeyen önyargı, farklı demografik gruplar için performansta sistemik farklılıklar olarak ortaya çıkabilir ve potansiyel olarak toplumun genelinde adalete yönelik mevcut zorlukları bir araya getirebilir. Bu yazıda, bir sınıflandırıcının puan dağılımının belirlenmiş gruplar arasında değişebileceği çeşitli yolları göz önünde bulundurarak, bu istenmeyen önyargının incelikli bir görünümünü sağlayan bir eşik-agnostik metrikler paketi sunuyoruz. Ayrıca, kimlik referansları için kitle kaynaklı ek açıklamalar içeren büyük bir yeni çevrimiçi yorum test seti sunuyoruz. Bunu, mevcut genel modellerde yeni ve potansiyel olarak incelikli istenmeyen önyargıları bulmak için metriklerimizin nasıl kullanılabileceğini göstermek için kullanıyoruz” (“Nuanced Metriks For Measuring İstenmeyen Bias with Real Data for Test Classification” başlıklı bir makalede, Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Bu konuya biraz geniş tefekküre dayalı bir düşünce verirseniz, dünyada neyin zehirli bir yorum olduğunu ve neyin zehirli olmayan bir yorum olduğunu nasıl ayırt edebileceğinizi merak etmeye başlayabilirsiniz. İnsanlar, tamamen toksik ifadeler olarak yorumladıkları şey konusunda kökten farklılık gösterebilir. Bir kişi, sosyal medyada yayınlanan belirli bir çevrimiçi yorum veya yoruma öfkelenebilirken, bir başkası hiç heyecanlanmayabilir. Zehirli yorum kavramının tamamen muğlak bir kural olduğu sıklıkla ileri sürülür. Bu, sanatın yalnızca bakanın gözünde anlaşıldığının söylendiği ve aynı şekilde, taraflı veya zehirli sözlerin de yalnızca bakanın gözünde olduğu sanat gibidir.

Balderdash, biraz imbik. Aklı başında herkes, çevrimiçi bir açıklamanın zehirli olup olmadığını anlayabilir. Gönderilen bazı yakıcı hakaretlerin önyargı ve nefretle dolu olduğunu anlamak için roket bilimcisi olmanıza gerek yok.

Tabii ki, toplumsal adetler zaman içinde değişir ve değişir. Bir süre önce saldırgan olarak algılanmayan bir şey bugün tiksindirici bir şekilde yanlış olarak görülebilir. Bunun da ötesinde, yıllar önce söylenen ve bir zamanlar gereğinden fazla taraflı olarak görülen şeyler, anlam değişiklikleri ışığında yeniden yorumlanabilir. Bu arada, diğerleri, başlangıçta ne zaman yayınlanmış olursa olsun, zehirli yorumların her zaman zehirli olduğunu iddia ediyor. Toksisitenin göreceli olmadığı, bunun yerine mutlak olduğu iddia edilebilir.

Neyin zehirli olduğunu belirlemeye çalışma konusu yine de oldukça zor bir bilmece olabilir. Hangisinin hangisi olduğunu belirleyebilecek algoritmalar veya AI geliştirmeye çalışmak için bu zahmetli konuyu ikiye katlayabiliriz. Bazıları, insanlar bu tür değerlendirmeleri yapmakta zorlanıyorsa, bir bilgisayarı programlamanın muhtemelen eşit veya daha fazla sorunlu olduğunu söylüyor.

Toksik içerik içeren veri kümeleri oluşturmaya yönelik bir yaklaşım, içeriği derecelendirmek veya değerlendirmek için bir kitle kaynaklı yöntemi kullanmayı içerir, bu nedenle, neyin uygunsuz olarak görüldüğünü belirlemek için insan temelli bir araç sağlar ve veri kümesinin kendi içindeki etiketlemeyi içerir. Bir AI ML/DL daha sonra verileri ve insan değerlendiriciler tarafından belirtilen ilgili etiketlemeyi inceleyebilir. Bu da potansiyel olarak altta yatan matematiksel kalıpları hesaplamalı olarak bulma aracı olarak hizmet edebilir. Voila, ML/DL daha sonra belirli bir yorumun toksik olup olmayacağını tahmin edebilir veya hesaplamalı olarak değerlendirebilir.

İncelikli metriklerle ilgili alıntılanan makalede belirtildiği gibi: “Bu etiketleme, değerlendiricilerden 'Çok Toksik', 'Zehirli', 'Söylemesi Zor' ve 'Toksik Değil' arasından seçim yaparak bir yorumun toksisitesini derecelendirmelerini ister. Bu etiketler bu çalışmada analiz için kullanılmamış olsa da, değerlendiricilere toksisitenin çeşitli alt türleri hakkında da sorular soruldu. Bu derecelendirme tekniklerini kullanarak, toksisite ve kimlik etiketlerini içeren çevrimiçi yorum forumlarından alınan 1.8 milyon yorumluk bir veri seti oluşturduk. Tüm yorumlar toksisite için etiketlenirken, 450,000 yorumdan oluşan bir alt küme kimlik için etiketlendi. Kimliğe göre etiketlenen bazı yorumlar, kitle değerlendiricilerinin kimlik içeriğini sık sık görmelerini sağlamak için önceki kimlik etiketleme yinelemelerinden oluşturulan modeller kullanılarak önceden seçilmiştir” (Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman tarafından alıntılanan makalede).

Açıklayıcı toksik içerik içeren veri kümelerine sahip olmayı hedeflemenin bir başka örneği, AI tabanlı Doğal Dil İşleme (NLP) etkileşimli etkileşimli sistemleri eğitme çabalarını içerir. Muhtemelen Alexa ve Siri gibi NLP sistemleriyle etkileşime girmişsinizdir. Alexa çocuklara uygunsuz ve tehlikeli bir tavsiyede bulunduğunda meydana gelen özellikle rahatsız edici bir örnek de dahil olmak üzere, bugünün NLP'sinin bazı zorluklarını ve sınırlamalarını ele aldım, bkz. buradaki bağlantı.

Yakın tarihli bir araştırma, yaş, cinsiyet, uyruk, fiziksel görünüm, ırk veya etnik köken, din, engellilik durumu, cinsellik dahil olmak üzere genel olarak EEOC'nin (Eşit İstihdam Fırsatları Komisyonu) korunan demografik özellikler listesine dayanan dokuz sosyal önyargı kategorisini kullanmaya çalıştı. yönelim ve sosyo-ekonomik durum. Araştırmacılara göre: “NLP modellerinin sosyal önyargıları öğrendiği iyi bir şekilde belgelenmiştir, ancak bu önyargıların soru cevaplama (QA) gibi uygulamalı görevler için model çıktılarında nasıl ortaya çıktığı konusunda çok az çalışma yapılmıştır. Yazarlar tarafından oluşturulan ve ABD İngilizcesi konuşulan bağlamlarla ilgili dokuz sosyal boyut boyunca korunan sınıflara mensup kişilere karşı onaylanmış sosyal önyargıları vurgulayan bir soru setleri veri seti olan QA (Barbekü) için Önyargı Benchmark'ı tanıtıyoruz. : Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman tarafından yazılan Soru Cevaplama İçin El Yapımı Bir Karşılaştırma”.

Kasıtlı olarak önyargılı ve tamamen toksik veriler içeren veri kümelerinin oluşturulması, AI'da yükselen bir eğilimdir ve özellikle AI Etiğinin ortaya çıkması ve Etik AI üretme arzusu tarafından canlandırılmaktadır. Bu veri kümeleri, önyargıları tespit etmek ve toplumsal toksisiteyi gerektiren hesaplama kalıplarını bulmak için Makine Öğrenimi (ML) ve Derin Öğrenme (DL) modellerini eğitmek için kullanılabilir. Buna karşılık, toksisite eğitimli ML/DL, hedeflenen AI'nın potansiyel olarak önyargılı ve toksik olup olmadığını tespit etmek için diğer AI'ya makul bir şekilde hedeflenebilir.

Ayrıca, mevcut toksisite eğitimli ML/DL sistemleri, algoritmik olarak yerleştirilmiş önyargıların nasıl ortaya çıktığını görmek için modelleri kolayca inceleyebilmeleri için AI geliştiricilerine nelere dikkat etmeleri gerektiğini göstermek için kullanılabilir. Genel olarak, bu çabalar, tamamen anlatılan AI Etiği ve Etik AI farkındalığının bir parçası olarak toksik AI'nın tehlikelerini örneklendirebilir.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek başka açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, zehirli yapay zeka tasarlamak için veri kümelerine sahip olmanın faydası hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Zehirli Yapay Zekadan Uzak Durma

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Otonom araçların ve kendi kendini süren arabaların ortaya çıkışıyla yüzleşecek olan çok sayıda potansiyel ve bir gün gerçekleşmesi muhtemel yapay zeka kaynaklı önyargılar var, örneğin şuradaki tartışmama bakın: buradaki bağlantı ve buradaki bağlantı. Kendi kendini süren arabaların piyasaya sürülmesinin henüz ilk aşamalarındayız. Benimseme yeterli bir ölçeğe ve görünürlüğe ulaşana kadar, eninde sonunda gerçekleşeceğini tahmin ettiğim toksik yapay zeka yönlerinin çoğu henüz kolayca belli olmuyor ve henüz kamuoyunun dikkatini çekmedi.

İlk bakışta tamamen zararsız görünebilecek, görünüşte basit, sürüşle ilgili bir konuyu düşünün. Spesifik olarak, bir caddeyi geçme hakkına sahip olmayan “yönlü” yayaları beklemek için durup durmayacağımızı doğru bir şekilde nasıl belirleyeceğimizi inceleyelim.

Şüphesiz araba kullanmışsınızdır ve karşıdan karşıya geçmek için bekleyen ve henüz geçiş hakkına sahip olmayan yayalarla karşılaşmışsınızdır. Bu, durup geçmelerine izin verip vermeme konusunda takdir hakkınız olduğu anlamına geliyordu. Geçmelerine izin vermeden devam edebilir ve yine de bunu yapmak için yasal sürüş kuralları dahilinde olabilirsiniz.

İnsan sürücülerin bu tür yayalar için durmaya veya durmamaya nasıl karar verdiğine ilişkin araştırmalar, bazen insan sürücülerin seçimi istenmeyen önyargılara dayanarak yaptığını ileri sürdü. Bir insan sürücü yayaya göz atabilir ve yaya, ırk veya cinsiyet gibi farklı bir görünüme sahip olsaydı durmuş olsa bile durmamayı seçebilirdi. bunu şurada inceledim buradaki bağlantı.

AI sürüş sistemleri, aynı tür dur ya da git kararı verecek şekilde nasıl programlanacak?

Tüm AI sürüş sistemlerinin, bekleyen yayalar için her zaman duracak şekilde programlanması gerektiğini ilan edebilirsiniz. Bu, konuyu büyük ölçüde basitleştirir. Aslında verilecek herhangi bir çetrefilli karar yok. Bir yaya geçmek için bekliyorsa, geçiş hakkına sahip olup olmadığına bakılmaksızın, yayaların geçebilmesi için yapay zekalı sürücüsüz arabanın durduğundan emin olun.

Basit.

Hayat hiç bu kadar kolay değil gibi görünüyor. Tüm sürücüsüz arabaların bu kurala uyduğunu hayal edin. Yayalar, AI sürüş sistemlerinin, diyelim ki, itici güçler olduğunun farkına varacaklardır. Karşıdan karşıya geçmek isteyen tüm yayalar, istedikleri zaman ve nerede olurlarsa olsunlar, ister istemez bunu yapacaklardır.

Kendi kendini süren bir arabanın, saatte 45 mil belirtilen hız sınırında hızlı bir caddeden aşağı indiğini varsayalım. Bir yaya, yapay zekanın kendi kendini süren arabayı durduracağını "bilir". Böylece yaya sokağa fırlar. Ne yazık ki, fizik AI üzerinde kazanıyor. AI sürüş sistemi, kendi kendini süren arabayı durdurmaya çalışacak, ancak otonom aracın momentumu, çok tonlu düzeneği ileriye taşıyacak ve yoldan çıkan yayaya çarpacak. Sonuç ya yaralayıcıdır ya da ölüme neden olur.

Direksiyonda bir insan sürücü varken yayalar genellikle bu tür davranışları denemezler. Elbette, bazı yerlerde gerçekleşen bir göz küresi savaşı var. Bir yaya, bir sürücüye göz kulak olur. Sürücü, yayaya göz kulak olur. Duruma bağlı olarak, sürücü durabilir veya sürücü karayolu üzerinde hak iddia edebilir ve görünüşe göre yayaya yolunu bozmaya cesaret edebilir.

Muhtemelen AI'nın benzer bir göz küresi savaşına girmesini istemiyoruz, bu da kendi kendini süren arabanın direksiyonunda oturan bir kişi veya robot olmadığı için zaten biraz zorlayıcı (robotların gelecekteki olasılığını tartıştım). bu sürücü, bkz. buradaki bağlantı). Yine de yayaların her zaman kararları vermesine izin veremeyiz. Sonuç, ilgili herkes için felaket olabilir.

Daha sonra bu madalyonun diğer tarafına geçmek ve AI sürüş sisteminin bu gibi durumlarda asla durmaması gerektiğini beyan etmek isteyebilirsiniz. Başka bir deyişle, bir yaya caddeyi geçmek için uygun bir geçiş hakkına sahip değilse, AI her zaman kendi kendini süren arabanın hız kesmeden ilerlemesi gerektiğini varsaymalıdır. Yayalara bol şans.

Bu kadar katı ve basit bir kural, halk tarafından pek kabul görmeyecektir. İnsanlar insandır ve çeşitli ortamlarda yasal olarak geçiş haklarından yoksun olmalarına rağmen, karşıdan karşıya geçmekten tamamen mahrum kalmaktan hoşlanmazlar. Halktan büyük bir kargaşayı kolayca tahmin edebilir ve muhtemelen kendi kendini süren arabaların sürekli benimsenmesine karşı bir tepki oluştuğunu görebilirsiniz.

Yaparsak lanetlenir, yapmazsak lanetlenir.

Umarım bu sizi, AI'nın bu sürüş sorunuyla nasıl başa çıkılacağı konusunda bir tür karar vermeyle programlanması gerektiği gibi mantıklı bir alternatife yönlendirmiştir. Asla durmamak için kesin bir kural savunulamaz ve aynı şekilde, her zaman durmak için kesin bir kural da savunulamaz. AI, konuyla başa çıkmak için bazı algoritmik karar verme veya ADM ile tasarlanmalıdır.

ML/DL yaklaşımıyla birleştirilmiş bir veri kümesi kullanmayı deneyebilirsiniz.

AI geliştiricilerinin bu görevi programlamaya nasıl karar verebileceği aşağıda açıklanmıştır. Kendi kendine giden arabanın kullanılacağı belirli bir şehrin her yerine yerleştirilmiş video kameralardan veri toplarlar. Veriler, insan sürücülerin geçiş hakkı olmayan yayalar için ne zaman durmayı tercih ettiğini gösteriyor. Hepsi bir veri kümesinde toplanır. Makine Öğrenimi ve Derin Öğrenme kullanılarak veriler hesaplamalı olarak modellenir. AI sürüş sistemi daha sonra ne zaman durup durmayacağına karar vermek için bu modeli kullanır.

Genel olarak fikir, yerel gelenek ne olursa olsun, yapay zekanın kendi kendini süren arabayı bu şekilde yönlendirmesidir. Sorun çözüldü!

Ancak, gerçekten çözüldü mü?

İnsan sürücülerin yayalar için ne zaman duracakları konusunda önyargılı olabildiğini gösteren araştırma çalışmaları olduğunu daha önce belirttiğimi hatırlayın. Belirli bir şehir hakkında toplanan veriler muhtemelen bu önyargıları içerecektir. Bu verilere dayalı bir AI ML/DL daha sonra muhtemelen aynı önyargıları modelleyecek ve yansıtacaktır. AI sürüş sistemi yalnızca aynı mevcut önyargıları gerçekleştirecektir.

Sorunla mücadele etmek için, aslında bu tür önyargılara sahip bir veri kümesini bir araya getirebiliriz. Ya böyle bir veri seti buluyoruz ve sonra önyargıları etiketliyoruz ya da konuyu açıklamaya yardımcı olmak için sentetik olarak bir veri seti oluşturuyoruz.

Daha önce tanımlanan adımların tümü, aşağıdakiler de dahil olmak üzere gerçekleştirilecektir:

  • Bu özel önyargıyı kasıtlı olarak içeren bir veri seti kurun
  • Bu belirli önyargıyı algılama konusunda Makine Öğrenimi (ML) ve Derin Öğrenme (DL) modellerini eğitmek için veri kümesini kullanın
  • Hedeflenen AI'nın benzer şekilde potansiyel olarak önyargılı olup olmadığını belirlemek için önyargı eğitimli ML/DL'yi diğer AI'ya uygulayın
  • Algoritmik olarak yerleştirilmiş önyargıların nasıl ortaya çıktığını görmek için modellerini kolayca inceleyebilmeleri için AI geliştiricilerine nelere dikkat etmeleri gerektiğini göstermek için önyargı eğitimli ML/DL'yi kullanıma sunun
  • Eklenen bu özel örnekle AI Etiği ve Etik AI farkındalığının bir parçası olarak önyargılı AI'nın tehlikelerini örnekleyin
  • Diğer

Sonuç

Açılış satırını tekrar gözden geçirelim.

Birini bilmek için biri yeterli.

Bazıları, bu inanılmaz derecede yaygın sözün, toksik AI'yı ortaya çıkarmak söz konusu olduğunda, diğer toksik AI'ları keşfetmek ve bunlarla başa çıkmak için toksik AI oluşturmaya ve kullanmaya gereken güveni vermemiz gerektiğini ima ettiğini yorumluyor. Alt satır: Bazen başka bir hırsızı yakalamak için bir hırsız gerekir.

Seslendirilmiş bir endişe, belki de hırsız yapmaya başlamak için yolumuzdan çıkıyoruz. Zehirli bir yapay zeka tasarlamak istiyor muyuz? Bu çılgınca bir fikir gibi gelmiyor mu? Bazıları hararetle tüm zehirli yapay zekayı yasaklamamız gerektiğini, buna sözde bir kahraman ya da yiğit için bile olsa bilerek yapılmış yapay zekayı yasaklamamız gerektiğini savunuyor. AI için iyi amaç.

Ortaya çıkabilecek akıllıca veya sinsi kisvede toksik AI'yı susturun.

Şimdilik bu konuyla ilgili son bir bükülme. Genelde bu ünlü repliğin kötü ya da ekşi hareketler yapan kişi ya da şeylerle ilgili olduğunu varsayıyoruz. Hırsızın hırsızı yakalaması gerektiği fikrine bu şekilde varıyoruz. Belki de bu sözü tersine çevirmeliyiz ve onu üzgün bir surattan çok mutlu bir surat yapmalıyız.

İşte nasıl.

Tarafsız ve toksik olmayan bir yapay zeka istiyorsak, birinin bunu bilmesinin gerekli olduğu düşünülebilir. Belki de daha fazla büyüklük ve iyiliği tanımak ve doğurmak için en büyüğü ve en iyisi gerekir. Bilge bilgeliğin bu varyantında, bakışlarımızı mutlu yüze dikiyoruz ve bir şeyler tasarlamaya konsantre olmayı amaçlıyoruz. İyi İçin AI.

Ne demek istediğimi anlıyorsan, bu daha iyimser ve tatmin edici bir şekilde neşeli bir bakış açısı olurdu.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- otonom-kendi kendine giden-arabalar için faydalı-dahil/