Yapay Zeka Etiği, Çin'in En Son Tasarladığı Yapay Zeka Parti-Sadakatinin Zihin Okuyan Yüz Tanıma Kanıtı, Baskıcı Otonom Sistemlerin Önsözü Olabilir

sadık mısın

Teoride, aleni davranışlarınızı incelemek ve davranışlarınızın sadakat gösterip göstermediğini tespit etmek mümkün olabilir.

Bunun yerine, zihninizi okumaya ve bu arada sadakat oranınızı belirlemek için yüzünüzü taramaya çalışıldığını varsayalım. Bu ürkütücü bir şekilde müdahaleci; kolayca karalayabilirsin. Geleceğin distopik toplumunu tasavvur eden çılgın bilimkurgu filmlerinden birine benziyor.

Neyse ki, gizlice kendi kendine fısıldıyorsun, bugün böyle bir şeyimiz yok.

Vay, atlarınızı tutun.

1 Temmuz 2022'de Çin'de çevrimiçi olarak yayınlanan bir araştırma makalesinin, Çin Komünist Partisi'ne (ÇKP) sadık olup olmadıklarını hesaplamak amacıyla insanların beyin dalgalarının ve yüz ifadelerinin bir değerlendirmesini içerdiği varsayılan bir çalışmayı tasvir ettiği yakın zamanda haber manşetlerinden çıkıyor. . İşte böyle, gelecek gittikçe yaklaşıyor, en azından bir gün ortaya çıkmasından korktuğumuz distopik topluma ulaşmak açısından.

Araştırma makalesi, çevrimiçi yayınlanan bağlantısından hızla kayboldu.

Muhtemelen, internette hızla yayılan hızlı küçümseme, kağıdın kaldırılması için yeterliydi. Ya da belki araştırmacılar, i'lerin noktalı olduğundan ve t'lerin hepsinin çaprazlandığından emin olmak için daha kapsamlı bir şansa sahip olduklarında yeniden yayınlamayı amaçlayan birkaç ifade değişikliği ve diğer zararsız düzeltmeler yapmak istiyorlar. Gazetenin ikinci bir canı olup olmadığını görmek için gözlerimizi açık tutmamız gerekecek.

Devam edeceğim ve araştırma çalışması hakkında bildiklerimize derin bir dalış yapacağım ve bu tür AI ile ilgili çalışmaların hepimiz için nasıl bir önemi olduğuna dair noktaları birleştirmeye çalışacağım, bunu görme kapsamının çok ötesine geçeceğim. belirli bir ülkeyle sınırlı olduğu için. Benim kapsamım bu haber değeri taşıyan diğer haberlerden biraz daha geniş olacak, bu yüzden lütfen bana tahammül edin.

Benim ek vurgum, sözde makaleden toplayabileceğimiz çok sayıda hayati AI Etiği dersi olduğu olacaktır. Devam eden ve kapsamlı AI Etiği ve Etik AI kapsamı için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

İşte araştırma çalışması hakkında şimdiye kadar bahsedilenler.

Görünüşe göre, bazı “gönüllüler” ÇKP'nin algılarıyla ilgili bir deneye katılmak üzere işe alındı. Gönüllü gönüllüler mi, yoksa kışkırtılan ya da yönlendirilen gönüllülere daha yakın mı oldukları bilinmiyor. Tartışma uğruna, onların çalışmada bir özne olmaya uygun olduklarını varsayacağız.

Bunu sadece aptal olmamak için gündeme getiriyorum. İnsan denekleri içeren bir deney yapıldığında, bu tür deneklerin bir araştırma çabasına dahil edilmesi ve daldırılmasıyla ilgili genel kabul görmüş çok sayıda uygulama vardır. Bu kısmen, insanları bir deneye katılmaya zorlayan veya kandıran, zaman zaman bu katılımcılar için olumsuz psikolojik tepkilere ve hatta fiziksel zarara yol açan önceki çalışmalara kadar uzanıyor. Bilim camiası bu tür sinsi çalışmaların önüne geçmek için büyük çaba sarf etmiş ve insanla ilgili çalışmalara dahil edilmek isteyenlere her türlü açıklamanın ve uyarının yapılmasını şart koşuyor.

Açıklığa kavuşturmak gerekirse, herkes böyle ihtiyatlı ve vicdani kurallara uymaz.

Devam ederken, 43 denek olduğu ve bunların Çin Komünist Partisi üyesi olduğu söylendi. Bir deney için denek seçiminin deney için oldukça önemli olduğunu ve deneyin sonuçları hakkında daha sonra ulaşmaya çalışabileceğiniz herhangi bir sonuçla ilgili olarak da dikkate alınması gerektiğini unutmayın.

İnsanların beğenilen Star Wars serisini nasıl algıladıklarına dair bir deney yapmak istediğimi varsayalım. Star Wars'tan derinden nefret eden konuları önceden seçersem (böyle insanlar nasıl var olabilir?) ve onlara Star Wars video klipleri gösterirsem, muhtemelen Star Wars'tan hala hoşlanmadıklarını söyleyeceklerdir. Bu sözde bilimsel deneye dayanarak, belki de sinsice insanların - genel olarak - "dikkatle" hazırlanmış araştırma ortamımda "kanıtlanmış" (göz kırpıp göz kırpan) Star Wars'tan gerçekten nefret ettiğini iddia ediyorum.

Rulet çarkını, gizlice arzuladığım sonuçları doğuracağını tahmin ettiğim konuları önceden seçerek, deyim yerindeyse, donattığımı bilmiyor olabilirsiniz. Tabii ki, bunun yerine kasıtlı olarak Star Wars'u seven ve hevesli ve hevesli hayranlar olan insanları işe alsaydım, o Star Wars kliplerini izlemekten çok mutlu olduklarını bildirme ihtimalleri vardı. Yine, insanların genel olarak Star Wars'a nasıl tepki verdiğine dair varılan herhangi bir sonuç, çaba için seçilen önceden seçilmiş bir dizi konu tarafından yumuşatılacaktır.

ÇKP odaklı çalışma, görünüşe göre deneklerin kiosk benzeri bir video ekranının önünde oturmasını ve ÇKP'nin politikaları ve başarıları hakkında çeşitli makaleler okumasını sağladı. Bu muhtemelen deneklerin maruz kaldığı “deneysel tedavi” olarak kabul edilir. Bir deneyi planlarken, genellikle katılımcıları etkileyip etkilemediğini görmek istediğiniz deneysel bir faktör veya yön bulursunuz.

Görünüşe göre araştırılmakta olan araştırma sorusu, bu materyalleri gözden geçirme eyleminin, ÇKP'nin müteakip izlenimlerinde artma, azalma veya tarafsız olma açısından denekler üzerinde herhangi bir etkisi olup olmayacağıydı.

Klasik bir sıfır hipotezinde, tüketilen malzemelerin denekler tarafından ifade edilen sonraki izlenimler üzerinde hiçbir etkisi olmadığını belirtmek için böyle bir çalışma düzenleyebilirsiniz. ÇKP hakkındaki görüşlerinin öncesi ve sonrası karşılaştırmasını yaptıktan sonra, izlenimlerinde istatistiksel olarak anlamlı bir değişiklik olup olmadığını istatistiksel olarak görmeye çalışırsınız.

Öncesi ve sonrası istatistiksel olarak farklı olmayabilir, bu nedenle, bu belirli çalışma için görüntülenen materyallerin (deneysel işlem) izlenimlerinde bir fark yaratmadığı sonucuna makul bir şekilde karar verebilirsiniz. Öte yandan, istatistiksel olarak geçerli bir fark olsaydı, sonrakinin öncekinden daha büyük olup olmadığına bakardınız, bu da malzemelerin izlenimlerini artırdığını (ve madalyonun diğer tarafında, eğer madalyonun diğer tarafındaysa) dikkatli bir şekilde önermenize izin verirdi. sonra, öncekinden daha azdı, bu, materyallerin izlenimlerini azalttığını veya düşürdüğünü ima edebilir).

Böyle bir çalışmada ele alınması gereken pek çok dırdırcı gevşek uç vardır.

Örneğin, genellikle deneysel tedaviyi alanlarla karşılaştırabileceğimiz bir kontrol grubuna sahip olmak isteriz. İşte neden. Materyali okumak için bir büfenin önünde oturma eyleminin, izlenimlerin neden değiştiğinin gerçek temeli olduğunu varsayalım. Tüketilen malzemelerin doğası, izlenim etkisi için kabaca önemsiz olabilir. Sadece oturup komik şeyler yapan kedilerle ilgili en son hikayeler gibi herhangi bir şeyi okumak tek başına işe yarayabilir. Bu nedenle, ÇKP politikaları ve kazanımları materyalleri dışında okumak için başka materyallere maruz kalan bazı deneklerin kontrol grubumuzda olmasını ayarlayabiliriz.

Bu örnekte bunun yapılıp yapılmadığını bilmiyoruz (henüz kimse bu yönden bahsetmemiş gibi görünüyor).

Araştırmanın medya patlaması yapan kısmı konusunda artık tedirgin olduğunuzun farkındayım. Hızlı bir şekilde o kısma geçeceğiz.

Bu deneydeki deneklerin, görüntülenen materyalleri okumanın bir sonucu olarak izlenimlerini değiştirip değiştirmediklerini nasıl tespit edebiliriz?

Onlara sormak geleneksel bir yol olacaktır.

Belki önceden onlara ÇKP hakkındaki izlenimlerini soran bir anket uygulamış olurdunuz. Ardından, sergilenen materyallerin okunmasında olduğu gibi, deneysel tedaviye maruz kaldıktan sonra başka bir anket uygulayabiliriz. Daha sonra deneklerin önce ve sonra verdiği cevaplar karşılaştırılabilir. Aynı zamanda bir kontrol grubu kullanıyor olsaydık, kontrol grubu cevaplarının öncesinden sonrasına önemli ölçüde değişmeyeceğini varsayardık (kedilerin oynamasıyla ilgili hikayelere bakmanın onların ÇKP izlenimlerini etkilememesi gerektiği inancıyla).

Deneklerden izlenimlerini isteme eylemi, göründüğü kadar basit olmayabilir.

Deneydeki deneklerin, deneysel tedaviye belirli bir şekilde yanıt vermelerini istediğiniz hissini veya genel olarak saptığını varsayalım. Bu durumda, deneysel uygulamanın sonraki bölümünde tepkilerini bilerek abartabilirler. Bunun gerçekleştiğini kesinlikle gördünüz. Piyasaya çıkan yeni bir gazoz için bir tat testi yapıyorsam, gazozdan çılgınca zevk alıyormuş gibi davranabilirim, belki gazoz üreticisinin bir reklamında yer alma ve zengin bir şekilde hak ettiğim on beş dakikalık şöhretimi elde etme umuduyla yapıyorum. .

İşin özü, insanlara yalnızca fikirlerini sormanın, değişiklikleri ölçmenin kesin bir yolu olmadığıdır. Bu bir yaklaşımdır. Başka yaklaşımlar da olabilir ve sıklıkla üstlenilir.

Bu özel çalışma, deneklerin tepkilerini ölçmeyi nasıl seçti?

Görünüşe göre, en az iki yöntem kullanıldı. Bir yöntem, yüz taraması yapmaktan ve deneklerin tepkilerini değerlendirmek için AI tabanlı yüz tanıma yazılımı kullanmaktan oluşuyordu. Diğer yöntemin bir tür beyin dalgası taraması olduğu bildirildi. Ne tür beyin dalgası tarama cihazlarının kullanıldığı veya ne tür AI tabanlı beyin dalgası analiz yazılımının kullanıldığı henüz bildirilmedi.

Çeşitli raporlar, çalışmanın deneyin doğası hakkında şunu belirttiğini belirtti: “Bir yandan parti üyelerinin düşünce ve siyasi eğitimi nasıl kabul ettiğini yargılayabilir.” Ve sözde araştırma bundan da söz ediyor: “Öte yandan, düşünce ve siyaset eğitimi için gerçek veriler sunacak ki geliştirilip zenginleştirilebilsin.” Araştırma çalışmasının, Çin'in Hefei Kapsamlı Ulusal Bilim Merkezi'nin himayesinde gerçekleştirildiği açıklandı.

Medya raporları, çalışmanın, yüz tanıma taramalarının ve beyin dalgası taramalarının, ÇKP hakkında sonraki izlenimlerin arttığını tespit etmede yardımcı olabileceği iddiasını ima ettiğini ileri sürüyor.

Kullanılan sistemleri doğrudan incelemeden ve araştırma makalesini yakından incelemeden, bu AI tabanlı sistemlerin tam olarak nasıl kullanıldığının ayrıntılarını bilmediğimizi belirtmek isterim.

Denekler, deneysel tedaviye tepki vermek yerine deney ortamına tepki gösteriyor olabilir. Bir araştırmaya katılan herkes, başlangıçta endişeli olabilir. Bu, beyin dalgası taramaları veya yüz deseni analizi yapma çabalarını şaşırtabilir. Ayrıca materyalleri gördükten sonra olumlu düşünceler oluşturmayı seçerek araştırmacıları memnun etmek için motive olduklarını hissetme şansları da vardır ve bu teorik olarak beyin dalgası taramalarına ve yüz taramalarına yansıyabilir (belki, Sonuçları çarpıtmayı ve olumlu bir şekilde etkilendiklerini göstermeyi umarak, birazdan açıklayacağım gibi, bu tür iddiaların geçerliliği üzerine ateşli tartışmalar.

Twitter tepkisi, AI ile güçlendirilmiş beyin dalgası taramaları ve yüz tanıma kullanma fikrinin başlı başına korkunç ve çirkin bir eylem olduğunu büyük ölçüde kınadı. Sadece insan canavarlar bu tür cihazları kullanırdı, bize bu tweetlerin bazıları tarafından söylendi.

Oturmanızı ve kaba ve şok edici bir sürpriz olabilecek bir şeye kendinizi hazırlamanızı istemek zorundayım.

Dünya çapında araştırma çalışmalarında bu tür teknolojileri kullanan birçok araştırmacı var. Bu, kesinlikle bir araştırma çabasında insan denekler üzerinde bir beyin dalgası tarama yeteneğinin ilk kez kullanılması değil. Bu aynı zamanda yüz tanımanın insan denekler üzerinde deneysel amaçlarla kullanıldığı ilk sefer de değildi. Üstün bir çevrimiçi arama bile, bu tür cihazları kullanan her türlü ülke ve laboratuvarda çok sayıda deneysel çalışma gösterecektir.

Şimdi, söylendiği gibi, onları ÇKP'ye sadakati ölçmek için kullanmak, üzerinde çok fazla duracağınız bir şey değil. Böyle bir yapay zeka hükümet kontrolü için kullanıldığında, dedikleri gibi kırmızı bir çizgi aşılmıştır.

Bu, tüm kitin ve caboodle'ın açıkça ürpertici kısmı.

Pek çok kişi tarafından dile getirilen endişe, hükümetlerin eldeki rejimlere sadakatini tespit etmek için beyin dalgası tarama teknolojisini ve yüz tanımayı kullanmayı tercih etmeleri halinde, kendimizi distopik bir acı dünyasında bulacağımızdır. Halka açık bir caddede yürürken, bir elektrik direğine monte edilmiş bir cihaz, sadakat oranınızı gizlice belirleyecek olabilir.

Yüzünüz yeterince sadık olduğunuzu göstermiyorsa ya da beyin dalgası taraması aynı şeyi gösteriyorsa, hükümet haydutlarının birdenbire acele edip size sarılabileceğini varsayıyoruz. Sinir bozucu. Dipsiz. İzin verilmemelidir.

Bu haberde fışkıran bir kükreme ve öfkenin neden ortaya çıkmasının püf noktası budur.

Bunu hayal et. Sadık olup olmadığımıza karar vermek için muhtemelen yapay zekadaki en son teknolojileri kullanan bilgisayar tabanlı sistemler üretip kullanıma sunacağız. Oturup aynı şeyi yapmaları için insanları işe almaya çalışırsanız, çok sayıda insana ihtiyacınız olur ve onları herkesi gözetleyecek şekilde konumlandırmaya çalışmak gibi bir lojistik sorununuz olur. Yapay zeka tabanlı bir sistem söz konusu olduğunda, tek yapmanız gereken elektrik direklerine, binaların yan taraflarına vb. elektronik cihazları kurmaktır. Sadakat taraması, her zaman, bu donanıma sahip her yerde 24 gün 7 saat gerçekleştirilebilir. Bu daha sonra büyük bir veritabanına beslenebilir.

Her şeyi gören devasa bir toplumsal baskıcı ekosistemin sadece çarkları olan insanlar haline geliyoruz. Gören göz sadece yaptıklarımızı izlemek değildir. Aynı zamanda hükümete olan bağlılığımız hakkında yüzümüzün söylediğini de yorumluyor. Benzer şekilde, benzer korkunç bir neden için zihinlerimiz de incelenmelidir.

Olmadı!

Bundan kaynaklanan ikincil bir endişe de var, ancak daha önce çizildiği gibi Büyük Birader çıkarımlarıyla karşılaştırıldığında belki de o kadar çetrefilli olmasa da.

Bu iki acil soruyu düşünün:

  • Bir beyin dalgası taramasının sadakatinizi kanıtlayabileceğini güvenilir bir şekilde iddia edebilir miyiz?
  • Bir yüz tanıma taramasının sadakatinizi kanıtlayabileceğini güvenilir bir şekilde söyleyebilir miyiz?

Orada dur, ciğerlerinin tepesinde bağırıyor olabilirsin.

Kendi başına güvenilirlik yönleriyle pek ilgilenmeyebileceğinizi anlıyorum ve kabul ediyorum. Bunun güvenilir bir şekilde yapılıp yapılamayacağı, yapılıyor olması gerçeğinden daha az önemlidir. Hiç kimse böyle bir inceleme altında olmamalıdır. Teknolojinin bu görev için uygun olup olmadığını unutun. Hareket halindeyken görevi üstlenmemeliyiz.

Her halükarda, şu anda cevap kocaman bir hayır, yani “beyin dalgası taramaları” ve yüz tanımanın herhangi bir benzerini yapan mevcut AI sistemleri bu sıçramayı yapmak için yeterince yetenekli değil.

Son zamanlarda, bazı yüz tanıma üreticilerinin, yüz tanıma sistemlerinin nasıl kullanılmaya başlandığı konusunda bazı geri dönüşler yaptığını görmüş olabilirsiniz. Yaklaşan bir sütun gönderisinde, örneğin Microsoft'un, Microsoft tarafından sağlanan yüz tanıma araçlarını, teknolojinin yapabileceğinin veya kullanılması gerektiğinin çok ötesinde amaçlarla kullananların gelgitini denemek ve durdurmak için son çabalarını tartışacağım. . Yüz tanıma hakkında zaten iyi bir şekilde duyurulan AI Etik niteliklerine daha önceki bakışım ilginizi çekebilir, bkz. buradaki bağlantı. Ayrıca beyin dalgası taramaları arenasını da tartıştım, şu adresteki tartışmama bakın: buradaki bağlantı.

Özetle, bir beyin dalgası taramasının veya yüz tanıma taramasının birinin sadakatini gösterme iddiasında olduğunu önermek için henüz güvenilir veya mantıklı bir yol yoktur. Bu taramaları, birinin mutlu mu üzgün mü olduğuyla güvenilir bir şekilde ilişkilendirip kuramayacağınız gibi muhtemelen temel yönler bile hala hararetli bir şekilde tartışılıyor. Sadakat gibi şekilsiz ve değişken bir şeye bahsi yükseltmeye çalışmak çok uzak bir köprüdür.

Bazılarının eninde sonunda oraya varacağımıza hararetle inandığını da ekleyebilirim. Bu yüzden oraya asla varamayacağımızı belirtmek yerine, henüz orada olmadığımızı dikkatle not etmeye çalıştım. Asla büyük bir kelime değildir. Eğer ortalıkta dolanıp duracaksan, bunun olacağından kesinlikle emin olmalısın. asla uygulanabilir olmalıdır (“hiçbir zaman”ın bundan on yıl sonrasını, bundan yüzyıllar sonrasını ve bundan binlerce veya milyonlarca yıl sonrasını kapsadığını akılda tutarak).

Bazıları, dünyanın yapay zekanın uygunsuz ve tehlikeli kullanımlarına ne kadar tehlikeli bir şekilde yöneldiğinin bir göstergesi olarak bu Çin laboratuvar araştırma çalışması hakkındaki habere tepki gösterdi. AI Ethics'in neyle ilgili olduğuna dair kısa bir bilgiyi sizinle paylaşacağım. Bu, bu belirli çalışmanın Etik Yapay Zeka'nın genel olarak kabul edilen ilkelerinin neredeyse tamamını olmasa da birçoğunu neden ihlal ettiğini daha canlı bir şekilde görmenize yardımcı olacaktır.

İster inanın ister inanmayın, bazıları bu özel çalışmayla ilgili olarak köstebek yuvasından bir dağ yaptığımızı öne sürdü.

Biz?

Karşı argüman, bir köstebek yuvasının çok yakında bir dağ haline gelebileceğidir. Karlı bir tepeden aşağı yuvarlandıkça daha da büyüyen bir kartopunun atasözü kavramında, kartopunun ilerlemesini durdurmamız gerekir. Bu tür çalışmalara tahammül edersek, o kartopunun yolculuğuna başlamasına izin vermiş oluruz. Bu tür çalışmalara seslenerek ve seslenerek belki kartopunun önüne geçebiliriz.

Kesin olan bir şey var ki, yapay zeka yönleri söz konusu olduğunda Pandora'nın kutusunu açmanın eşiğindeyiz ve kutunun açılmasını önleyip engelleyemeyeceğimiz veya en azından ortaya çıkan her şeyle ihtiyatlı bir şekilde başa çıkmanın bir yolunu bulup bulamayacağımız sorusu devam ediyor. kutu şeytani içeriğini serbest bıraktığında.

Başka bir şey olmasa da, umarım, bu tür medya fırtınaları, AI ile ilgili kötülükleri nasıl önleyeceğimiz ve çok sayıda AI kaynaklı varoluşsal riski nasıl önleyeceğimiz konusunda yaygın tartışmalara yol açacaktır. Yapay Zeka Etiği ve Etik Yapay Zeka konularına ilişkin toplumsal farkındalığımızı bir adım öteye taşımamız gerekiyor.

Bu tür AI sistemlerinin altında yatan vahşi ve yünlü düşünceler hakkında biraz daha et ve patatese girmeden önce, son derece temel konularda bazı ek temeller oluşturalım. Yapay Zeka Etiğine ve özellikle Makine Öğrenimi (ML) ve Derin Öğrenmenin (DL) ortaya çıkışına kısaca bir dalış yapmamız gerekiyor.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfedeceğiz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Uygunsuz veya muhtemelen düpedüz yanlış yapma amaçları için kullanılan yapay zeka sistemlerine ve bunun ÇKP sadakati üzerine yakın zamanda yayınlanan çalışmayla nasıl ilişkili olduğuna odaklanalım.

Aklıma iki temel düşünce geliyor:

1) Bu AI örneği, devam eden daha büyük bir endişe verici AI kullanımı modelinin parçasıdır ve bu nedenle, neler olup bittiğine dair uğursuz ve ufuk açıcıdır.

2) Kedi çantadan çıkarılabilir, öyle ki böyle bir yapay zeka bir ülkede benimsenirse, diğer ülkelere de kolayca yayılabilir.

Devam eden bir kalıbın parçası olan bu AI örneğinin ilk noktasıyla başlayın.

Bu belirli bir çalışma tarafından özellikle rahatsız edilmenin özellikle önemli bir temeli, AI'nın bazıları tarafından nasıl kullanılmayı amaçladığına dair daha geniş bir modelin parçası olmasıdır. Eğer bu şimdiye kadar yapılmış tek araştırma olsaydı, biraz heyecanlanabilirdik. Bununla birlikte, muhtemelen şu anda gördüğümüz gibi bir coşkuyla rezonansa girmeyecektir.

Bu belki de kontrolden çıkacak bir şeye doğru ilerleyen bir damla damladır.

Haberlerde bildirildiği üzere Çin, ÇKP'ye coşkulu sadakat konusunda ısrar etmesiyle tanınmaktadır. Ayrıca, insanların hükümet doktrinine aşılanmasını sağlamak için çeşitli araçlar oluşturulmuş veya oluşturulmaktadır. Parti üyelerinin düşünce koşullarını ölçebilecek AI algoritmaları tasarlamaya çalışan önceki çalışmaların örneklerine atıfta bulunuldu (bkz. Çalışma Saatleri 2019'da bu çabalardan bahseden).

2018'de Başkan Yardımcısı Mike Pence'in Hudson Enstitüsü'nde bir konuşma yaptığını ve “Çin'in yöneticilerinin insan yaşamının neredeyse her yönünü kontrol etmeye dayanan bir Orwellian sistemi uygulamayı amaçladıklarını” vurguladığını hatırlayabilirsiniz (bu, ÇKP'nin uygulanmasına bir referanstı). bir sosyal kredi puanlama sistemi, önemli bir tartışma konusu). Bu son ÇKP çalışmasının bu yönde atılmış başka bir adım olduğunu kolaylıkla iddia edebilirsiniz.

Son samanın ne zaman veya ne zaman kırılacağını bilmiyoruz, öyle ki bu tek seferlik çalışmalar yaygın AI tabanlı izleme sistemlerine dönüşüyor.

Dikkate değer ikinci nokta, bu tür yapay zekanın yalnızca Çin ile sınırlı kalacağını varsayamayız. Özünde, Çin'de yaygınlaşabilecek bu tür AI kullanımına sahip olmak başlı başına rahatsız edici olsa da, diğer ülkeler de aynı şeyi yapabilir.

Bunun için yapay zekanın asal zaman için hazır olduğu söylendiğinde, diğer ülkelerin de bunu uygulamak istediklerine karar vermeleri çok fazla zaman almayacak. Kedi çantadan çıkacak. Bazı ülkeler muhtemelen bu yapay zekayı tamamen baskıcı şekillerde kullanacak ve bunu yaparken herhangi bir iddiada bulunmaya çalışmayacaktır. Diğer ülkeler görünüşte bu tür yapay zekayı faydalı görünen amaçlar için kullanmaya çalışabilirler ve bunun sonucunda neredeyse kaçınılmaz olacak bir dezavantajı vardır.

Aslında, bu tür AI'nın belki de yalnızca prime time için hazır olarak görüldüğünde kabul edileceğini önermek biraz yanlış bir isimdir. Yapay zekanın bu şekilde emin bir şekilde çalışıp çalışamayacağı hiç fark yaratmayabilir. AI bir kapak hikayesi olarak kullanılabilir, adresindeki açıklamaya bakın. buradaki bağlantı. AI'nın gerçekte neyi başarabildiğine bakılmaksızın, fikir, AI'nın halkı izleme ve ölçme ve yetkililere mutlak sadakat sağlama şemaları ortaya çıkarmak için kullanışlı bir bahane olabileceğidir.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, yapay zekanın kötüye kullanımı hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Yapay Zekanın Kötüye Kullanımı

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Yapay zekayı kabataslak veya yanlış yollardan kullanabilecek kendi kendine giden bir araba senaryosu çizelim.

Sizlerle, titremenize ve rahatsız olmanıza neden olabilecek, yapay zeka tabanlı kendi kendine giden araba sonuçlarını paylaşacağım. Bunlar, şu anda neredeyse hiç kimsenin tartışmadığı yönlerdir. Konuları defalarca gündeme getirdim, ancak kendi kendine giden arabaların yaygın bir şekilde benimsenmesine kadar, toplumun bugün sadece soyut kavramlar olarak görünen şeylerden endişe duyması veya üzülmesi konusunda fazla ilgi görmeyeceğimizi açıkça kabul ediyorum. .

Hazır mısınız?

Bazı temel atma ile başlayacağız.

AI tabanlı kendi kendini süren arabalar, makul bir şekilde video kameralarla donatılacak. Bu, sürücüsüz otomobilin sürüş sahnesinin video görüntülerini almasını sağlar. Buna karşılık, kendi kendini süren arabadaki bilgisayarlarda çalışan AI sürüş sistemi, toplanan videoyu hesaplamalı olarak incelemeyi ve yolun nerede olduğunu, yakındaki arabaların nerede olduğunu, yayaların nerede olduğunu vb. Kendi kendini süren arabaların 101 temel ilkelerini anlattığımın farkındayım.

Otonom aracın dışına monte edilmiş video kameralar var ve dışarıyı gösteriyorlar. Buna ek olarak, genel olarak, kendi kendini süren arabanın içine doğru yönelen aracın üzerinde veya içinde video kameralar olmasını bekleyebilirsiniz. Neden öyle? Kolay kolay, çünkü otonom aracın içinde olup bitenleri videoya çekmek için birçok önemli kullanım olacak.

Kendi kendini süren bir arabada gezintiye çıktığınızda, artık sürücü olmanıza gerek yok. O zaman kendi kendini süren bir arabanın içindeyken ne yapacaksın?

Yapabileceğiniz bir şey, evde veya ofiste başkalarıyla etkileşim kurmak olacaktır. İşte burada, kendi kendine giden araba ile bir saatlik sürüş süresi alacağınızı söyleyecek olan işe gidiyorsunuz ve zaten iş gününüze Zoom benzeri çevrimiçi gerçek zamanlı etkileşimli bir oturum yaparak başlayabilirsiniz. Kendi kendini süren arabanın içine doğru bakan kameralar sayesinde sizi görebilirler. Bunları belki de kendi kendini süren arabanın içindeki bir LED ekranda görebilirsiniz. Günün sonunda, eve dönerken, akşam ödevlerini yapmaya başlayan çocuklarınızla benzer bir interaktif video tartışması yapabilirsiniz.

Başka bir kullanım, ders almak için olacaktır. Artık araba sürerken zaman kaybetmenize gerek olmadığına göre, sürücüsüz bir arabanın içindeki bu çıkmaz zamanı becerilerinizi geliştirmeye veya bir sertifika ya da derece almaya dönüştürebilirsiniz. İçe dönük kameralar aracılığıyla eğitmeniniz sizi görebilir ve eğitiminizin nasıl ilerlediğini tartışabilir.

Yine başka bir kullanım, kendi kendini süren arabalardaki sürücülerin çılgına dönmemesini sağlamak olacaktır. İnsanla çalışan bir arabada, sürücü genellikle sürücülerin iç mekanı grafiti ile işaretlemek gibi saçma sapan şeyler yapmasını engelleyen yetişkin bir varlıktır. Yapay zeka tabanlı kendi kendini süren arabalara ne olacak? Bazıları, sürücülerin araçların içini yırtıp atmayı tercih edeceğinden endişe ediyor. Bunu denemek ve önlemek için, kendi kendini süren arabaları kullanan araç paylaşım şirketi, insanların otonom araç içindeyken ne yaptığını izlemek için büyük olasılıkla içe bakan video kameralar kullanacak.

Sürüş sahnesini ayırt etmek için dışarıyı işaret eden kameralara ek olarak, sürücüsüz arabaların içini gösteren video kameralarımız olacağına inandığınızı varsayıyorum.

Gezici göz olarak adlandırdığım şeye artık hazırsınız, şuradaki analizime bakın: buradaki bağlantı.

İlk olarak, dışarıyı gösteren video kameraları düşünün.

Kendi kendini süren araba nereye giderse gitsin, kameraların gördüğü her şeyi potansiyel olarak videoya kaydedebilecek. Birini evinden alıp markete götüren kendi kendine giden bir araba, bir mahalleyi geçecek ve video sadece karayolunu değil, aynı zamanda görüş alanı içinde olan her şeyi de kaydedecek. Ön bahçelerinde oynayan bir baba ve oğul. Ön verandasında oturan bir aile. Devam ediyor ve gidiyor.

Şu anda, halka açık yollarda o kadar az kendi kendine giden arabamız var ki, günlük aktivitelerin videosunu çekme yeteneği nispeten az ve önemsiz.

Sonunda güvenli ve yaygın sürücüsüz arabalar elde ettiğimizi hayal edin. Binlercesi. Belki milyonlar. Bugün ABD'de yaklaşık 250 milyon insan güdümlü arabamız var. Sonunda, bunların yerini hemen hemen kendi kendine giden arabalar alacak veya artık kullanılmayacak ve yollarımızda ağırlıklı olarak kendi kendine giden arabalara sahip olacağız. Bu kendi kendini süren arabalar, yapay zeka tarafından sürülmektedir ve bu nedenle esasen 24×7 dolaşımda olabilir. Dinlenme molası yok, banyo molası yok.

Video verileri, OTA (Over-The-Air) elektronik ağ bağlantıları aracılığıyla bu sürücüsüz arabalardan yüklenebilir. Kendi kendini süren arabalar, araca indirilen en son AI yazılım güncellemelerini almak için OTA'yı kullanacak. Ek olarak, OTA, sürücüsüz arabadan bulut tabanlı bir veritabanına veri yüklemek için kullanılabilir.

Hepsi, yüklenen bu verileri bir araya getirmenin mümkün olacağını söyledi. Dikiş ile, herhangi bir günde, yoğun bir şekilde kendi kendine giden arabaların kullanıldığı herhangi bir yerde dışarı çıkan herkesin günlük gelip gitmelerini potansiyel olarak bir araya getirebilirsiniz.

Bu, hakkında uyarıda bulunduğum gezici göz.

Artık ÇKP çalışmasını bu tür bir yetenekle birleştirebiliriz. Bir hükümetin toplanan tüm bu video verilerine erişimi olduğunu varsayalım. Daha sonra günlük yaşam seyahatleriniz boyunca nereye, günün hangi saatinde gittiğinizi tespit etmek için AI tabanlı bir yüz tanıma algoritması kullanabilirler. Buna ek olarak, muhtemelen yüzünüzde sadık bir ifadeye sahip olup olmadığınızı görmek için “sadakat” AI tabanlı analizörlerini kullanabilirler.

Bir Salı öğleden sonra yerel bir lokantada sandviç almak için yürüdüğünüzü hayal edin. Yoldan kendi kendine giden arabalar geçiyordu. Bir şeyler yemek için beş dakikalık yürüyüşünüzü yaparken birçok video sizi yakaladı. Veriler merkezi bir veritabanına yüklendi. Hükümet, AI yüz tanıma programını veriler üzerinde çalıştırdı.

AI'nın yüzünüzde vefasız bir ifadeye sahip olduğunuza "kararlı" olduğu ortaya çıktı.

Belki bu vefasız bakış sadece bir an için oldu. Bir sokağın köşesinde ışığın değişmesini bekliyordunuz, böylece caddeyi geçip lokantaya gidebildiniz. O anda, Walk sembolü için çok uzun süre beklemek zorunda kaldığınız için hafif bir tiksinti hissettiniz. Bu, hükümete olan sadakatsizliğinizin bir göstergesi miydi?

Evet, hesaplamalı olarak hesaplanan yapay zeka, o anda fazlasıyla sadakatsizdiniz. O gece eve döndüğünüzde, hükümet tutuklanmanızı ayarladı.

Fakat bekleyin, dahası var.

Video kameraların da içe dönük olduğunu unutmayın.

Aynı Salı günü, kendi kendini süren bir arabada işe giderken video kameralar her anınızı kaydediyordu. Bu, merkezi bir veritabanına yüklendi. Sadakatsizlik için yüz kalıplarını analiz eden AI yazılımı, ofise yolculuk sırasında yüz ifadelerinizi hesaplamalı bir kalıp incelemesi yaptı.

Bir noktada, rastgele otonom aracın dışına bakıyordunuz ve yolu kısmen kapatan ve AI sürüş sisteminin kendi kendini süren arabayı yavaşlatmasına neden olan bir inşaat işçisini fark ettiniz. Bir an için yüzünüz, trafiği yavaşlatan bu inşaat işçisine alaycı bir bakış attı.

AI yüz modeli analizi, bunu hükümete sadakatsizliğin bir işareti olarak yorumladı.

Bir günde sana karşı iki saldırı.

İnce buz üzerinde yaşıyorsun.

Tabii ki, AI'nın sadakatinizi belirleyebilme konusunda “doğru” veya “yanlış” olup olmadığı bu bağlamda neredeyse önemsizdir. İşin özü, yapay zekanın bu amaç için devreye sokulmuş olmasıdır. Yapay zekayı dağıtan insanlar, yapay zekanın bu tür bir görev için uygun bir kullanım olup olmadığını umursayabilir veya umursamayabilir. Yapay zeka, teknolojik geçerliliğin kendisinden bağımsız olarak hükümet kontrolüne izin verir.

Bu yüz taramayı kapsar.

Sonunda (iddia edilen) beyin dalgası taraması yapmak için herhangi bir tür taşınabilir uygun maliyetli cihaza sahipsek, bu kesinlikle kendi kendini süren arabalara da dahil edilebilir. Video kameralar artık kesin bir şey. Bu çapta beyin dalgası tarama cihazlarına sahip olma olasılığı şu anda kartlarda yok, ancak açıkçası gelecek için tasavvur edilen bir şey.

Bir hükümetin kendi kendini süren arabaların kontrolünü ele geçirerek bir halkı nasıl ele geçirmeye çalışabileceğine dair araştırmam için bkz. buradaki bağlantı. Kötü niyetli bir aktörün de aynı şeyi yapmaya çalışabileceği benzer bir olasılık vardır, bkz. buradaki bağlantı. Bunlar, ilgili konuları kapsamak için korkutma taktikleri değildir ve bunun yerine, siber güvenliğin önemi ve bir toplum olarak her yerde kendi kendine giden arabaların başlangıcıyla ilgili olarak almamız gereken diğer önlemler hakkında bir uyarıdır. diğer otonom araçlar.

Sonuç

AI'nın sadakati belirlemek için kullanılmasıyla ilgili, biraz ayrı bir konu olduğunu düşündüğüm, ancak bazı tweet'lerin ve sosyal medyanın üzerinde durduğu bir hususu hızlı bir şekilde ele almak istiyorum.

Duyarlı yapay zekaya sahip olmadığımızı ve ne zaman olacağını bilmediğimizi daha önce belirtmiştim. Duyarlı yapay zekaya sahip olacağımız fikrini eğlendirelim. Bu durumda, aşağıdaki senaryoyu düşünün.

Duyarlı olmayan AI aracılığıyla, insanların hükümetlerine sadık olup olmadıklarını, yüz taramaları, beyin dalgası taramaları vb. Bu tamamen yetki sahibi insanlar tarafından yönetilir ve kullanılır. Az önce anlattığım rahatsız edici senaryo bu.

Öne çıkma zamanı.

AI duyarlı hale gelir. Şimdi potansiyel olarak bu duyarlı yapay zekaya, muhtemelen insanlarda sadakat ve sadakatsizliği belirleme konusunda yaygın bir yetenek verdik. İnsanları yok etmeyi düşünen kötü niyetli bir yapay zeka, bu yeteneği insanların gerçekten de sadakatsiz olacağına ve tamamen yok edilmesi gerektiğine karar vermek için kullanabilir. Ya da belki sadece yüzleri veya düşünceleri aracılığıyla sadakatsizlik belirtisi gösteren insanlar özellikle hurdaya çıkarılmalıdır.

Diğer bir açı ise yapay zekanın insanları köleleştirmek istemesidir, şuradaki tartışmama bakın. buradaki bağlantı.

AI'ya bu görevi yerine getirmesi için mükemmel bir hediye vermiş gibi görünüyoruz. Yerleştirdiğimiz mevcut altyapı, yapay zekanın biz insanları dikkatle izlemesini sağlıyor. Sadakatsiz bir yüz ifadesi ifade eden veya AI derebey(ler)i hakkında düşünenler, AI'nın gazabını hissedecekler.

Bunun bir ante artışı olduğunu söylediğimin farkındayım. Durumun böyle olduğundan emin değilim. Bana öyle geliyor ki, kaderimize doğrudan karar veren AI derebeylerine karşı, sadakati belirlemek için bir AI sistemi kullanan insan derebeylerine karşı, her iki önerme de özellikle arzu edilir görünmüyor.

Şimdilik son bir yorum.

Romalı bilgin ve filozof Marcus Tullius Cicero, sadakatten daha asil, daha saygıdeğer bir şey olmadığını belirtti. AI'nın önümüze çıkmasına ve korkunç yollarla “sadakat” ı askere almak ve sağlamak için bir araç haline gelmesine izin verebiliriz.

Yapay Zeka Etiğini Yapılacaklar listemizin en üstüne koymak için dikkate değer bir sebep.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- baskıcı-özerk-sistemlerin habercisi olabileceğinin kanıtı/