Yapay Zeka Etiği ve İnsanlara Dezenformasyon Konusunda Yardımcı Olmak İçin Yapay Zeka Kaynaklı Psikolojik Aşılama

Büyük dezenformasyon ve yanlış bilgi bolluğu hakkında ne yapacağız?

Her şey gözle görülür şekilde her geçen gün daha da kötüye gidiyor.

Belki Yapay Zeka (AI) kurtarmaya gelebilir. Evet, bu doğru, amansız dezenformasyon ve yanlış bilgilendirme tsunamimizle başa çıkmak için AI'nın faydalı kullanımlarından yararlanabiliriz. Bunu yapmaya çalışmak akıllıca olabilir. Potansiyel çözümün her yolu izlenmeye değer görünüyor.

Bir kenara, AI'nın şüphesiz olacağını hemen kabul etmek ve not etmek istiyorum. Ayrıca sen de sorunun bir parçası ol. İnsanların dezenformasyon ve yanlış bilgi üretmek için AI'dan kolayca yararlanabileceğine şüphe yok. Dahası, yapay zeka, dezenformasyon ve yanlış bilginin şaşırtıcı derecede geçerli görünmesini sağlamak ve insanları sunulan bilgilerin çekici bir şekilde doğru ve gerçek olduğuna inandırmak için sinsice kullanılabilir. AI'nın masaya getirdiği şeyin kesinlikle üzücü bir yüzü. Bu tartışmanın sonuna doğru bu olumsuz bilmeceye geri döneceğiz.

Şimdilik, gülen yüzlerimizi takalım ve yapay zekanın güçlü dizlerine dezenformasyon ve yanlış bilgi getirme konusunda nasıl faydalı olduğunu keşfedelim. Önemli bir alt akıntı, tüm bunların AI Etiği'nin hayati unsurlarıyla örtüşmesi olacaktır. AI Etiği ve Etik AI ile ilgili sütun kapsamım devam ediyor ve şunları içeriyor: buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Yapay zekanın dezenformasyon ve yanlış bilgilendirmeye karşı savaşta özellikle yararlı bir müttefik olabileceği şu temel yolları düşünün:

  • Hareket Halinde Durun: Yapay zeka, dezenformasyonu ve yanlış bilgiyi açığa çıkmadan önce tespit etmek ve tüketmeye çalışmak için kullanılabilir.
  • Görülmeden Önce Filtrele: AI, dezenformasyonu ve yanlış bilgiyi filtrelemek için kullanılabilir, böylece onu görme konusunda endişelenmenize gerek kalmaz
  • Bağışıklık Olmaya Hazırlayın: AI, hazırlığınızı ve dezenformasyon ve yanlış bilgilerle (bir şekilde bir tür psikolojik aşı sağlamak olarak bilinir) mücadele etme yeteneğinizi desteklemek için kullanılabilir.
  • Diğer

Listelenen ilk madde işareti, içerik dünyaya yayılmadan önce mümkün olan en kısa sürede dezenformasyon ve yanlış bilgilendirmeyi durdurmaya çalışmayı gerektirir.

Bu oldukça sorunlu bir yaklaşımdır. Bazıları bunun konuşma özgürlüğünü bastırmaya yönelik bir Büyük Birader girişimi olabileceğini yüksek sesle tartışacaktır. Bu yapay zeka ne kadar ileri gidebilir? İnsanların görüşlerini özgürce ifade etmelerini engelleyebilir mi? Bu, ürkütücü bir şekilde, yapay zekanın kaygan bir eğimi haline gelebilir ve nihayetinde masum bir şekilde en iyi niyetlerle başlayan kötü sonuçların en kötü kabusu haline gelebilir.

Resmi anladığına eminim.

İkinci madde işareti biraz daha ılımlı ve bizim için içeriği filtrelemek için AI kullanabileceğimizi gösteriyor.

Çeşitli haberlerden ve diğer kaynaklardan gelen tüm veri akışlarınızı tarayacak bir AI filtre botunuz olabilir. AI, kişisel kriterlerinize uyan herhangi bir dezenformasyonu veya yanlış bilgiyi yakalamak için uyarlanmıştır. Dolayısıyla, böyle bir senaryoda, bir Big Brother sansür durumu değildir. Yapay zekayı ve gerçek gelen bilgi kutunuzu sizin adınıza nasıl filtrelediğini kontrol edersiniz.

Kulağa oldukça hoş geliyor.

Yine de dikkate değer bazı endişeler var.

Örneğin, görüşlerimizde zaten büyük ölçüde kutuplaşmış durumdayız ve yapay zekanın bu kullanımı bu kutuplaşmayı daha derin ve daha karanlık hale getirebilir. 24 gün 7 saat kesintisiz çalışan bu akıllı AI ile, potansiyel olarak dezenformasyon ve yanlış bilgi olarak sınıflandırdığınız bir parça bilgiyi asla görmenize gerek duymayacağınızı hayal edin. Polarize bakış açınızın artık bozulmadan kalması neredeyse garanti. Tüm gün boyunca ve dikkatinizi bekleyen bilgilere bakmak istediğinizde, her zaman tamamen önceden seçilmiştir ve sözde dezenformasyon ve yanlış bilgilere bakma şansınız yoktur.

Dezenformasyon ve yanlış bilgilendirmenin olabileceğini söylüyorum. sözde çünkü gerçekte neyin dezenformasyon ve yanlış bilgi oluşturduğuna dair muazzam miktarda tartışma var. Bazı uzmanlar, neyin dezenformasyon, neyin yanlış bilgi olduğunu belirlemenin mutlak bir temeli olduğu konusunda ısrar ediyor. Doğru ve yanlış vardır. Bir şeyin dezenformasyon veya yanlış bilgi olduğu hatasına düşmeden her şey hesaplanabilir.

Herkes olayları bu kadar net görmez.

Atasözü açık veya kapalı birbirini dışlayan ikilik karşıtlığının yanıltıcı bir zihin çerçevesi olduğu söylenir. Bir kişinin dezenformasyonu, başka bir kişi için dezenformasyon olarak görülmeyebilir. Aynı şekilde yanlış bilgilendirme konusunda. İddia, dezenformasyon ve yanlış bilginin doğası ve büyüklüğü açısından çeşitlilik gösterdiğidir. Tüm bilgileri kesin olarak bir yığın halinde sınıflandırmaya çalışmak, el sallamanın önerdiğinden çok daha zordur.

İşin özü, AI'yı bir filtreleme mekanizması olarak kullanma konusundaki ikinci madde işaretinin kendi ödünleşimlerine sahip olmasıdır. AI'nın giderek daha fazla bu kullanıma gireceği konusunda çok az soru var. Aynı zamanda, bu tür yapay zekanın ön plana çıkaracağı zorluklara da dikkat etmemiz gerekiyor. Dezenformasyon ve yanlış bilgilendirme için bir filtre olarak AI, bir gümüş kurşun veya smaç değildir.

Bu bizi üçüncü noktaya, yani insanları dezenformasyon ve yanlış bilgilendirme ile başa çıkmada daha iyi hale getirmek için AI kullanma olasılığına götürüyor.

Bu bağlamda AI kullanmanın bu üçüncü yolu hakkında muhtemelen çok şey duyduğunuzdan şüpheliyim. Yeni ortaya çıkmaya başlıyor. Şimdi, muhtemelen büyüyecek ve kademeli olarak kullanıma girecek bir şeyin en ileri noktasındasınız. Bu popülerlik arttıkça, bunun uygun bir yaklaşım olup olmadığı konusundaki tartışmaların da oldukça görünür hale geleceğini lütfen bilin.

Sorunun bir kısmı, AI'nın bazılarının aşağılayıcı bir şekilde adlandırdığı şey için bir şekilde kullanılmasıdır. insanlarla akıl oyunları oynamak.

Bu uğursuz görünüyor.

Bu aynı zamanda bizi AI Etiği alanına da getiriyor.

Tüm bunlar aynı zamanda günümüzün yapay zekası ve özellikle Makine Öğrenimi ve Derin Öğrenmenin bir teknoloji biçimi olarak kullanımı ve bunun nasıl kullanıldığı hakkında ayık bir şekilde ortaya çıkan endişelerle de ilgilidir. Görüyorsunuz, ML/DL'nin genel olarak halk tarafından yapay zekanın antropomorfize edilmesini içeren, ML/DL'nin ya duyarlı AI olduğuna ya da yakın olduğuna (değil) inanmayı ya da varsaymayı seçmeyi içeren ML/DL kullanımları var. Ek olarak, ML/DL, istenmeyen veya tamamen uygunsuz veya etik veya yasal perspektiflerden yasa dışı olan hesaplama modeli eşleştirme yönlerini içerebilir.

Genel olarak AI'dan bahsederken ne demek istediğimi netleştirmek ve ayrıca Makine Öğrenimi ve Derin Öğrenmeye kısa bir genel bakış sağlamak faydalı olabilir. Yapay Zekanın neyi çağrıştırdığı konusunda büyük bir kafa karışıklığı var. Ayrıca, özellikle bu söylemin geri kalanının ayrılmaz bir parçası olacak olan Yapay Zeka Etiği ilkelerini size tanıtmak istiyorum.

AI Hakkındaki Kaydı Belirtmek

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok.

Bizde bu yok.

Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı ya da duyarlı yapay zekanın bir şekilde mucizevi bir şekilde bir hesaplamalı bilişsel süpernova biçiminde kendiliğinden ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez (genellikle Tekillik olarak adlandırılır, bkz. buradaki bağlantı).

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğini” anlayın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi ve Derin Öğrenmeyi kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Sorunun bir kısmı, bilgisayarları ve özellikle yapay zekayı antropomorfize etme eğilimimizdir. Bir bilgisayar sistemi veya yapay zeka, insan davranışıyla ilişkilendirdiğimiz şekillerde hareket ediyor gibi göründüğünde, sisteme insani nitelikler atfetmek için neredeyse ezici bir dürtü vardır. Duyarlılığa ulaşma şansı konusunda en uzlaşmaz şüpheciyi bile yakalayabilen yaygın bir zihinsel tuzaktır.

Bir dereceye kadar, bu yüzden AI Etiği ve Etik AI çok önemli bir konudur.

Yapay Zeka Etiği ilkeleri, uyanık kalmamızı sağlar. AI teknoloji uzmanları zaman zaman teknolojiyle, özellikle de yüksek teknolojinin optimizasyonu ile meşgul olabilirler. Mutlaka daha büyük toplumsal sonuçları dikkate almıyorlar. Bir AI Etiği zihniyetine sahip olmak ve bunu AI geliştirme ve saha oluşturmaya entegre etmek, AI Etiğinin firmalar tarafından nasıl benimsendiğinin değerlendirilmesi de dahil olmak üzere uygun AI üretmek için hayati önem taşır.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazı öldüreceğimiz konusunda önceden uyarıyorlar. Örneğin şu adresteki kapsama alanıma bakın: buradaki bağlantı.

Önceki sütunlarda, yapay zekayı düzenleyen yasalar oluşturmak ve yürürlüğe koymak için çeşitli ulusal ve uluslararası çabaları ele aldım, bkz. buradaki bağlantı, örneğin. Ayrıca, yaklaşık 200 ülkenin benimsediği UNESCO AI Etiği seti gibi Birleşmiş Milletler çabası da dahil olmak üzere, çeşitli ulusların belirlediği ve benimsediği çeşitli AI Etiği ilkelerini ve kılavuzlarını da ele aldım, bkz. buradaki bağlantı.

İşte daha önce yakından araştırdığım AI sistemleriyle ilgili Etik AI kriterlerinin veya özelliklerinin yararlı bir temel taşı listesi:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Bu AI Etik ilkelerinin, AI geliştirme çabalarını yönetenlerin yanı sıra AI geliştiricileri tarafından ve hatta nihayetinde AI sistemlerinde bakım ve onarım yapanlar tarafından ciddiyetle kullanılması gerekiyor. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etik kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Burada daha önce vurgulandığı gibi, AI'yı tasarlamak ve sahaya koymak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

İşleri basit tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasına odaklanalım.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Artık, dezenformasyon ve yanlış bilgilendirme ile ilgili psikolojik aşılamayı teşvik etmenin bir yolu olarak AI'nın rolünü yeterince tartışmak için sahneyi hazırladığıma inanıyorum.

İnsanların Zihnine Girmek

Yanlış bilgi ve dezenformasyonun altında yatan temel bilgilerle başlayalım.

Genel olarak, yanlış bilgi, yanlış veya yanıltıcı bilgi anlamına gelir.

Dezenformasyon, kabaca aynıdır, ancak eklenen unsurlardan oluşur. niyet. Bilgi olduğunda, normalde bilgiyi dezenformasyon olarak yorumlarız. yönelik yanlış bilgilendirmek.

Şu anda saatin gece 10 olduğunu söyleyebilirim, bunun yanlış olduğunu söyleyebiliriz çünkü saat gerçekten gece yarısıdır. Size saat 10'u bir önsezi olarak söyleseydim ve yanıltıcı olmaya çalışmasaydım, genellikle sizi yanlış bilgilendirdiğimi söylerdik. Yanlış bilgi aktardım. Belki tembeldim ya da belki de gerçekten saatin 10 olduğuna inandım. Öte yandan, saat 10'dan bahsetmiş olsaydım, kasıtlı olarak sizi aldatmak ve saatin 10 olduğunu düşünerek aldatmak istedim ve aslında gece yarısı olduğunu biliyordum, bunun bir tür dezenformasyon olduğu söylenebilirdi. .

Genel olarak bilginin dikkate değer bir yönü, tipik olarak bilgiyi yayabilmemizdir ve bu nedenle bilgi bir şekilde yaygınlaşabilir. Bilgi, geniş anlamda, gerçek anlamda su gibi akabilir.

Size saatin gece 10 olduğunu söylüyorum. Artık o özel bilgiye sahipsiniz. Yakındaki bir grup insana gecenin 10'u olduğunu yüksek sesle bağırabilirsiniz. Artık onlar da aynı bilgiye sahipler. Belki de bu insanlardan bazıları cep telefonlarına ulaşır ve diğerlerini arayıp saatin 10 olduğunu söylerler. Sonuç olarak, bilgi yayılabilir veya paylaşılabilir ve bazen çok hızlı, diğer durumlarda çok yavaş yapılabilir.

Bir anlamda, bilginin viral olabileceğini iddia edebilirsiniz.

Viral hale gelen bu bilgi olgusunu tanımlamaya yardımcı olan, özellikle görmemiş olabileceğiniz veya kullanmamış olabileceğiniz bir kelime veya terminoloji var. infodemik. Bu kelime hem bilginin hem de salgın olmanın bir karışımıdır. Genel olarak, bir bilgi salgını, yanlış bilgilerin veya dezenformasyonun yayılmasını içeren koşullarla ilişkilidir. Buradaki fikir, yanlış veya yanıltıcı bilgilerin, istenmeyen hastalık veya hastalıkların yayılmasına benzer şekilde, istenmeyen bir şekilde viral hale gelebileceğidir.

Saatin gece 10 olduğu örnekte, bu görünen gerçek, yakındaki insan grubuna yayılan bir bilgi parçasıydı. Onlar da gerçeği başkalarına yayarlar. Saat 10 sahteyse, o zaman bu belirli dezenformasyon veya yanlış bilgilendirme örneği başkalarına da yayıldı. Bilginin yanlış bilgi veya muhtemelen dezenformasyon olduğunu bilmiyor olabilirler.

Tüm bu tanımların ve temellerin mantıklı göründüğüne ve şimdiye kadar gemide olduğunuza inanıyorum.

Harika, devam edelim.

Sizi çok fazla büyü ve endişe uyandıran bir şeye gizlice yönlendirdim. Ana fikir, hangi hastalıkların viral olarak yaptığı ile hangi yanlış bilgi veya dezenformasyonun viral olarak yaptığı arasında makul derecede sağlam paralellikler olduğudur.

Herkes bu iddia edilen paralellikler ile aynı fikirde değil. Bununla birlikte, ilgi çekici ve dikkate değerdirler.

Ayrıntıya girmeme izin ver.

Görüyorsunuz, benzer bir olasılığı yanlış bilgi ve dezenformasyonun yayılmasıyla karşılaştırmak için insan kaynaklı hastalıklara ve yayılan hastalıklara atıfta bulunmak gibi kullanışlı bir benzetme yapmaya çalışabiliriz. Hastalıkların yayılmasını durdurmak ve denemek için, hastalığın potansiyel yayılımını erken tespit etmeyi ve ortaya çıkan hastalıklı bir kaynak noktası içermeyi hedefleyebiliriz. Yayılan bir hastalıkla başa çıkmak için başka bir yaklaşım, bir maske veya koruyucu giysi takmanın ihtiyatlı kullanımı yoluyla hastalığa yakalanmaktan korunmak olacaktır. Üçüncü bir yaklaşım, hastalıkla ilgili bağışıklığınızı denemek ve oluşturmak için aşı yaptırmaktan oluşabilir.

Hastalıklarla başa çıkmaya yönelik aynı yaklaşımların, yanlış bilgi ve dezenformasyonla uğraşmaya açıkça benzetilebileceği konusunda tam bir döngüye girdik. Daha önce, özellikle (daha önce belirtildiği gibi) dezenformasyon ve yanlış bilgilendirme ile başa çıkmaya çalışmak amacıyla Yapay Zekayı kullanmaya yönelik benzer çabalar olduğundan bahsetmiştim:

  • Hareket Halinde Durun: Yapay zeka, dezenformasyonu ve yanlış bilgiyi açığa çıkmadan önce tespit etmek ve tüketmeye çalışmak için kullanılabilir.
  • Görülmeden Önce Filtrele: AI, dezenformasyonu ve yanlış bilgiyi filtrelemek için kullanılabilir, böylece onu görme konusunda endişelenmenize gerek kalmaz
  • Bağışıklık Olmaya Hazırlayın: AI, hazırlığınızı ve dezenformasyon ve yanlış bilgilerle (bir şekilde bir tür psikolojik aşı sağlamak olarak bilinir) mücadele etme yeteneğinizi desteklemek için kullanılabilir.
  • Diğer

Üçüncü yön burada en çok ilgiyi çekecektir.

İşte anlaşma.

Hastalıkların genellikle insan vücudu. Yanlış bilginin ve dezenformasyonun nasıl meydana geldiğine ilişkin benzetmeyle, kirli bilgilerin insan zihni. Evet, muhtemelen aklınıza gelen dezenformasyon veya yanlış bilgilerle karşılaşabilirsiniz. Dezenformasyon veya yanlış bilgi, potansiyel olarak düşünme şeklinizi bozar veya zehirler.

Bir insan vücudu, kendisini hastalıklarla temas etmeye hazırlamak için aşılanabilir. Aynı şeyi insan zihni için yapıp yapamayacağımız konusunda büyük bir soru ortaya çıkıyor. Aklınıza dezenformasyon veya yanlış bilgi geldiğinde buna hazır olduğunuza ve buna göre aşılanmış olduğunuza dair zihni aşılamaya çalışmak mümkün müdür?

olarak bilinen bir çalışma alanı psikolojik aşı Zihnin gerçekten de yanlış bilgi veya dezenformasyonla başa çıkmaya hazır olma anlamında aşılanabileceğini öne sürüyor.

Psikolojik aşılama ve bazen ne yapıyor diye etiketlenenlerle ilgili yakın tarihli bir araştırma çalışmasında bu açıklamayı göz önünde bulundurun. ön ödeme:

  • “Yanlış bilgiyi çürütmek de sorunlu çünkü yanlış bilgiyi düzeltmek, sürekli etki etkisi olarak bilinen bir fenomen olan etkilerini her zaman tamamen ortadan kaldırmaz. Buna göre, ifşanın aksine, ön ifşa etme, beklenen yanlış bilgilere maruz kalmaya karşı önleyici bir şekilde dayanıklılık oluşturmanın bir yolu olarak önem kazanmıştır. Bu yaklaşım genellikle aşılama teorisine dayanır. Aşılama teorisi, bir tıbbi bağışıklama analojisini takip eder ve tıpkı tıbbi aşıların patojenlere karşı fizyolojik direnç oluşturmasına benzer şekilde, istenmeyen ikna girişimlerine karşı psikolojik direnç oluşturmanın mümkün olduğunu öne sürer.Bilim Gelişmeler, 24 Ağustos 2022, ortak yazarlar Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje ve Stephan Lewandowsky tarafından yazılan “Psikolojik Aşı, Sosyal Medyadaki Yanlış Bilgilere Karşı Dayanıklılığı Artırıyor”).

Saatin gece 10 olduğuyla ilgili örneğime dönersek, size daha önce bazen iddia edilen saatin gerçek saat olmadığını söylediğimi varsayalım. Bundan böyle, talep edilen zamanlara karşı dikkatli olmanız gereken bir aşılama biçiminiz var. Bu aşı, sizi dezenformasyon veya yanlış bilgilendirme olduğu iddia edilen zamanlarla temasa geçmeye hazırladı.

Sizi birkaç yıl önce iddia edilen zamanların gerçek zamanlar olmadığı konusunda uyarmış olsaydım, uzun zaman önceki uyarıyı düşünmeme ihtimaliniz var. Böylece, önceki aşılama (diyelim ki) yıprandı. Sana aşılamamın hızlandırılması gerekebilir.

Ayrıca aşının, gerektiğinde kullanmanız için yeterince spesifik olmaması ihtimali de vardır. Yıllar önce sizi hak talebinde bulunulan sürelere karşı gerçek süreler konusunda uyarmış olsaydım, bu aşırı geniş olabilir. Saat 10'da size söylendiği belirli bir durumda aşılama çalışmayabilir. Bu anlamda, belki de benim aşım, iddia edilen saat 10 olduğunda dikkatli olmanız gerektiği yönünde olmalıydı. Tabii ki, hastalıklar söz konusu olduğunda aşılar bir şekilde aynıdır, bazen bilinen rahatsızlıklara çok spesifik olurken, diğer durumlarda geniş bir spektruma sahiptir.

1961'de Columbia Üniversitesi'nden William McGuire tarafından psikolojik aşılama üzerine yapılan ve sık sık alıntılanan bir araştırma çalışması, artık bu çalışma alanında bir klasik olarak kabul edilmektedir. O zaman yaptığı şu önemli noktaları ilginizi çekebilir:

  • "Böyle genelleştirilmiş bağışıklama, iki mekanizmadan herhangi birinden kaynaklanabilir. Önceden maruz kalma, kişiyi her zaman kabul ettiği “gerçeklerin” gerçekten savunmasız olduğunu fark etmesi için şok edebilir, bu nedenle onu inancını savunmaya teşvik edebilir ve sonuç olarak, geldiklerinde güçlü karşı argümanlara karşı daha dirençli hale gelebilir. Alternatif olarak, ön-teşhirde yer alan çürütmeler, inanca karşı sonradan sunulan tüm karşı savların daha az etkileyici görünmesini sağlayabilir” (William McGuire, “Resistance to Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Sosyal Psikoloji, 1961).

Bu aşılama ve bağışıklama benzetmesini, yanlış bilgilendirme ve dezenformasyon alanıyla yararlı ve uygun bir karşılaştırma buluyor musunuz?

Bazıları yapar, bazıları yapmaz.

Bu tartışmanın amaçları için, lütfen öncülün makul ve uygun olduğunu kabul edin.

İnsanların zihinlerini nasıl aşılamaya veya aşılamaya çalışacağız?

İnsanların zihinlerini aydınlatabilecek kitaplar okumasını sağlayabiliriz. Onlara bunu anlatabiliriz veya video izlemelerini veya ses kasetlerini dinlemelerini sağlayabiliriz. Vb.

Ve aynısını yapmak için AI kullanabiliriz.

Bir AI sistemi, aşılayıcınız olarak tasarlanabilir. İnternete bakmak gibi çevrimiçi olmaya başladığınızda, yapay zeka tabanlı bir uygulama sizi çevrimiçi yolculuğunuza hazırlayabilir. Yapay zeka size bu şekilde etiketlenmiş küçük bir miktar dezenformasyon besleyebilir ve kasıtlı olarak yanlış olan bir şey görmek üzere olduğunuzu anlamanıza izin verebilir.

Bu AI ile beslenen dezenformasyona maruz kaldıktan sonra, zihniniz artık internette vahşi doğada karşılaşabileceğiniz dezenformasyon veya yanlış bilgi ile başa çıkmaya hazırlanıyor. Zihniniz hazırlandı. Voila, internette, Mars'tan gelen uzaylı yaratıkların zaten burada dünyada oldukları ve açık bir şekilde saklandıkları iddia edilen bir gerçeği öne süren bir blog görüyorsunuz, ancak bu görünen dezenformasyon veya yanlış bilgi, önceki aşılama nedeniyle zihniniz tarafından kolayca reddediliyor (peki, sonra tekrar, belki doğrudur ve gerçekten buradalar!).

Her neyse, umarım şimdi yapay zekanın insanları dezenformasyon veya yanlış bilgilendirme konusunda aşılamaya veya bağışıklamaya nasıl yardımcı olabileceğini anlayabiliyorsunuzdur.

Dezenformasyon veya yanlış bilgi aşılayıcı olarak işlev görecek çeşitli AI uygulamaları geliştirilmektedir. AI, geniş ve genel bir bağışıklama görünümü sağlayan aşılama sağlamaya çalışabilir. AI, daha spesifik aşılama biçimleri için de tasarlanabilir. Ayrıca, AI, özel ihtiyaçlarınıza veya ilgi alanlarınıza göre ayarlanmış kişiselleştirilmiş bir temelde çalışabilir. Bu alandaki gelişmiş yapay zeka, aynı zamanda, sözde bağışıklama aşılarını oluştururken ve sunarken tolerans seviyenizi, zihinsel emilim oranınızı, tutma kapasitenizi ve diğer faktörleri belirlemeye çalışacaktır.

Oldukça kullanışlı görünüyor.

Tehlikeli Akıl Oyunları Oyuncusu Olarak AI

Bu şekilde kullanılan yapay zeka ilk bakışta oldukça kullanışlı görünebilir (hey, bundan bir saniye önce bahsetmiştim).

Endişe verici ve belki de korkutucu olan bir dizi olası olumsuz taraf ve sorun var.

Sütunlarımda genellikle yapay zekanın çift kullanımlı kapasitelerini tartışırım, örneğin bkz. buradaki bağlantı. AI, insanlığa hayati bir katkıda bulunabilir. Ne yazık ki, yapay zeka da birçok tehlike ve talihsiz tuzaklarla karşı karşıya.

Bir inkülatör olarak AI durumu için, bu açıklayıcı AI Etiği ile ilgili konuları ele alalım:

  • İnsanlar tarafından olumsuz reaksiyonlar
  • İnsanların tepkisiz tepkileri
  • AI yanlış hedefleme
  • AI yetersiz hedefleme
  • Yapay Zekanın Siber İhlali
  • Diğer

Bu endişeleri kısaca inceleyeceğiz.

İnsanlar Tarafından Olumsuz Tepkiler

Bu tür AI tabanlı aşılama alan bir insanın ters bir reaksiyona sahip olduğunu veya ters bir etki ürettiğini varsayalım.

Kişi bağışıklamayı yanlış yorumlayabilir ve aldığı herhangi bir bilgiyi aniden kabul edemez hale gelebilir. Tüm bilgileri engelliyorlar. Yapay zeka onları bir şekilde bebeği banyo suyuyla dışarı atmaya teşvik etti (eski bir söz, belki de emekli olmaya değer). Kişi sadece dezenformasyon ve yanlış bilgilendirme ile baş etmeye çalışmak yerine, tüm bilgilerin her zaman yanlış olduğuna karar vererek tepki göstermiştir.

İnsanların aşırıya kaçmasını istediğimizi sanmıyorum.

AI'nın teşvik edebileceği çok sayıda olumsuz reaksiyon vardır. Bu kısmen AI'nın aşılamayı nasıl gerçekleştirmeye çalıştığından kaynaklanmaktadır, ancak aynı zamanda konunun bir kısmını aşıyı alan insanın ayaklarına bırakmamız gerekir. Aynı AI aşısını alan diğerlerinin yapmadığı şekilde vahşi veya tuhaf şekillerde tepki vermiş olabilirler.

Yine bunu hastalık aşılarının analojisine benzetebilirsiniz.

Kısacası, bu tür AI çabalarından yararlanıldığında, bunların olumsuz etkileri en aza indirmeye çalışan sorumlu yollarla yapılması önemli olacaktır. Olumsuz bir reaksiyonun meydana gelip gelmediğini tespit etmek için AI'nın bir takip yönü de olmalıdır. Tespit edilen bir olumsuz reaksiyon varsa, AI, kişiye olumsuz yanıtında yardımcı olmaya ve yanıtı aşmaya veya hafifletmeye çalışmak için tasarlanmalıdır.

İnsanların Tepki Vermeyen Tepkileri

Diğer bir olasılık ise, AI ile beslenen aşılamanın alıcı kişi üzerinde hiçbir etkisinin olmamasıdır.

Bir kişi, yanlış bilgi veya dezenformasyonla ilgili olarak AI tabanlı bir aşı alır. Çoğu insan bunu “alır” ve aşılanırken, hiç tepki vermeyecek insanlar mutlaka vardır. Aşıdan hiçbir şey öğrenmiyorlar. Yapay zekanın onları tüm veya belirli yanlış bilgi veya dezenformasyon türleri için bağışıklaştırma girişimine yanıt vermiyorlar.

Bir kez daha, bu, hastalık aşılarıyla karşılaştırılabilir.

AI böyle bir durumla mücadele etmek için tasarlanmalıdır.

AI Yanlış Hedefleme

Bir yapay zekanın, X konusu olduğunu söyleyeceğimiz belirli bir konu hakkında insanları aşılamayı umduğunu hayal edin, ancak bunun yerine Y konusunun ele alındığı ortaya çıktı. AI yanlış hedef alıyor.

Bu iki yönlü bir sorundur. İlk olarak, X konusu, AI aşılayıcının varsayılan ve umut edilen amacı olarak ele alınmamıştır. İkincisi, Y konusu işleniyor ama insanların bu konuda aşılanmasını istememiş olabiliriz.

Oops.

Sorular bol. Bunun olması engellenebilir miydi? Olursa, Y aşısı konusunu geri alabilir miyiz? X aşılama konusunu ele alabilir miyiz, yoksa başlangıçta AI tarafından yanlış hedeflenmesi nedeniyle kişi daha az alıcı mı yoksa alıcı olmayan mı olacak?

Birçok sorunlu endişe ortaya çıkıyor.

AI Yetersiz Hedefleme

Bir yapay zeka, Z konusu üzerinde bir aşılama sağlar. Aşıyı alan kişilerin minimum veya neredeyse ihmal edilebilir bir reaksiyona sahip olduğu görülmektedir. Aşı tutunmak için yetersizdi.

Bunun kolayca çözüldüğünü hemen iddia etmeye cazip gelebilirsiniz. Tek yapmanız gereken aşılamayı tekrarlamak. Belki evet belki hayır.

AI aşılaması o kadar sınırlı bir değere sahip olabilir ki, insanlara bunu yüzlerce kez deneyimleseniz de sonuç hala marjinal bir sonuçtur. Sadece tekrarlamak yerine aşılamayı hızlandırmanız gerekebilir.

Bu arada, AI ile beslenen aşılamayı artırmak için bir girişimde bulunulduğunu, ancak bunun aşırıya kaçtığını hayal edin. Yükseltilmiş sürüm hiper reaksiyonlara neden olur. Evet, kötüden daha kötüye geldik.

Yapay Zekanın Siber İhlali

Yapay zekanın, insanların dezenformasyondan ve yanlış bilgilerden aşılanmasına yardımcı olmak için yaygın olarak kullanıldığını tasavvur edin.

İnsanlarda genel bir güven hakimdir. Yapay zekanın kendilerine dezenformasyon ve yanlış bilgi olarak bilinen şeylere gözlerini açacak snippet'ler sunacağını biliyor ve bekliyorlar.

Görünüşe göre her şey yolunda ve güzel.

Kötü niyetli bir kişi, bir şekilde yapay zeka üzerinde bir siber ihlal gerçekleştirebilir. İnsanların dezenformasyon olmadığını düşünmelerini istedikleri bazı istenen dezenformasyonu gizlice AI'ya zorlarlar. AI, gerçek dezenformasyonun gerçek bilgi gibi görünmesini sağlayacak şekilde düzenlenmiştir. Ayrıca doğru bilgi dezenformasyon olarak gösteriliyor.

İnsanlar tamamen dalgın. Yapay zeka tarafından yanlış bilgilendiriliyorlar. Bunun da ötesinde, yapay zekaya bağımlı hale geldikleri ve yapay zekanın doğru şeyi yaptığına güvendikleri için, bu ihlal edilen yapay zeka için kanca, çizgi ve bataklığa düşüyorlar. Tereddüt etmeden.

Dezenformasyonun ne kadar kolay yayılabileceği göz önüne alındığında, kötü niyetli kişi, bu tür bir yapay zekanın varlığının, sinsi yalanlarını dünyanın her yerine yaymanın en kolay ve en hızlı yolu olduğunu düşünebilir. İronik olarak, elbette, esasen hastalığı yaymak için AI aşılayıcıdan yararlanmış olmak.

Sonuç

Yapay zekanın bizimle akıl oyunları oynaması gerekir mi?

Dezenformasyon ve yanlış bilgi aşılama için AI, tehditkar bir Truva atı olabilir mi?

Böyle bir kabus hakkında endişelenmek için önemli bir dava açabilirsiniz.

Diğerleri böyle bir olasılığa alay ederler. İnsanlar, yapay zekanın onları ne zaman kandırmaya çalıştığını bilecek kadar akıllı. İnsanlar böyle salyalara düşmeyecek. Sadece aptallar böyle bir yapay zeka tarafından kendilerini yanıltabilir. Bunlar olağan tepkiler ve karşı savlar.

İnsanlara ve insan doğasına tam olarak hayran olmaktan daha az hayran görünmek istemem, sadece insanların onları yanlış yönlendiren AI'ya düşebileceklerine dair yeterli gösterge olduğunu öne sürüyorum.

Belki de tüm bunların üzerinde beliren daha büyük bir sorun var.

Yapay zekayı kim yapar ve yapay zeka neyin dezenformasyon ve yanlış bilgi olduğuna algoritmik olarak nasıl karar verir?

Bugün dünyada, özellikle dezenformasyon ve yanlış bilgilendirmenin ne olduğu konusunda büyük bir çatışma yaşanıyor. Bazıları, gerçeklerin gerçekler olduğunu iddia eder, bu nedenle doğru bilgi ile yanlış bilginin ne olduğu konusunda hiçbir zaman bir karışıklık olamaz. Şeytan bazen ayrıntılarda gizli olsa da, bu kesin.

Şimdilik son bir not. Abraham Lincoln'ün ünlü bir sözü vardır: "Tüm insanları bazen, bazılarını her zaman kandırabilirsiniz, ancak tüm insanları her zaman kandıramazsınız."

İnsanlığın dezenformasyondan ve yanlış bilgilerden aşılanmasına yardımcı olmak için kullanılan yapay zeka, tüm insanların her zaman kandırılmamasını sağlamak için hayati bir araç olacak mı? Yoksa daha çok insanı daha çok kandırmak için kullanılabilir mi?

Zaman gösterecek.

Ve bu kesinlikle bir dezenformasyon veya yanlış bilgi değil.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-duce-psychological-inoculation-to-help-humans-with-desinformation/