Yapay Zeka Etiği, Yapay Zeka Otonom Sistemlerinde Kullanıma Yönelik Ölen Akrabalarınızınki gibi İnsan Sesini Klonlamayı Keskin Bir Şekilde Sorguluyor

Oops, görünüşte şık bir yeni teknoloji parçası, kendisini ve yapımcısını biraz sıcak suya soktu.

Son zamanlarda aman tanrım manşet haberlerine girmeyi başaran yeni teknoloji olarak yapay zeka tabanlı insan sesi klonlamanın ortaya çıkışından bahsediyorum. Bu durumda, şirket Amazon ve sürekli gelişen Alexa'dır.

Köşemin okuyucuları, Alexa tarafından bir gencin elektrik prizine bir kuruş koyması için teşvik edildiği bildirildiğinde ortaya çıkan uygunsuz boo-boo'yu daha önce ele aldığımı hatırlayabilirler (bunu yapmayın!), şuradaki kapsamıma bakın: buradaki bağlantı. Bu durumda, neyse ki, kimse incinmedi ve bunun sonucu, görünüşe göre Alexa AI sisteminin daha önce viral bir trend yakalamış olması ve herhangi bir sağduyu değerlendirmesi olmadan, sadece çılgın öneriyi tekrar etmesiydi. Alexa ile etkileşime giren bir çocuk. Bu, tamamen sağduyulu akıl yürütmeden yoksun olan AI ile dolup taştığımıza dair AI Etiği endişelerini vurgular; AI'da somutlaştırma çabalarına meydan okumaya devam eden AI'nın karşı karşıya kaldığı bir sorundur (AI tabanlı sağduyu türetme konusundaki analizim için). çabalar, bkz. buradaki bağlantı).

En son toz toplama, ses çoğaltma olarak da bilinen ses klonlamayı içerir. Bu tür teknoloji ve yapay zekadaki en son gelişmeler, acil yapay zeka etiği ve etik yapay zeka konularını gündeme getiriyor. AI Etiği ve Etik AI ile ilgili devam eden kapsamlı kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

AI tabanlı ses klonlama basit bir kavramdır.

Bir yapay zeka sistemi, konuştuğunuz kelimelerin bir kısmını ses kaydına alacak şekilde programlanmıştır. AI daha sonra konuşma kalıplarınızı hesaplamalı olarak çözmeye çalışır. Algılanan konuşma kalıplarına dayanarak, AI daha sonra tıpkı sizin gibi ses çıkaran sesli konuşmalar yapmaya çalışır. İşin zor yanı, konuşmanın daha önce AI'ya ses örnekleri olarak sağlamadığınız kelimeleri kapsamasıdır. Başka bir deyişle, AI, kelimelerin sizin tarafınızdan nasıl söylenebileceğini matematiksel olarak tahmin etmelidir. Bu, ses tonu, sesin yükselmesi ve alçalması, konuşma hızı veya hızı gibi konuşmanın tüm özelliklerini içerir.

Bir insanın başka bir insanı taklit etmeye çalıştığını duyduğunuzda, genellikle bu çabanın bir kimliğe bürünme olduğunu fark edebilirsiniz. Kısa vadede, örneğin taklitçi sadece birkaç kelime kullanıyorsa, sesin orijinal konuşmacı olmadığını anlamak zor olabilir. Ayrıca, taklit eden kişi, asıl konuşmacının gerçekten konuştuğu kelimeleri taklit ediyorsa, kendi sesini diğer kişinin sesine göre daha çok o sözceye göre ayarlayabilme olasılığı vardır.

Kısalık ve tam olarak aynı kelimeleri duymak, birinin bir kimliğe bürünmeye hemen hemen izin vermesine izin verebilir.

Zorluk, diğer kişinin konuşmadığı veya taklitçinin o kişinin o belirli kelimeleri söylediğini hiç duymadığı kelimeleri kapsamaya dönüşür. Taklit edilen kişinin bu sözleri nasıl söylemiş olabileceğini anlamaya çalışmak konusunda biraz karanlıksınız. İyi haber şu ki, taklitçiyi dinleyen başka biri de orijinal kişinin kelimeleri nasıl söylediğini bilmiyorsa, taklitçi gerçek sesten nispeten uzakta olabilir ve yine de züppe ve hedefte görünebilir.

Ayrıca, kimliğe bürünmenin tavırlarını ve fiziksel hareketini denklemden bir an için çıkarmak istiyorum. Bir taklitçi gördüğünüzde, yüzlerini kırışabiliyorsa veya taklit edilen kişiyi de taklit edecek şekilde kollarını sallayabiliyorsa, şaşırabilirsiniz. Vücudun ve yüzün eklenen ipuçları, zihninizi kandırarak sesin de ölü olduğunu düşünmenize neden olacak, öyle olmasa bile. Bir ses taklitçisi, sesin taklit edilen kişiyi uygun şekilde taklit edip etmediğini belirlemek için ölçüt olarak yalnızca sesin kullanılması gerektiğinde ısrar edecektir.

Bu günlerde sosyal medyada dolaşan çeşitli deepfake videolarını kesinlikle görmüşsünüzdür. Birisi, orijinal kayıtta başka birinin yüzünün üzerine bindirerek videoda başka birinin yüzünün görünmesini sağlamak için bir videoyu akıllıca yeniden düzenler. Buna genellikle ses üzerinde derin bir sahtekarlık yapılması da eşlik eder. Videonun derin sahte AI ile görsel olarak değiştirildiğini ve sesin derin sahte AI ile değiştirildiğini içeren bir çifte darbe alıyorsunuz.

Burada tartışmak adına, daha önce bahsedildiği gibi genellikle ses klonlama veya ses çoğaltma olarak adlandırılan yapay zeka tabanlı derin sahte ses yönlerine odaklanıyorum. Bazıları arsızca buna bir kutudaki ses olarak atıfta bulunur.

Eminim ki bazılarınız şu anda uzun süredir sesleri klonlamak için bilgisayar programlarını kullanma yeteneğine sahip olduğumuzu söylüyorsunuz. Bu kendi başına yeni bir şey değil. Kabul ediyorum. Aynı zamanda, bu yüksek teknoloji yeteneğinin giderek daha iyi hale geldiğini kabul etmemiz gerekiyor. Pekala, daha iyi ve daha iyi diyorum, ama belki birazdan göreceğiniz gibi, giderek daha fazla endişe verici hale geldiğini söylemeliyim.

Bu düşünceye tutun.

Teknolojik hüner kesinlikle ses klonlama yapmak için ilerliyor. Örneğin, eskiden bir AI ses çoğaltma programını "karıştır ve eşleştir" kelimelerinin tamamını konuşarak "eğitmeniz" gerekirdi. Tembel köpeğin üzerinden atlayan hızlı kahverengi tilkinin ünlü ya da kötü şöhretli dizesine (alfabenin tüm harflerini kapsayacak şekilde birini almaya yönelik bir çizgi) benzer şekilde, özel olarak hazırlanmış kısa öyküler vardır. AI modelinin eşleşmesini çok daha kolay hale getirmek için yeterli kelimeyi ve yeterince çeşitli kelimeyi söylemenizi sağlamak.

AI kalıp eşleşmesinin gerçekleşmesini yeterince sağlamak için, çoğu zaman telaffuz etmekte zorlandığınız ve ne anlama geldiklerinden bile emin olmadığınız kelimeler dahil olmak üzere birkaç sayfa kelime okumak zorunda kalabilirsiniz. AI'ya sesinizin farklı kalıplarını bulmak için yeterli ses sağlamak için bu, birkaç dakika veya bazen saatlerce konuşma gerektirebilir. Bu eğitim etkinliğini kısaltırsanız, sonuçta ortaya çıkan ses çoğaltmanın, sesinizi iyi tanıyan arkadaşlarınız tarafından kolayca vurulma olasılığı vardı.

Tamam, o zaman AI geliştiricilerinin ilgisi, ses çoğaltma yönlerinin nasıl optimize edileceğine odaklandı. AI inşaatçıları zorlukların tadını çıkarır. Özünde optimize edici oldukları söylenir. Onlara bir sorun verin ve bunun nereye yol açabileceğinden bağımsız olarak optimize etme eğiliminde olacaklar (bundan birazdan netleşecek olan bir öngörü olarak bahsediyorum).

Bana şunu cevapla:

  • Bir kişinin sesini maksimum düzeyde klonlamak için gerekli olacak ve ses örneğinin hemen hemen rastgele izin verilen herhangi bir sözcük kümesi olabileceği ve yine de ses klonlamanın şimdiye kadar söylenebilecek neredeyse tüm sözcükleri üretmesine izin verebileceği en az ses örneği miktarı nedir? hedeflenen ses ve ses, bir konuşma veya diğer bağlamsal seçim ayarlarında o kişinin sesiyle esasen aynı mı?

Açılacak çok şey var.

Bir sesi maksimum düzeyde klonlayacak minimum ses örneğini istediğinizi unutmayın; böylece, artık otomatikleştirilmiş çoğaltılmış seste ortaya çıkan AI ifadeleri gerçek kişiden tamamen ayırt edilemez görünecektir. Bu düşündüğünüzden daha zor.

Neredeyse en az sayıda duyulan nota dayalı bir şarkı denemeniz ve adlandırmanız gereken bir yarışma programı gibidir. Ne kadar az nota çalınırsa, hangi şarkı olduğunu tahmin etmek o kadar zor olur. Tahmininiz yanlışsa, puan kaybedersiniz veya oyunu kaybedersiniz. Mümkün olan en az ipucu olan tek bir notayı kullanıp kullanmama konusunda bir mücadele başlar, ancak ardından şarkıyı tahmin etme olasılığınız muhtemelen ciddi şekilde azalır. Ne kadar çok nota duyarsanız, doğru şarkıyı tahmin etme olasılığınız o kadar yüksek olur, ancak diğer yarışmacıların da tahminde bulunma şansının artmasına izin vermiş olursunuz.

Ses klonlama söz konusu olduğunda, herhangi bir kelimeye karşı öngörülen kelimeler kavramıyla da uğraştığımızı unutmayın. Bir kişi “Gerçeği kaldıramazsınız” kelimesini söylerse ve biz yapay zekanın kişiyi taklit etmesini veya onun kimliğine bürünmesini istersek, yapay zeka muhtemelen sayısal olarak kalıbı kolayca yakalayabilir. Öte yandan, "Bana soracağın tek şey bu mu?" diyen yalnızca bu kişi tarafından söylenen sözlere sahip olduğumuzu ve yapay zekanın "Gerçeği kaldıramazsın" demesini sağlamak için bu kelimeleri kullanmak istediğimizi varsayalım. Sanırım bir kelime kümesi üzerinde eğitim almanın ve tamamen farklı bir kelime kümesine tahmin yürütmenin zorluğunu görebiliyorsunuz.

Bir başka zorlu unsur, konuşulan kelimelerin bağlamından oluşur. Diyelim ki, sakin ve rahat olduğunuzda bir cümleyi sesli olarak kaydetmenizi sağlıyoruz. AI bu kelimeleri düzenler. Aynı zamanda sesinizin sakinliğine de örnek olabilir. Bir eşek arısı gibi kızgın ve kızgın çığlık atarken yapay zekanın sizmişsiniz gibi davranmasını istediğimizi hayal edin. AI'nın orijinal kalıbı çarpıtarak sesinizin doğru şekilde kızdırılmış bir versiyonuna sahip olması göz korkutucu olabilir.

Ne tür minimumlara bakıyoruz?

Şu anki hedef dakika işaretini kırmak.

Bir dakikadan daha az sese sahip olduğunuz kaydedilmiş bir sesi alın ve yapay zekanın tek başına o küçük örnekten tüm şaşırtıcı ses klonlamasını yapmasını sağlayın. Hemen hemen herkesin bunu yapabilen AI oluşturabileceğini açıklığa kavuşturmak istiyorum. genellikle bir dakikadan daha kısa bir sürede, ancak sonuçtaki ses klonu belirsizdir ve tamamlanmamış olarak kolayca algılanır. Yine, örnekleme süresinin minimumda olduğunu açıkça ve kararlı bir şekilde birbirine bağlıyorum. ve bu arada ses klonlama maksimumda. Bir dot, ses klonlamada büyük ölçüde submaksimal olmalarına da izin verilirse, minimum bir örnekleme elde edebilir.

Bu eğlenceli ve heyecan verici bir teknolojik meydan okumadır. Bunu yapmanın değerini veya esasını merak ediyor olabilirsiniz. Ne amaçla arıyoruz? Yapay zeka tabanlı ses çoğaltmayı bu kadar verimli ve etkili bir şekilde yapabilmekten insanlık için ne gibi faydalar bekleyebiliriz?

Bu etli soruyu düşünmeni istiyorum.

Yanlış cevap sizi istemeden bir lapa yığınına sokabilir.

İşte iyimser ve tamamen olumlu görünen bir şey.

Abraham Lincoln gibi ünlü kişilerin eski zaman kayıtlarına sahip olabileceğimizi ve bu tozlu ses parçalarını AI tabanlı bir ses klonu oluşturmak için kullanabileceğimizi varsayalım. Daha sonra Lincoln'ün Gettysburg Konuşmasını dört notayı ve yedi yıl önce unutulmaz konuşmayı söylediği gün oradaymışız gibi söylediğini duyabiliyorduk. Bir yan not olarak, ne yazık ki, elimizde Lincoln'ün sesiyle ilgili herhangi bir ses kaydı yok (teknoloji henüz mevcut değildi), ancak Başkan Benjamin Harrison'ın ses kayıtları var (ABD başkanlarından ilki, bir ses kaydına sahip olan ABD başkanıdır). ) ve bundan sonra diğer başkanlar.

AI tabanlı ses klonlamanın bu özel kullanımının tamamen iyi olduğu konusunda makul bir şekilde hemfikir olacağımıza inanıyorum. Aslında, muhtemelen bugün bir aktörün Lincoln gibi konuşuyormuş gibi davranmaya çalışmasından daha çok isteriz. Oyuncu, Lincoln'ün gerçek sesinin neye benzediğini düşündüklerini muhtemelen uyduracaktı. Bu, belki de Lincoln'ün sesinden çok uzak bir uydurma olurdu. Bunun yerine, iyi nitelikli bir AI ses klonlama sistemi kullanarak, Lincoln'ün sesinin gerçekten nasıl olduğu konusunda çok az tartışma olurdu. AI, en azından AI'nın hedeflenen sesi kopyalamada ne kadar iyi olduğu ölçüde, olgusal olarak doğru olacaktır.

AI ses klonlama ile ilgili iyilik kategorisinde, bu tür bir kullanım durumu ile bir kazanç elde edebiliriz.

Karamsar olmak istemem ama görünüşe göre tamamen ters olan bu kullanımın bile bir dezavantajı var.

Birisi, çok değerli 26'mız Theodore Roosevelt'in (“Teddy”) sesini bulmak için bir yapay zeka ses klonlama sistemi kullanıyor.th Amerika Birleşik Devletleri Başkanı, doğa bilimci, çevreci, devlet adamı, yazar, tarihçi ve neredeyse evrensel olarak saygın bir kişi olarak etiketlendi. Verdiği ve tarihsel olarak korunmuş ses versiyonlarına sahip olmadığımız konuşmalar, bugün sanki bizzat kendisi konuşuyormuş gibi “söylenebiliyor”. Tarih okumak için övgüye değer bir destek.

Sadece olumsuz taraflarını ortaya çıkarmak amacıyla bunu çirkinleştirelim.

Kötü bir diktatör tarafından verilen bir konuşmayı okumak için Teddy AI tabanlı ses klonunu kullanıyoruz. AI, ne konuştuğunu umursamıyor çünkü AI'da hiçbir duyarlılık yok. Sözcükler basitçe sözcüklerdir ya da daha doğrusu sadece ses ponponlarıdır.

Birinin bu kadar el altından bir şey yapmasına şaşırmış olabilirsiniz. Neden ünlü ve saygı duyulan Theodore Roosevelt'in yapay zeka tabanlı klonlanmış sesi, sadece Teddy'nin ilk başta yapmadığı bir konuşma yapmak için kullanılsın, aynı zamanda aşağılık bir kişinin kötülüğünü betimleyen bir konu hakkında konuşuyor? diktatör?

Çirkin, diye haykırabilirsiniz.

Kolayca yapılır, cevap gelir.

Özünde, AI tabanlı ses çoğaltma ile ilgili çok önemli bir endişe, kendimizi birdenbire sahte bir durumda bulacağız veya herhangi bir tarihsel gerçek veya doğrulukla ilgisi olmayan derin sahte konuşmalar ve ifadeler mi söyleyeceğiz. Bunlardan yeteri kadar yapılır ve yayınlanırsa, neyin gerçek neyin kurgu olduğu konusunda kafamız karışabilir.

Bunun nasıl ortaya çıkabileceğini bolca görebilirsiniz. AI tabanlı bir ses klonu kullanarak, birisi Woodrow Wilson'ın aslında hiç yapmadığı bir konuşma yaptığı ses kaydını yapar. Bu internette yayınlanmıştır. Başka biri kaydı duyar ve bunun gerçek olduğuna inanır. Woodrow Wilson'ın bu harika tarihi kaydını bulduklarını söyleyerek başka bir yere gönderiyorlar. Çok geçmeden, tarih derslerindeki öğrenciler konuşmanın yazılı versiyonunu okumak yerine sesi kullanıyorlar.

Konuşmanın Woodrow Wilson tarafından yapılıp yapılmadığını kimse bilmiyor. Belki öyleydi, belki değildi ve herkes bunun gerçekten önemli olmadığını düşünüyor (pekala, tarihsel doğruluk ve gerçeklere odaklanmayanlar). Tabii ki, konuşma alçakçaysa, bu, o tarihi şahsiyetin yanlış izlenimini veya yanlış bilgi tasvirini verir. Tarih ve kurgu bir bütündür.

Bunun AI tabanlı ses klonlama ile ilişkili bir dezavantaj olduğuna ikna olduğunuza inanıyorum.

Yine, bu tür şeyleri daha yeni ve geliştirilmiş AI tabanlı ses çoğaltma olmadan yapabiliyoruz, ancak bunu yapmak daha kolay olacak ve sonuçta ortaya çıkan sesi gerçek ve sahte arasında ayırt etmek son derece zor olacak. Günümüzde, geleneksel ses üreten programları kullanarak, genellikle çıktıyı dinleyebilir ve çoğu zaman sesin sahte olduğunu kolayca anlayabilirsiniz. AI'daki ilerlemelerle, yakında kulaklarınıza inanamayacaksınız.

Tarihsel şahsiyetlerin ses klonlaması ne kadar kötü olursa olsun, bugünün yaşayan insanlarını gerektiren belki de özellikle korkunç kullanımları düşünmemiz gerekiyor.

İlk olarak, bir patronu veya onun eşdeğerini taklit eden birini içeren oldukça popüler bir dolandırıcılık duydunuz mu? Birkaç yıl önce, bir restoran ya da mağaza aramak ve işyerinin patronu gibi davranmak gibi rahatsız edici bir moda vardı. Sahtekarlık, bir personel üyesine gülünç şeyler yapmasını söylemeyi içerir; bu, genellikle patronlarıyla konuştuklarına dair yanlış inanç altında görev gereği yapacakları bir şeydir.

Bu tür öfkeli yanlış davranışlara batmak istemiyorum, ancak bir başka uygun olanı, işitme güçlüğü olan birini arayıp torunları veya torunları gibi davranmaktan ibarettir. Taklitçi, büyükanne ve büyükbabayı yardım için para sağlamaya ya da bir şekilde onları kurtarmaya ikna etmeye çalışır. Kimliğe bürünülmüş sese dayanarak, büyükanne ve büyükbaba bunu yapmak için kandırılır. Aşağılık. Utanç verici. Üzgün.

Yapay zeka tabanlı ses klonlamanın steroidler üzerinde etkinleştireceği bir çağa girmek üzereyiz, eğer öyleyseniz sesle ilgili dolandırıcılık ve dolandırıcılıkların ortaya çıkması. AI o kadar olağanüstü bir ses çoğaltma işi yapacak ki, sesi kim duyarsa, konuşanın asıl kişinin kendisi olduğuna yemin edecek.

Bu nereye kadar gidebilir?

Bazıları, söz konusu atom silahlarının ve askeri saldırıların, diğerlerini üst düzey bir askeri subayın doğrudan bir komuta verdiğine inandıran AI tabanlı bir ses klonu kullanan biri tarafından gerçekleşebileceğinden endişe duyuyor. Aynı şey, önde gelen herhangi bir konumda bulunan herhangi biri için de söylenebilir. Bir bankacılık yöneticisinin, eldeki bankacılık müşterisiyle konuştuklarına inanarak kandırılarak milyonlarca dolarlık fonu serbest bırakmasını sağlamak için son derece hassas bir AI ses klonu kullanın.

Geçmiş yıllarda, bunu AI ile yapmak mutlaka ikna edici olmazdı. Telefonun diğer ucundaki insan soru sormaya başladığı anda, yapay zekanın hazırlanmış bir senaryodan ayrılması gerekecek. Bu noktada, ses klonlama kötüleşir, bazen de radikal biçimde. Dolandırıcılığı sürdürmenin tek yolu, konuşmayı tekrar senaryoya zorlamaktı.

Doğal Dil İşleme'deki (NLP) ilerlemeler de dahil olmak üzere, bugün sahip olduğumuz AI türüyle, bir senaryodan çıkabilir ve potansiyel olarak AI ses klonunun doğal bir konuşma tarzında konuşuyor gibi görünmesini sağlayabilirsiniz (bu her zaman böyle değildir, ve AI'yı açmanın hala yolları var).

AI tabanlı ses klonlamanın altında yatan vahşi ve yünlü düşünceler hakkında biraz daha et ve patatese girmeden önce, son derece önemli konularda bazı ek temeller oluşturalım. Yapay Zeka Etiğine ve özellikle Makine Öğrenimi (ML) ve Derin Öğrenmenin (DL) ortaya çıkışına kısaca bir dalış yapmamız gerekiyor.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfedeceğiz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper zeki yapay zekaya sahip olabileceğimizi tahmin ettiğinden, böyle bir yapay zekanın sonunda insanlardan daha akıllı olabileceği düşünülebilir.

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Yapay zeka tabanlı ses klonlama konusundaki odağımıza dönelim.

Yakın tarihli bir konferansta, Amazon tarafından verilen bir sunum, AI tabanlı ses klonlamanın arzu edilen artılarını sergilemeyi ve yeteneklerini geliştirmek için Alexa'da kullanılan en son teknoloji AI'yı vurgulamayı amaçladı. Haber raporlarına göre, iç açıcı ve iyimser olması gereken hazırlanmış bir örnek, bir çocuğun Alexa'dan büyükannesinin onlara hikayeyi okumasını bitirmesini istemesinden oluşuyordu. Oz sihirbazı. Seyirciye, büyükannenin vefat ettiği ve bunun, çocuğun çok değer verdikleri büyükanne ve büyükbabasıyla yeniden bağlantı kurmasının bir yolu olduğu söylendi. Tüm bunlar, görünüşe göre, Alexa geliştirme ekibi tarafından en son AI ses klonlama atılımlarını sergilemeye yardımcı olmak için Amazon tarafından bir araya getirilen bir videonun parçasıydı (henüz kamu kullanımı için resmi olarak başlatılmamış özellikleri kapsayan).

Bu örneğe verilen bir tepki, bir çocuğun büyükannesinin sesini bir kez daha duyabilmesi bizi oldukça duygulandırabilir. Muhtemelen büyükannenin hikayenin tam bir okumasını kaydetmediğini varsayıyoruz, bu nedenle AI klonlama, her şeyi büyükannenin şimdi okumanın tamamını yapıyormuş gibi görünmesini sağlıyordu.

Artık bizimle olmayan sevdiklerinizle yeniden bağlantı kurmanın olağanüstü ve muazzam bir yolu.

Tüm muhabirler ve analistler (artı Twitter), bu ilerlemenin olumlu bir yorumuna o kadar meyilli değildi. Bazıları bunu tamamen ürkütücü olarak nitelendirdi. Ölen sevilen birinin sesini yeniden yaratmaya çalışmanın garip ve biraz tuhaf bir girişim olduğu söylendi.

Sorular boldur, örneğin:

  • Çocuğun kafası karışır ve ölen sevilen kişinin hala hayatta olduğuna inanır mı?
  • Çocuk şimdi, büyükannenin hala bizimle olduğuna dair yanlış bir inançla, istenmeyen bir şakaya veya dolandırıcılığa yönlendirilebilir mi?
  • Çocuk, ölen sevilen birini duymaktan acı çekebilir ve şimdi bir kez daha büyükanne ve büyükbabayı özlediği için, sanki çoktan yerleşmiş duygusal yaraları açar gibi umutsuzluğa kapılabilir mi?
  • Çocuk, ölen kişinin diğer taraftan konuşabileceğini, yani tam olarak büyükannesi gibi görünen bu mistik sesin onunla mezardan konuştuğunu mu düşünecek?
  • Çocuğun, yapay zekanın bir şekilde büyükannesini somutlaştırdığını düşünmesi, yapay zekayı antropomorfize ederek çocuğun, yapay zekanın insanları tamamen kopyalayabileceğine inanarak büyüyeceği düşünülebilir mi?
  • Çocuğun, büyükannenin yapay zeka tarafından kopyalanan sesine o kadar aşık olduğunu ve gencin takıntılı hale geldiğini ve sesi her türlü işitsel dinleme için kullandığını varsayalım?
  • Sesi çoğaltan satıcı, aynı genel sistemi kullanan başkaları için bu sesi, aileden açık bir izin almadan ve böylece tasarlanan sesten “kazanç” elde etmeden kullanmayı tercih edebilir mi?
  • Ve benzerleri.

Olumlular kadar olumsuzları da aklınıza getirebileceğinizi, yoksa olumsuzlar kadar olumluları mı dememiz gerektiğini anlamak önemlidir. Bu AI ilerlemelerinin altında yatan ödünleşmeler var. Madalyonun sadece bir yüzüne bakmak belki de miyoptur.

Anahtar, bu konuların tüm yönlerine baktığımızdan emin olmaktır. Düşüncelerinize bulaşmayın. Sadece pozitifleri keşfetmek kolay olabilir. Yalnızca olumsuzları keşfetmek kolay olabilir. Her ikisini de incelemeli ve olumluları umutla kullanmak ve olumsuzları azaltmaya, ortadan kaldırmaya veya en azından hafifletmeye çalışmak için neler yapılabileceğini bulmalıyız.

Bir dereceye kadar, bu yüzden AI Etiği ve Etik AI çok önemli bir konudur. Yapay Zeka Etiği ilkeleri, uyanık kalmamızı sağlar. AI teknoloji uzmanları zaman zaman teknolojiyle, özellikle de yüksek teknolojinin optimizasyonu ile meşgul olabilirler. Mutlaka daha büyük toplumsal sonuçları dikkate almıyorlar. Yapay Zeka Etiği zihniyetine sahip olmak ve bunu yapay zeka geliştirme ve saha oluşturma ile bütünleşik olarak yapmak, uygun yapay zeka üretmek için hayati önem taşır.

AI Etiği'ni kullanmanın yanı sıra, AI tabanlı ses klonlama özellikleri gibi çeşitli AI kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Ethics, en azından dikkate alınan bir geçici önlem olarak hizmet eder.

Bununla birlikte, bazıları AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu savunuyor. Aslında, bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazları öldüreceğimiz konusunda önceden uyarıyorlar. Örneğin şu adresteki kapsama alanıma bakın: buradaki bağlantı ve buradaki bağlantı.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, AI tabanlı ses klonlama hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Yapay Zeka Tabanlı Ses Klonlama

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Yapay zeka tabanlı ses klonlamadan yararlanabilecek bir senaryo çizelim.

Bir ebeveyn ve çocukları, yapay zeka tabanlı kendi kendini süren bir arabaya biner. Mahalle bakkalına gidiyorlar. Bu nispeten olaysız bir yolculuk olması bekleniyor. Sürücü bir AI sürüş sistemi olmasına ve ebeveynin herhangi bir sürüş yapmasına gerek olmamasına rağmen, mağazaya sadece haftalık bir sürüş.

Bir ebeveyn için bu büyük bir nimet. Ebeveyn, direksiyona ve sürüş eylemiyle ilgilenmeye odaklanmak yerine, dikkatini çocuğuna verebilir. Otonom araçta birlikte oynayabilir ve değerli bir doğada zaman geçirebilirler. Ebeveynin normalde araba sürerken dikkati dağılır ve kalabalık caddelerde gezinirken ve yakınlardaki diğer kaçık sürücülerle uğraşırken muhtemelen endişeli ve gerginleşirken, burada ebeveyn bu endişelerin mutlu bir şekilde farkında değildir ve değerli çocukları ile sadece hoş bir şekilde etkileşime girer.

Ebeveyn, AI sürüş sistemiyle konuşur ve AI'ya onları markete götürmesini söyler. Tipik bir senaryoda, AI, bugünün Alexa veya Siri aracılığıyla aşina olabileceğiniz nötr bir ses ifadesi aracılığıyla yanıt verir. AI, bakkalın 15 dakikalık sürüş mesafesinde olduğunu belirterek yanıt verebilir. Ek olarak, yapay zeka sürücüsüz arabanın onları mağazanın en önüne bırakacağını belirtebilir.

Bu, böyle bir senaryoda AI'nın sesle ilgili tek etkinliği olabilir. Belki de sürücüsüz araba markete yaklaştığında, yapay zeka hedefin yaklaşmasıyla ilgili bir şeyler söyleyebilir. Otonom araçtan çıkarken eşyalarınızı yanınıza almanız için sesli bir hatırlatma da olabilir.

Bazı AI sürüş sistemlerinin deyim yerindeyse geveze kediler olacağını açıkladım. İnsan binicilerle daha akıcı ve sürekli etkileşime girmeye programlanacaklar. Bir insan tarafından kullanılan ortak bir araca bindiğinizde, bazen sürücünün konuşkan olmasını istersiniz. Merhaba demenin yanı sıra, size yerel hava koşulları hakkında bilgi vermelerini veya belki de yerel bölgede görülecek diğer yerleri göstermelerini isteyebilirsiniz. Herkes geveze kediyi istemeyecektir, bu nedenle yapay zeka, yalnızca insan istediği zaman diyaloga girecek şekilde tasarlanmalıdır, bkz. buradaki bağlantı.

Artık her şeyi kurduğuma göre, işleri küçük ama önemli bir şekilde değiştirelim.

AI sürüş sisteminin AI tabanlı bir ses klonlama özelliğine sahip olduğunu varsayın. Ayrıca ebeveynin, çocuğun büyükannesinin bir ses snippet'ini sağlayarak AI ses klonlamasını daha önce tohumladığını varsayalım. Sürpriz, diye düşünüyor ebeveyn, AI sürüş sisteminin sanki çocuğun ölen büyükannesiymiş gibi konuşmasını sağlayacağım.

Bakkala giderken, AI sürüş sistemi, tüm zaman boyunca yalnızca büyükannenin klonlanmış sesini kullanarak ebeveyn ve çocukla etkileşime girer.

Bunun hakkında ne düşünüyorsun?

Ürpertici mi yoksa sevgiyle unutulmaz mı?

İşleri bir adım öteye taşıyacağım. Hazırlanmak. Emniyet kemerini bağla.

Bazıları, benim yaptığım gibi, sonunda çocukların yapay zeka tabanlı sürücüsüz arabalara kendi başlarına binmelerine izin vereceğimize inanıyor, şuradaki analizime bakın: buradaki bağlantı.

Günümüzün insan tahrikli arabalarında, kanunlar direksiyonda yetişkin bir sürücünün olmasını gerektirdiğinden, her zaman bir yetişkin bulunmalıdır. Tüm pratik amaçlar için, araçta kendi başına hareket eden bir arabada asla bir çocuğunuz olamaz (evet, bunun olduğunu biliyorum, örneğin yakın zamanda yedeklenen büyük bir film yıldızının 10 yaşındaki önemli bir oğlu gibi. çok pahalı bir arabayı başka bir çok pahalı arabaya dönüştürür, ama yine de bunlar nadirdir).

Günümüzün ebeveynleri, araçta gözetmen olarak görev yapan veya çocuklarına göz kulak olan bir yetişkini olmayan, kendi kendine giden bir arabaya çocuklarının binmesine izin verilmesine muhtemelen şiddetle karşı çıkacaktır. Hayal etmenin neredeyse imkansız göründüğünü biliyorum, ancak bahse girerim ki, sürücüsüz arabalar yaygınlaştıktan sonra, kendi kendine giden bir arabaya binerken çocukların yetişkinsiz olduğu fikrini kaçınılmaz olarak kabul edeceğiz.

Kolaylık faktörünü düşünün.

İştesiniz ve patronunuz bir görevi tamamlamanız için sizi kovalıyor. Çocuğunuzu okuldan almanız ve beyzbol antrenmanına götürmeniz gerekiyor. Patronunuzu çok rahatlatmak veya çocuğunuzu antrenman sahasına götürmemek gibi bir kaya ile sert bir yer arasında sıkışıp kalıyorsunuz. Tanıdığınız hiç kimse çocuğunuza asansör sağlamak için müsait değil. Bir şey olursa, kesinlikle insan sürücüsü olan bir araç paylaşım hizmetini kullanmak istemezsiniz, çünkü doğal olarak bu yabancı yetişkinin çocuğunuzu arabaya bindirirken ne söyleyeceği veya ne yapacağı konusunda endişe duyacaksınız.

Sorun değil, endişelenmeyin, sadece yapay zeka tabanlı kendi kendini süren bir araba kullanın. Çocuğunuzu almaya gitmek için kendi kendine giden arabayı uzaktan yönetiyorsunuz. Otonom aracın kameraları aracılığıyla çocuğunuzun otonom araca binişini görebilir ve izleyebilirsiniz. Ayrıca içeriye bakan kameralar var ve tüm sürüş yolculuğu boyunca çocuğunuzu izleyebilirsiniz. Bu, yabancı bir insan sürücüden çocuğunuz için bir asansör sağlamasını istemekten daha güvenli olmasa da güvenli görünüyor. Bununla birlikte, bazıları, sürüş eylemi ters giderse, kendi başına bir çocuğunuz olacağından ve çocuğa yardım edecek veya rehberlik edecek hiçbir yetişkinin hemen bulunmadığından haklı olarak endişe duyuyor.

Sayısız endişeyi bir kenara bırakarak, önceki senaryoda tarif ettiğim aynı ebeveyn ve çocuğun, ebeveyn olmadan çocuğun gezintiye çıkmasında sorun olmadığını varsayalım. Bunun nihayetinde uygulanabilir bir senaryo olduğunu kabul edin.

İşte final vuruşu.

Çocuk, AI tabanlı kendi kendini süren arabaya her bindiğinde, AI tabanlı ses klonlamayı kullandığı ve çocuğun ölen büyükannesinin sesini kopyaladığı için AI ile karşılanır ve etkileşime girer.

Bu elmalar hakkında ne düşünüyorsun?

Ebeveyn kendi kendini süren arabada da bulunduğunda, ebeveyn çocuğa AI sesi konuşurken neler olduğu hakkında tavsiye vermek için orada olduğundan, AI ses kullanımını mazur görebiliriz. Ancak ebeveyn orada olmadığında, şimdi çocuğun büyükannenin sesini taklit etmede pastoral bir şekilde iyi olduğunu varsayıyoruz.

Bu kesinlikle, bunun bir çocuk için dengede iyi mi yoksa kötü mü olduğunu ciddi olarak düşünmek için duraklama anlarından biridir.

Sonuç

Bu ağır meseleler üzerinde kafa yormak için biraz düşünce deneyi yapalım.

Lütfen üç tane sağlam bir şekilde gel pozitif AI tabanlı ses klonlamaya sahip olmak için nedenler.

Onlarla gelene kadar bekleyeceğim.

Sonra, sağlam bir şekilde üç tane bul negatif AI tabanlı ses klonlamanın ortaya çıkmasını engelleyen nedenler.

Bazılarını bulduğunu varsayacağım.

Bu teknolojiyi lehte veya aleyhte sayan üç nedenden daha fazlasını bulabileceğinizin farkındayım. Sizce olumsuzlar olumlulardan daha ağır basıyor mu? Kibosh'u bu tür çabalara koymamız gerektiğini savunan eleştirmenler var.

Bazıları, firmaların AI tabanlı ses klonlamayı kullanmasını denemek ve engellemek istiyor, ancak bunun köstebek vurmak gibi klasik çıkmazlardan biri olduğunun farkındalar. Kullanmayı bıraktığınız herhangi bir firma, başka bir firmanın onu kullanmaya başlaması ihtimalidir. Saati dondurmak veya bu tür bir yapay zekayı saklamak neredeyse imkansız olacak.

Şu an için bu konuyla ilgili son bir açıklamada, bir gün duyarlı yapay zekaya ulaşabilirsek neler olabileceğini hayal edin. Bunun olacağını söylemiyorum. Yine de spekülasyon yapabilir ve bunun nereye varacağını görebiliriz.

İlk olarak, konuşmak ve sesini duyurmakla ilgili anlayışlı bir alıntı düşünün. Madeleine Albright'ın ünlü bir sözü vardır: "Sesimi geliştirmek oldukça uzun zamanımı aldı ve artık buna sahip olduğum için susmayacağım."

Duyarlı yapay zeka üretebiliyorsak veya doğrudan ortaya çıkarmasak bile bir şekilde duyarlılık ortaya çıkıyorsa, bu yapay zekanın sesi ne olmalıdır? AI tabanlı ses klonlamasını kullanabileceğini ve bu insan tarafından söylendiği gibi mevcut olabilecek bazı ufacık küçük ses örnekleme snippet'i aracılığıyla herhangi bir insanın herhangi bir sesini üretebileceğini varsayalım. Böyle bir AI daha sonra konuşabilir ve AI'nın görünüşte o kişi olduğuna inanmanız için sizi kandırabilir.

Sonra tekrar, belki AI kendi sesine sahip olmak isteyecek ve diğer tüm insan seslerinden tamamen farklı olarak, kendi büyüleyici yolunda özel olmak isteyen bir ses tasarlayacak.

Tanrı aşkına, bu insanı neredeyse suskun bırakır.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- ai-otonom-sistemlerde kullanılması amaçlanan/