Pilot ve Yardımcı Pilotun Kalkıştan Önce Anlaşamadığı ve Aniden Terminale Geri Dönüp Taksiyle Ayrı Yollarına Gitmeyi Seçtiği Alaska Havayolları Uçuşundan Aldığım Yapay Zeka Etiği ve Otonom Sistem Dersleri

Havayolları son zamanlarda haberlerde sıkça yer alıyor.

Yaz aylarında uçuş sıkıntısı yaşıyoruz. Yorgun ve sinirli yolcular kendilerini her türlü uçuş kesintisi ve havayolu tarifelerindeki çarpıklıklarla karşı karşıya buluyor. Uçuşlar beklenmedik bir şekilde iptal ediliyor. Uçuşlar erteleniyor. Yolcular duman çıkarıyor. Ne yazık ki bu sıkıntıların patlamasına izin veren çok sayıda yolcu vakası yaşandı ve ne yazık ki kafa kafaya çatışmaların ve bazen yumruklaşmaların olduğu çok fazla viral video gördük.

Pilot ve yardımcı pilot arasında kokpitte meydana gelebilecek anlaşmazlıkları daha nadir öğreniyoruz.

Bu oldukça sürpriz.

Aslına bakılırsa, bir pilot ile yardımcı pilotun uçuşun herhangi bir aşamasında ciddi bir anlaşmazlığa benzeyeceğini düşünmek doğal olarak bizi şaşırtıyor. Anlaşmazlık hangi kahve markasının en iyi olduğuyla ilgiliyse, varsayımımız bunun uçağı uçurmayı gerektiren iş çabasına müdahale etmeyeceği yönündedir. İkili, görünüşte uçuşla alakasız bir konu üzerinde göz göze gelmemelerini umursamazdı. Profesyonel tavırları ve uzun süredir devam eden pilot eğitimleri devreye girecek ve tekrar uçuş detaylarına odaklanacaklardı.

Yine de düşünün mesleki anlaşmazlık müdahale eder.

Geçtiğimiz günlerde ABD'de bir uçuş sırasında kokpitte mesleki anlaşmazlık olduğu iddiasıyla yaşanan bir olayla ilgili geniş çapta yayınlanan bir haberi kısaca sizlerle paylaşacağım.

Bu esas olarak Yapay Zekanın (AI) ortaya çıkışı için büyük önem taşıyan ilgili bir konuyu keşfedebilmemiz için burada alıntılanıyor. Görüyorsunuz, sadece insanlar arasında insandan insana bir anlaşmazlıkta mesleki anlaşmazlıklar diyebilir miyiz, aynı zamanda yapay zekanın benimsenmesi ve dolayısıyla insan-yapay zeka profesyonel anlaşmazlıkları arasında da benzer bir şeyin meydana gelmesine neden olabiliriz. . Her türlü Yapay Zeka Etiği hususu ortaya çıkar. Yapay Zeka Etiği ve Etik Yapay Zeka konularına ilişkin kapsamlı ve devam eden kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, sadece birkaç isim.

Büyüleyici bir hikayeye hazır olun.

Geçtiğimiz günlerde haberlerde bildirildiği gibi, Washington'dan San Francisco'ya giden Alaska Havayolu uçuşu sırasında bir "mesleki anlaşmazlık" vakası ortaya çıktığı anlaşılıyor. Haberlere göre, uçak kapıdan uzaklaşmış, taksi ve uçuş izni için asfaltta bekliyordu. Bir fırtına yaklaşıyordu ve uçuşun bir buçuk saatten fazla gecikmesine neden oldu. Uçağın sonunda geri döndüğü ve kapıya doğru yöneldiği ortaya çıktı; bazı yolcular normalde bunun sadece fırtınayla ilgili bir güvenlik önlemi olduğunu varsayabilirdi.

Çeşitli tweet'lere göre, pilot ve yardımcı pilotun kokpitte kaldıkları süre boyunca görüş alanı dışında bir tür kavga yaşadıkları ve bir şekilde en ihtiyatlı yaklaşımın uçuşu kesip terminale geri dönmek olacağı sonucuna vardıkları görülüyor. . Tweetler, kaptan ve yardımcı pilotun görünüşe göre birbirleriyle anlaşamadıklarını öne sürdü. Havayolu daha sonra durumun talihsiz olduğunu (durumun açıkça belirtilmediğini veya açıklanmadığını), iki uçuş görevlisinin yönetim tarafından değerlendirildiğini ve uçmaya uygun görüldüğünü, mürettebatın değiştirildiğini ve uçuşun gerçekleştiğini belirten bir açıklama yaptı. ve daha sonra San Francisco'ya ulaştı.

Bir bakıma, eğer pilot ve yardımcı pilot, uçağın uçuşa uygun şekilde hazır olup olmadığı veya fırtınada uçma riskinin uygun bir güvenlik aralığında olup olmadığı konusunda mesleki bir anlaşmazlık yaşadıysa, bu yolcuların rahatlatılması ve Uçağın kapıya geri dönmesine şükrediyorum. Üzgünümden daha iyi olmak daha iyi. Ek bir gecikmeye sahip olmak, zorlu veya olumsuz bir uçuş yolculuğu olarak değerlendirilen risklerin varsayılan olarak azaltılmasına değer.

Bazı insanlar böylesine mesleki bir anlaşmazlığın ortaya çıkmasına şaşırabilirler.

Belki de kokpitte olup biten her şeyin tamamen kesin ve iyi yazılmış olduğu yönünde yanlış bir izlenime kapılmışızdır. Görünen o ki, insanın takdir yetkisinin her türü bu süreçten çıkarılmış durumda. Titizlikle ve iyice hesaplanmış çizelgelere dayanarak, bir uçuşa devam etmek ya uygundur ya da değildir. Tüm kitin ve lafların reddedilemez gerçekler ve rakamlar hesabına dayandığı düşünüldüğünde herhangi bir anlaşmazlık olamaz.

Meselenin tam gerçeği bu değil. Elbette çok sayıda protokol ve her türlü kontrol ve denge var, ancak bu, insan muhakemesi hakkının tamamını ortadan kaldırmıyor. Pilotlar ve yardımcı pilotlar hâlâ insan muhakemesini kullanıyor. Neyse ki, insanın bu muhakemesi yıllar süren uçuşlarla bilenmiştir. Ticari bir yolcu uçağındaki bir pilot ve yardımcı pilotun daha önceden çok sayıda uçuş deneyimine sahip olması ve uçuş kontrollerinde bulunmayla ilgili uzun yıllara dayanan derinlemesine muhakeme ve muhakemesini kolaylıkla kullanması muhtemeldir.

İnsan muhakemesi dikkate değer rolü göz önüne alındığında, bir pilot ile yardımcı pilotun bazen mesleki anlaşmazlıklar yaşayabileceğini mantıksal olarak tahmin edebiliriz. Çoğu zaman bu tür anlaşmazlıkların çok az olduğu tahmin edilmektedir. Günlük uçuşlardaki pilot ve yardımcı pilotun, zamanın büyük çoğunluğuna göre iyi bir uyum içinde olması muhtemeldir. Yalnızca bir uçuş senaryosu geleneksel sınırların dışına çıktığında daha gergin sürtünmenin ortaya çıkmasını bekleriz.

Eğer ikisi arasında güçlü bir fikir ayrılığı varsa, onların bunu çözmelerini istediğimizi söyleyebilirim.

Pilotun hararetli bir şekilde ilerlemek istediği ancak yardımcı pilotun risklerin çok yüksek olduğunu algıladığı bir durum düşünün. Sadece yardımcı pilotun pilota secde etmesi istenmeyen bir durum gibi görünebilir. Yardımcı pilot, bir pilotun yapmayı düşündüğü şeyin kontrol ve dengelenmesidir. Yardımcı pilotun çenesini kapatmasını ve pilotun kararına göre akılsızca hareket etmesini isteyenler için bu pek de güvence sayılmaz. Yardımcı pilot, yalnızca pilotun tamamen ehliyetsiz olduğu durumlarda devreye giren yedek bir "pilot" değildir. Bu, kokpitte bir pilot ve yardımcı pilot bulundurmanın değeri konusunda yanlış bir anlayıştır.

Bunun bir de diğer açısı var.

Bir uçuşun devam etmesi gerektiğine inanmayan bir pilotun durumunu düşünün ve bu arada yardımcı pilot havaya kalkma konusunda hevesli. Sonra ne? Beklenen hiyerarşiye göre, pilotun geleneksel olarak yardımcı pilota üstün gelmesi gerekiyor. Birincil sorumlu olma rolü, pilotu normalde eşit olandan daha büyük kılar. Normalde pilot, yardımcı pilottan daha fazla genel uçuş süresi tecrübesine sahiptir ve bu nedenle yardımcı pilotun hiyerarşik olarak pilotun isteklerine uyması beklenir (makul sınırlar dahilinde).

Her durumda, uçmamayı tercih etmenin, uçmaya karar vermekten kesinlikle daha az riskli bir seçim olduğu konusunda sanırım hepimiz hemfikiriz. Uçak havaya yükseldiğinde, herhangi bir sıradan sabit zemine kıyasla risk seviyeleri çok büyük hale gelir. Havaya çıkmadan terminale geri dönen geleneksel bir ticari uçuş, uçuşa geçme konusundaki hararetli sert tartışmalara karşı oldukça dostane bir çözüm olacaktır.

Hadi vites değiştirelim ve bu cesur haberi tamamen farklı ama ilişkilendirilebilir bir amaç için kullanalım.

Yavaş yavaş aramızda yapay zeka tabanlı otonom sistemlerin yaygınlığını yaşıyoruz. Bazen gösteriyi olduğu gibi yapay zeka yönetiyor. Yapay zeka A'dan Z'ye her şeyi yapıyor ve bunu yapay zekanın tamamen otonom veya neredeyse özerk olduğu şeklinde yorumlayabiliriz. Diğer durumlarda, etkileşime giren ve bir dereceye kadar döngüdeki insana bağlı olacak şekilde programlanan yapay zekaya sahip olabiliriz.

Başlangıçtan itibaren döngüde bir insanın yer aldığı yapay zeka tabanlı otonom veya yarı otonom bir sistem konusuna odaklanmak istiyorum. Yapay zeka ve insan kasıtlı olarak bir araya getiriliyor ve birbirleriyle birlikte çalışmaları gerekiyor. Eldeki belirli bir görevi yerine getiren kohortlardır. Yapay zekanın tek başına görev üzerinde hareket etmesi beklenmiyor. Yapay zeka, belirlenen döngüdeki insanla etkileşime girmelidir.

Bu karakterizasyonu, döngüdeki insanın isteğe bağlı bir özellik olarak kabul edildiği durumlardan farklılaştırmak için gündeme getiriyorum. Esas itibarıyla yapay zekaya kontrolün serbest bırakılması veriliyor. Eğer yapay zeka insanı kullanmayı tercih ederse öyle olsun. Yapay zekanın belirlenen insanla temas kurması veya el ele çalışması gerekmiyor. Anlatacağım analizler kesinlikle bu tür konularla ilgilidir. isteğe bağlı etkileşim düzenlemesi, ancak bu özel tartışmada özellikle üzerinde durduğum şey bu değil.

Tamam, yani bir insanın ve bir yapay zekanın birbirlerinden ayrılmayacak şekilde birlikte çalışacağı bir tür görevimiz var. Soyut anlamda bir koltukta insan oturuyor, diğer koltukta da yapay zeka sistemi oturuyor. Bunu küstahça söylüyorum çünkü bu tartışmayı örneğin aslında koltukta oturan bir robotla sınırlandırmıyoruz. Yapay zekanın bir yerlerde göreve katıldığı ve insanın da öyle olduğu fikrini mecazi olarak ima ediyorum. Fiziksel olarak nerede oldukları tartışma için özellikle hayati önem taşımıyor.

Böyle bir durumun ne zaman ortaya çıkabileceğinden emin olmayabilirsiniz.

Basit.

Daha sonra otonom araçların ve otonom arabaların ortaya çıkışından bahsedeceğim. Belirli özerklik seviyelerinde yapay zeka ve insanın birlikte çalışması gerekiyor. Yapay zeka arabayı kullanıyor olabilir ve insanın sürüş kontrollerini devralmasını talep edebilir. İnsan arabayı kullanıyor olabilir ve kontrolleri devralmak için yapay zekayı etkinleştirebilir. Sürüş kontrollerini sırayla kullanıyorlar.

Buna ek olarak, bazı tasarımlarda yapay zekanın esas olarak her zaman aktif olması (veya kapatılmadığı sürece) ve böylece yapay zekanın her zaman hazır olması sağlanır. Dahası, ortaya çıkan duruma bağlı olarak yapay zeka, insan sormadan bile doğrudan müdahale edebilir. Örneğin, insanın direksiyon başında uyuyakaldığını varsayalım. İnsan görünüşte yapay zekayı etkinleştiremediğinden (çünkü kişi uyuyordur), yapay zeka, kontrolleri insandan devralacak şekilde programlanabilir.

Bazı tasarımlar yapay zekayı ve insanları ikili sürüş yaklaşımına getiriyor. Yapay zeka sürüyor ve insan sürüyor. Veya dilerseniz arabayı insan kullanıyor ve aynı zamanda yapay zeka da kullanıyor. Her biri aracı sürüyor. Bunu belki sürücü eğitimi alırken kullandığınız özel donanımlı arabalara benzetiyorum ve araçta biri öğrenci sürücü için, diğeri sürüş eğitmeni için olmak üzere iki set sürüş kontrolü vardı.

Bu, yapay zeka ve insanların bir görev üzerinde ortaklaşa çalışabileceği bir ortamın yalnızca bir örneğidir. Her türlü olasılık mevcuttur. Uçaklar, dronlar, denizaltılar, yüzey gemileri, trenler vb. gibi başka türden otonom araçlar da benzer şekilde tasarlanabilir. Sadece araç ve ulaşım ayarlarını dikkate almak zorunda değiliz. Bir tıp doktoru ve yapay zeka sistemi tarafından ortaklaşa yürütülen tıbbi alanı ve ameliyatları gözünüzde canlandırın. Liste sonsuz.

Neredeyse bir insan ve bir yapay zekanın birlikte bara girmesiyle ilgili klasik şamatacı şakadan bahsetmek istiyorum. Yapay zekayla ilgilenenler için oldukça eğlenceli.

Ciddi olarak, belirli bir görev üzerinde birlikte çalışan insan ve yapay zeka sisteminin odağına dönelim. İlk olarak, baştan sona vurgulayacağım bir şey olan yapay zekayı insana benzetmekten kaçınmak istiyorum. Yapay zeka duyarlı değil. Lütfen bunu aklınızda bulundurun.

Burada üzerinde düşünülmesi gereken bir şey var: Döngüdeki belirlenmiş bir insan, ortak ekip halinde çalışan bir yapay zeka ile her zaman tam bir uyum içinde olacak mı?

Herhangi bir karmaşık görev için, insan ve yapay zekanın tamamen ve her zaman tamamen uyum içinde olması pek mümkün görünmüyor. İnsan bazı durumlarda muhtemelen AI ile aynı fikirde olmayacaktır. Bu varsayımı bankaya kadar götürebiliriz.

Belki de şaşırtıcı olabilecek şu olasılığı da göz önünde bulundurmanızı isterim: Yapay zeka, döngüdeki belirlenmiş bir insanla her zaman tam bir uyum içinde olacak mı?

Yine herhangi bir karmaşık görev için yapay zekanın bazı durumlarda insanlarla uyum içinde olmayacağı oldukça akla yatkın görünmektedir. Zaten yapay zekanın her zaman hatalı, insanların ise her zaman haklı olması gerektiği fikrine eğilimliyseniz, bu aceleci sonucu yeniden düşünmeniz akıllıca olacaktır. Yarı otonom aracı bir insanın ve yapay zekanın birlikte sürdüğü bir araba hayal edin. İnsan bir tuğla duvara doğru yönelir. Neden? Bilmiyoruz, belki insan sarhoştur ya da uykuya dalmıştır, ancak bir tuğla duvara çarpmanın iyi bir fikir olmadığını biliyoruz, diğer her şey eşit olduğunda. Yapay zeka yaklaşmakta olan felaketi tespit edebilir ve yaklaşmakta olan bariyerden uzaklaşmaya çalışabilir.

Her şey söylendiğinde, yapay zeka ile insanın birbirleriyle aynı fikirde olmama ihtimali belirgin olacak. Aynı şeyi söylemenin diğer yolu da insanlar ve yapay zekadır. birbirleriyle aynı fikirde değiller. Yapay zeka ve insan ile insan ve yapay zeka arasındaki sıralamanın, anlaşmazlığın yönü veya inandırıcılığı hakkında herhangi bir şey önermesini istemediğimi unutmayın.

Biri insan, diğeri yapay zeka olan iki işçi birbirleriyle aynı fikirde değil.

Belirli bir yapay zeka ile belirli bir insan arasında bir anlaşmazlık olduğunda, önceden insanın yapay zekaya üstün geldiğini ilan ettiğimizi önceden beyan edebiliriz. Bununla birlikte, tuğla duvara doğru ilerleyen araba hakkındaki açıklayıcı örneğim, insanın her zaman mutlaka haklı olacağı konusunda bizi caydırıyor gibi görünüyor.

Bunun tersine, bir anlaşmazlık ortaya çıktığında yapay zekanın haklı, insanın haksız olduğunu önceden tespit etmiş olacağımızı önceden beyan etmeyi tercih edebiliriz. Bu da makul ölçüde genelleştirilebilecek bir hüküm değildir. Yapay zekanın yerleşik bir yazılım hatası veya hatasına sahip olduğu ve yapay zekanın aracı yolun dışına ve bir çukura yönlendirmeye çalıştığı bir araba düşünün. Her şeyin eşit olduğunu varsayarsak, insanın bu yapay zeka sürüş eyleminin üstesinden gelebilmesi ve aracın çukura inmesini önleyebilmesi gerekiyor.

Bunun kısa bir özetini yapalım:

  • Döngüdeki bir insan her zaman yapay zeka ile tamamen aynı fikirde olacak mı? Cevap: Hayır.
  • Yapay zeka her zaman döngüdeki bir insanla tam bir uyum içinde olacak mı? Cevap: Yok hayır.
  • Döngüdeki bir insan, yapay zekaya kıyasla her zaman haklı mı olacak? Cevap: Şart değil.
  • Yapay zeka, döngüdeki insana kıyasla her zaman haklı mı olacak? Cevap: Zorunlu değil.

Yapay zekayı varsayılan olarak "yanlış" veya daha zayıf taraf olarak kabul edilecek şekilde ayarlayabilir ve bu nedenle bir anlaşmazlık ortaya çıktığında daima insana erteleyebilirsiniz. Benzer şekilde, yapay zekayı, bir insan yapay zeka ile anlaşmazlık içinde olduğunda yapay zekanın "doğru" kabul edildiğini varsayacak şekilde ayarlayabilirsiniz. Eğer istersek bunu programlı olarak yapabileceğimizi açıklığa kavuşturmak istiyorum. Ancak genel olarak durumun her zaman böyle olmayacağını iddia ediyorum. Belirli bir görevle ilgili bir anlaşmazlıkta birini veya diğerini tercih etme açısından yapay zekanın "haklı" mı yoksa insanın "haklı" mı olduğunu önceden bilmediğimiz ortamlar mutlaka vardır.

Sizi çok önemli ve son derece karmaşık bir soruya yönlendirdim.

Döngüdeki insan ile yapay zeka arasında mesleki bir anlaşmazlık ortaya çıktığında (veya eşdeğer olarak bunu yapay zeka ile döngüdeki insan arasında olarak ifade edebiliriz) ne yapmalıyız?

Sorudan kaçmaya çalışmayın.

Bazıları bunun asla olmayacağını iddia edebilir, ancak araba ile ilgili örneğimde de belirttiğim gibi, bu kesinlikle gerçekleşebilir. Bazıları, insanın açıkça üstün olduğunu ve herhangi bir anlaşmazlığın kazananı olması gerektiğini iddia edebilir. Benim araba ve tuğla duvar örneğim bunu yıkıyor. Görünüşte insan duygularının ve gelişigüzel bulanık düşünen insanların ahlaksız düşüncelerinin üstesinden gelmesi nedeniyle, yapay zekanın kazanan olması gerektiğinde ısrar edebilecek yapay zeka savunucuları var. Arabanın hendeğe doğru ilerlediğini gösteren diğer örneğim bir kez daha bu iddiayı çürütüyor.

Gerçek dünyada, yapay zeka ve insanlar, ortaklaşa üstlenilen bir görevi gerçekleştirmek için kasıtlı olarak bir ekip oluşturma durumuna getirilseler bile, aynı fikirde olmayacaklardır. O olacak. Başımızı kuma gömüp bu olmayacakmış gibi davranamayız.

Uçağı kullanan insanların bariz bir şekilde anlaşmazlığa düştüğünü gördük. Neyse ki, aynı fikirde olmamayı kabul ettiler, öyle görünüyor. Uçağı terminale geri getirdiler. Anlaşmazlığı çözmenin bir yolunu buldular. Anlaşmazlıklarının çözümü, belki kokpitte yumruklaşmalarına ya da havaya uçup birbirleriyle kavga etmeye devam etmelerine kıyasla iyi sonuç verdi. Bu, savunulması mümkün olmayan üzücü bir senaryodur ve gerçekleşmediği için şükredebiliriz.

Yapay zeka ve döngüdeki insan (veya döngüdeki insan ve yapay zeka) anlaşmazlıklarının çözülebileceği çeşitli yollardan oluşan listemi sunmama izin verin:

  • Yapay zeka ve bir araya gelen insan, sorunları (dostane olsun ya da olmasın) çözer
  • Varsayılan olarak insan yapay zekaya üstün gelir
  • Yapay zeka varsayılan olarak insana üstün gelir
  • Varsayılan olarak önceden belirlenmiş başka bir sabit çözünürlük geçerli olur
  • Üçüncü taraf insan devreye girer ve onların göstergeleri taraflara üstün gelir
  • Üçüncü taraf yapay zeka devrededir ve onun göstergesi taraflara üstün gelir
  • Üçüncü taraf insan, mevcut insanın yerini alır, işler yeniden ilerler
  • Üçüncü taraf yapay zeka mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor
  • Üçüncü taraf insan, mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor (artık insandan insana)
  • Üçüncü taraf yapay zeka mevcut insanın yerini alıyor, işler yeniden ilerliyor (artık yapay zekadan yapay zekaya)
  • Diğer

Bunlar paketten çıkarılmaya fazlasıyla değer.

Yapay zeka ve insanlar arasındaki anlaşmazlıklarla nasıl başa çıkılacağının altında yatan vahşi ve belirsiz düşünceler hakkında biraz daha et ve patatese girmeden önce, son derece önemli konulara ilişkin bazı ek temelleri ortaya koyalım. Yapay Zeka Etiğine ve özellikle Makine Öğrenimi (ML) ve Derin Öğrenmenin (DL) ortaya çıkışına kısaca değinmemiz gerekiyor.

Bugünlerde yapay zeka alanındaki ve hatta yapay zeka alanının dışındaki en yüksek seslerden birinin, daha büyük bir Etik Yapay Zeka görünümü için yaygara kopardığının belli belirsiz farkında olabilirsiniz. Yapay Zeka Etiği ve Etik Yapay Zeka'ya atıfta bulunmanın ne anlama geldiğine bir göz atalım. Bunun da ötesinde, Makine Öğrenimi ve Derin Öğrenmeden bahsettiğimde ne demek istediğimi keşfedeceğiz.

AI Ethics'in medyanın çok ilgisini çeken belirli bir bölümü veya bölümü, istenmeyen önyargılar ve eşitsizlikler sergileyen AI'dan oluşur. AI'nın son dönemi başladığında, bazılarının şimdi dediği şeye karşı büyük bir coşku patlaması yaşandığının farkında olabilirsiniz. AI için iyi. Ne yazık ki o coşkun heyecanın ardından şahit olmaya başladık. Kötü İçin AI. Örneğin, çeşitli AI tabanlı yüz tanıma sistemlerinin, şurada tartıştığım ırksal önyargılar ve cinsiyet önyargıları içerdiği ortaya çıktı. buradaki bağlantı.

Karşı koyma çabaları Kötü İçin AI aktif olarak yürütülmektedir. sesli yanı sıra yasal Yanlış yapmayı dizginleme arayışlarının yanı sıra, AI kötülüğünü düzeltmek için AI Etiğini benimsemeye yönelik önemli bir baskı da var. Buradaki fikir, AI'nın geliştirilmesi ve sahaya sürülmesi için temel Etik AI ilkelerini benimsememiz ve onaylamamız gerektiğidir. Kötü İçin AI ve aynı anda tercih edileni müjdeleyen ve teşvik eden AI için iyi.

İlgili bir fikirde, AI sıkıntılarına çözümün bir parçası olarak AI kullanmaya çalışmanın, bu şekilde ateşle ateşle mücadele etmenin bir savunucusuyum. Örneğin, Etik AI bileşenlerini, AI'nın geri kalanının işleri nasıl yaptığını izleyecek ve böylece potansiyel olarak herhangi bir ayrımcı çabayı gerçek zamanlı olarak yakalayacak bir AI sistemine yerleştirebiliriz, şuradaki tartışmama bakın: buradaki bağlantı. Ayrıca, bir tür AI Etik monitörü görevi gören ayrı bir AI sistemimiz olabilir. AI sistemi, başka bir AI'nın etik olmayan uçuruma girdiğini izlemek ve tespit etmek için bir gözetmen olarak hizmet eder (bkz. buradaki bağlantı).

Birazdan, AI Etiğinin altında yatan bazı kapsayıcı ilkeleri sizinle paylaşacağım. Orada burada dolaşan bu tür birçok liste var. Henüz tekil bir evrensel çekicilik ve uyum listesi olmadığını söyleyebilirsiniz. Bu talihsiz haber. İyi haber şu ki, en azından hazır AI Etik listeleri var ve bunlar oldukça benzer olma eğiliminde. Hepsi bir arada, bu, AI Etiğinin nelerden oluştuğuna dair genel bir ortaklığa doğru yolumuzu bulduğumuz bir tür mantıklı yakınsama yoluyla olduğunu gösteriyor.

İlk olarak, yapay zeka yapan, alan oluşturan veya kullanan herkes için nelerin hayati bir husus olması gerektiğini göstermek için genel Etik AI ilkelerinden bazılarını kısaca ele alalım.

Örneğin, Vatikan'ın da belirttiği gibi Yapay Zeka Etiği İçin Roma Çağrısı ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar belirlenmiş altı temel AI etik ilkesidir:

  • Şeffaflık: Prensipte, yapay zeka sistemleri açıklanabilir olmalıdır
  • Kapsama: Herkesin yararlanabilmesi için tüm insanların ihtiyaçları göz önünde bulundurulmalı ve tüm bireylere kendilerini ifade etmeleri ve geliştirmeleri için mümkün olan en iyi koşullar sunulmalıdır.
  • Sorumluluk: Yapay zeka kullanımını tasarlayan ve uygulayanlar sorumluluk ve şeffaflıkla ilerlemelidir.
  • Tarafsızlık: Önyargıya göre yaratmayın veya hareket etmeyin, böylece adaleti ve insan onurunu koruyun
  • Güvenilirlik: AI sistemleri güvenilir bir şekilde çalışabilmelidir
  • Güvenlik ve gizlilik: AI sistemleri güvenli bir şekilde çalışmalı ve kullanıcıların gizliliğine saygı göstermelidir.

ABD Savunma Bakanlığı'nın (DoD) raporlarında belirttiği gibi Yapay Zeka Kullanımına İlişkin Etik İlkeler ve derinlemesine ele aldığım gibi buradaki bağlantı, bunlar onların altı temel AI etik ilkesidir:

  • Sorumluluk sahibi: Savunma Bakanlığı personeli, AI yeteneklerinin geliştirilmesi, devreye alınması ve kullanılmasından sorumlu olmaya devam ederken, uygun düzeyde muhakeme ve özen gösterecektir.
  • Adil: Departman, AI yeteneklerinde istenmeyen önyargıları en aza indirmek için kasıtlı adımlar atacaktır.
  • İzlenebilir: Departmanın AI yetenekleri, ilgili personelin şeffaf ve denetlenebilir metodolojiler, veri kaynakları ve tasarım prosedürü ve dokümantasyonu dahil olmak üzere AI yeteneklerine uygulanabilir teknoloji, geliştirme süreçleri ve operasyonel yöntemler hakkında uygun bir anlayışa sahip olacağı şekilde geliştirilecek ve konuşlandırılacaktır.
  • Güvenilir: Departmanın yapay zeka yeteneklerinin açık, iyi tanımlanmış kullanımları olacaktır ve bu tür yeteneklerin emniyeti, güvenliği ve etkinliği, tüm yaşam döngüleri boyunca bu tanımlanmış kullanımlar dahilinde teste ve güvenceye tabi olacaktır.
  • Yönetilebilir: Departman, amaçlanan işlevlerini yerine getirmek için AI yeteneklerini tasarlayacak ve tasarlayacak ve istenmeyen sonuçları tespit etme ve bunlardan kaçınma yeteneğine ve istenmeyen davranışlar sergileyen konuşlandırılmış sistemleri devre dışı bırakma veya devre dışı bırakma yeteneğine sahip olacaktır.

Ayrıca, “AI Etik Yönergelerinin Küresel Peyzajı” (yayınlanan) başlıklı bir makalede çok sayıda ulusal ve uluslararası AI etik ilkesinin özünü inceleyen ve yoğunlaştıran araştırmacılar tarafından tasarlanan bir diziyi ele almak da dahil olmak üzere AI etik ilkelerinin çeşitli toplu analizlerini tartıştım. içinde Tabiat) ve kapsamımın araştırdığı buradaki bağlantı, bu kilit taşı listesine yol açtı:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Doğrudan tahmin edebileceğiniz gibi, bu ilkelerin altında yatan özellikleri belirlemeye çalışmak son derece zor olabilir. Daha da ötesi, bu geniş ilkeleri tamamen somut ve AI sistemlerini oluştururken kullanılabilecek kadar ayrıntılı bir şeye dönüştürme çabası da kırılması zor bir cevizdir. AI Etik ilkelerinin ne olduğu ve bunların genel olarak nasıl gözlemlenmesi gerektiği konusunda genel olarak biraz fikir alışverişi yapmak kolaydır, ancak AI kodlamasında yolu karşılayan gerçek kauçuk olmak zorunda olmak çok daha karmaşık bir durumdur.

AI Etik ilkeleri, AI geliştiricileri tarafından, AI geliştirme çabalarını yönetenler ve hatta nihayetinde AI sistemlerinde saha ve bakım yapanlar tarafından kullanılacaktır. Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. Bu önemli bir vurgudur, çünkü "yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayımdır. Daha önce belirtildiği gibi, AI'yı tasarlamak ve sahaya çıkarmak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan da emin olalım.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. hakkında çılgınca spekülasyon yapmak istersek duygulu AI, bu tartışma tamamen farklı bir yöne gidebilir. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

İşleri daha gerçekçi tutalım ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını ele alalım.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şimdi gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Yapay zeka ile insan arasındaki anlaşmazlıklara odaklanalım.

Daha önce bunların anlaşmazlık çözme stratejilerinden bazıları olduğunu belirtmiştim:

  • Yapay zeka ve bir araya gelen insan, sorunları (dostane olsun ya da olmasın) çözer
  • Varsayılan olarak insan yapay zekaya üstün gelir
  • Yapay zeka varsayılan olarak insana üstün gelir
  • Varsayılan olarak önceden belirlenmiş başka bir sabit çözünürlük geçerli olur
  • Üçüncü taraf insan devreye girer ve onların göstergeleri taraflara üstün gelir
  • Üçüncü taraf yapay zeka devrededir ve onun göstergesi taraflara üstün gelir
  • Üçüncü taraf insan, mevcut insanın yerini alır, işler yeniden ilerler
  • Üçüncü taraf yapay zeka mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor
  • Üçüncü taraf insan, mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor (artık insandan insana)
  • Üçüncü taraf yapay zeka mevcut insanın yerini alıyor, işler yeniden ilerliyor (artık yapay zekadan yapay zekaya)
  • Diğer

Bunları açmanın zamanı geldi.

Öncelikle bunun tamamen bununla ilgili olduğunu düşünün. profesyonel anlaşmazlıklar.

Mesleki bir anlaşmazlık genel anlamda işle ilgili bir görevle ilgili bir anlaşmazlık olarak tanımlanır.

Örneğin, bir pilot ile yardımcı pilot arasında, fırtınayla karşı karşıya olan bir uçuşa devam edilip edilmeyeceği konusunda ortaya çıkan bir anlaşmazlık, makul bir şekilde mesleki bir anlaşmazlık olarak etiketlenebilir. Buna karşılık, pilotun hangi kahve markasını savunduğuna ve yardımcı pilotun tercih ettiği markaya ilişkin şiddetli bir anlaşmazlık, bu özel bağlamda kolaylıkla profesyonel olmayan bir anlaşmazlık olarak sınıflandırılır.

Elbette, profesyonel olmayan bir anlaşmazlık profesyonel bir anlaşmazlığa dönüşüyorsa, profesyonel olmayan anlaşmazlığın varsayılan kaynağı veya kıvılcımı olarak sonuçta profesyonel olmayan anlaşmazlığa ilgi duyabiliriz. Bir pilot ve yardımcı pilotun, hangi marka kahvenin en iyisi olduğu konusunda acı bir şekilde tartıştıklarını ve bunun, ne yazık ki, kalkış yapıp yapmama gibi uçuşa özgü endişelere (kelime oyunu!) dönüştüğünü hayal edin.

İkincisi, mesleki anlaşmazlığın büyüklüğünü aklımızda tutmamız gerekiyor.

Belki pilot ve yardımcı pilot ya da uçmaya devam etme konusunda hafif bir anlaşmazlık içindedir. Anlaşmazlık içinde değiller ve yalnızca kalkış yapıp yapmama konusunda artıları ve eksileri düşünüyorlar. Bu, burada geleneksel olarak ele aldığımız mesleki bir anlaşmazlığın çapı veya büyüklüğü değildir. Mesele şu ki, mesleki anlaşmazlık geçici olabilir ve her iki taraf da samimi bir şekilde veya en azından zamanında bir çözüm bulabilir. Genel olarak, kapsam dahilindeki mesleki anlaşmazlıkların odak noktası, görünüşte inatçı olanlardır ve iki taraf kararlı bir şekilde anlaşmazlık içinde kalır.

Üçüncüsü, bu kuralların devreye girmesi için genellikle ciddi bir şeyin söz konusu olması gerekir.

Uçuşun fırtına nedeniyle risk altında olması veya uçağın böyle bir yolculuğa tam olarak hazır olmadığı düşünülüyorsa, uçmayı veya uçmamayı seçmek, kesinlikle ölüm kalım meselesi niteliğinde bir karardır. Bu ciddi bir iş. Değerinden daha fazla sıkıntı yaratsa da, daha az etkili mesleki anlaşmazlıklara da yönergeleri uygulayabiliriz.

Tamam, düşüncelerimiz şu:

  • Anlaşmazlık, profesyonel olmayan bir şeyden ziyade, esas olarak profesyonelliğe yöneliktir
  • Anlaşmazlık sürekli bir niteliktedir ve yalnızca geçici veya başka bir şekilde kolaylıkla çözüme kavuşturulmuş değildir.
  • Anlaşmazlık ciddi sonuçların habercisidir ve genellikle etkili bir sonuç doğurur
  • Taraflar kavgalı ve inatçı görünüyorlar

Şimdi bu tür mesleki anlaşmazlıklarla nasıl başa çıkılacağına ilişkin önerdiğim yönergelere veya yaklaşımlara daha yakından bakalım.

Yapay zeka ve bir araya gelen insan, sorunları (dostane olsun ya da olmasın) çözer

Listeye yapay zeka ve döngüdeki insanın kendi aralarındaki mesleki anlaşmazlığı çözebilecekleri ihtimaliyle başlıyorum. Görünüşe göre pilot ve yardımcı pilottan oluşan iki insan örneği bu tür bir durumu örneklendiriyor olabilir. Bir şekilde terminale dönüp kendi yollarına gitmeye karar verdiler. Bir yapay zeka sistemi ve bir insan, genel olarak her iki taraf için de tatmin edici olan bir çözümleme yaklaşımı bulabilir ve böylece konu tatmin edici bir şekilde sonuçlandırılabilir.

Varsayılan olarak insan yapay zekaya üstün gelir

Yapay zekayı ayarlarken, profesyonel bir anlaşmazlık ortaya çıktığında döngüdeki insanın her zaman galip geleceğini söyleyen bir kural programlayabiliriz. Bu açıkça kodlanmış varsayılan olacaktır. Her ihtimale karşı bir çeşit geçersiz kılmaya da izin verebiliriz, ancak geçerli kural insanın üstün gelmesi olacaktır.

Yapay zeka varsayılan olarak insana üstün gelir

Yapay zekayı ayarlarken, profesyonel bir anlaşmazlık ortaya çıktığında yapay zekanın her zaman döngüdeki insana üstün geleceğini söyleyen bir kural programlayabiliriz. Bu açıkça kodlanmış varsayılandır. Her ihtimale karşı bir tür geçersiz kılmaya da izin verebiliriz, ancak geçerli kural yapay zekanın üstün gelmesi olacaktır.

Varsayılan olarak önceden belirlenmiş başka bir sabit çözünürlük geçerli olur

Yapay zekayı ayarlarken, döngüdeki insanla profesyonel bir anlaşmazlık ortaya çıktığında önceden belirlenmiş başka bir sabit çözümün geçerli olacağını söyleyen bir kural programlayabiliriz. Döngüdeki insan varsayılan olarak geçerli değildir. AI varsayılan olarak geçerli değildir. Önceden belirlenmiş başka bir karar daha var. Örneğin, belki de iki taraftan hangisinin doğru yol olarak kabul edildiğine karar vermek için kullanılacak yazı tura atılması söz konusu olabilir. Bu açıkça oldukça keyfi görünebilir; dolayısıyla başka bir örnek yaklaşım, iki tarafın girdilerine dayalı olarak bir değer hesaplayan ve eşitliği bozan bir sonuca ulaşan özel bir kuralın devreye girmesi olabilir.

Üçüncü taraf insan devreye girer ve onların göstergeleri taraflara üstün gelir

Mesleki bir anlaşmazlık durumunda, bir kural, insan olan üçüncü bir tarafın çağrılması ve anlaşmazlığın çözümüne ilişkin bir karar vermesi için ortama dahil edilmesi olabilir. Yapay zeka, üçüncü taraf insanın kararına uymaya programlanmıştır. Halihazırda döngüdeki insan olan insana, böyle bir durum ortaya çıkarsa kendisinin de üçüncü taraf insana başvurması gerektiği konusunda önceden talimat verilmiştir. Bir yana, kararın döngüdeki insanın duruşuyla aynı fikirde olmaması durumunda, döngüdeki insanın, üçüncü taraf insanın vereceği karara uyma konusunda endişe duyabileceğini muhtemelen tahmin edebilirsiniz.

Üçüncü taraf yapay zeka devrededir ve onun göstergesi taraflara üstün gelir

Profesyonel bir anlaşmazlık durumunda, farklı bir yapay zeka sistemi olan üçüncü bir tarafın çağrılması ve anlaşmazlığın çözümüne ilişkin bir karar vermesi için ortama dahil edilmesi bir kural olabilir. Orijinal yapay zeka, üçüncü taraf yapay zekanın kararına uymaya programlanmıştır. Halihazırda döngüdeki insan olan insana, böyle bir durum ortaya çıkarsa kendisinin de üçüncü taraf yapay zekaya başvurması gerektiği talimatı verildi. Bir yana, kararın döngüdeki insan duruşuyla aynı fikirde olmaması durumunda, döngüdeki insanın üçüncü taraf yapay zekanın vereceği karara uyma konusunda endişe duyabileceğini muhtemelen tahmin edebilirsiniz.

Üçüncü taraf insan, mevcut insanın yerini alır, işler yeniden ilerler

Mesleki bir anlaşmazlık üzerine, döngüdeki insanın yerini, insan olan üçüncü bir kişi alır ve bu, bundan sonra döngüdeki insan haline gelir. Görev için orijinal döngüdeki insan olan insan, artık eldeki görevin bir parçası olarak kabul edilmiyor. Artık değiştirilen döngüdeki insanla başka türlü nelerin ortaya çıkacağı açık bir husustur, ancak onların iş görevinde artık devam eden bir rolleri olmadığını kesin olarak söylüyoruz.

Üçüncü taraf yapay zeka mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor

Profesyonel bir anlaşmazlık üzerine, yapay zekanın yerini üçüncü taraf bir yapay zeka alır ve bu, bundan böyle eldeki iş görevi için kullanılan yapay zeka haline gelir. Başlangıçta görev için kullanılan yapay zeka artık eldeki görevin bir parçası olarak görülmüyor. Şimdi değiştirilen yapay zeka ile başka türlü nelerin ortaya çıkacağı açık bir husustur, ancak kesinlikle yapay zekanın artık iş görevinde devam eden bir rolü olmadığını söylüyoruz.

Üçüncü taraf insan, mevcut yapay zekanın yerini alıyor, işler yeniden ilerliyor (artık insandan insana)

Profesyonel bir anlaşmazlık üzerine, yapay zekanın yerini üçüncü taraf bir insan alır ve bu kişi artık eldeki iş görevi için kullanılacak ortak ekip olarak kabul edilen taraf haline gelir. Başlangıçta görev için kullanılan yapay zeka artık eldeki görevin bir parçası olarak görülmüyor. Şimdi değiştirilen yapay zeka ile başka türlü nelerin ortaya çıkacağı açık bir husustur, ancak kesinlikle yapay zekanın artık iş görevinde devam eden bir rolü olmadığını söylüyoruz. Kısacası bu artık iki tarafın insan insana gerçekleştirdiği bir görev haline geldi.

Üçüncü taraf yapay zeka mevcut insanın yerini alıyor, işler yeniden ilerliyor (artık yapay zekadan yapay zekaya)

Mesleki bir anlaşmazlık üzerine, döngüdeki insanın yerini üçüncü taraf bir yapay zeka alır ve bu yapay zeka, bundan böyle döngüdeki önceki insanın yerini alır. Görev için orijinal döngüdeki insan olan insan, artık eldeki görevin bir parçası olarak kabul edilmiyor. Bu, artık değiştirilen döngüdeki insanla başka türlü nelerin ortaya çıkacağı konusunda açık bir husustur, ancak onların iş görevinde artık devam eden bir rolleri olmadığını kesin olarak söylüyoruz. Kısacası, bu artık görevi gerçekleştirmek için iki taraflı bir yapay zekadan yapay zekaya dönüşüyor.

Diğer

Mesleki bir anlaşmazlıkla başa çıkmak için başka varyasyonlar da tasarlanabilir, ancak burada bazı temel taşları ele aldık.

Belirli bir durum için bu yaklaşımlardan hangisinin doğru olacağına nasıl karar vereceğiz?

Böyle bir seçimin yapılmasında çok çeşitli sorunlar söz konusudur. Teknolojik hususlar var. İşle ilgili hususlar var. Hukuki ve etik hususlar var.

Bir dereceye kadar, bu yüzden AI Etiği ve Etik AI çok önemli bir konudur. Yapay Zeka Etiği ilkeleri, uyanık kalmamızı sağlar. AI teknoloji uzmanları zaman zaman teknolojiyle, özellikle de yüksek teknolojinin optimizasyonu ile meşgul olabilirler. Mutlaka daha büyük toplumsal sonuçları dikkate almıyorlar. Yapay Zeka Etiği zihniyetine sahip olmak ve bunu yapay zeka geliştirme ve saha oluşturmaya entegre etmek, AI Etiğinin firmalar tarafından nasıl benimsendiğinin değerlendirilmesi de dahil olmak üzere (belki de şaşırtıcı veya ironik bir şekilde) uygun AI üretmek için hayati önem taşır.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Aslında, bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazları öldüreceğimiz konusunda önceden uyarıyorlar.

Bu ağır tartışmanın bu noktasında, bahse girerim, bu konuyu sergileyebilecek bazı açıklayıcı örnekler arzu ediyorsunuzdur. Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: Yapay zeka tabanlı gerçek sürücüsüz arabaların ortaya çıkışı, yapay zeka ve insan arasındaki anlaşmazlıkların çözümüne dair herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına kullandığı ve sürüş görevi sırasında herhangi bir insan yardımının olmadığı arabalardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Henüz Seviye 5'te gerçek bir kendi kendini süren araba yok ve bunun başarılmasının mümkün olup olmayacağını veya oraya varmanın ne kadar süreceğini henüz bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Sürücüsüz Arabalar ve Yapay Zeka-İnsan Anlaşmazlığı

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Umarım bu, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağlar.

Tamamen otonom araçlar için, başlangıçta döngüde herhangi bir insanın bulunmaması olasılığı nedeniyle, bir insan ile yapay zeka arasında profesyonel bir anlaşmazlık ihtimali olmayabilir. Günümüzün sürücüsüz otomobil üreticilerinin birçoğunun arzusu, insan sürücüyü sürüş görevinden tamamen çıkarmaktır. Araçta insanların erişebileceği sürüş kontrolleri bile bulunmayacak. Bu durumda, eğer mevcutsa, bir insan sürücü herhangi bir sürüş kontrolüne erişime sahip olmadığı için sürüş görevine katılamayacaktır.

Bazı tamamen otonom araçlar için, bazı tasarımlar hala bir insanın döngü içinde olmasına izin veriyor, ancak insanın mevcut olması veya sürüş sürecine katılması gerekmiyor. Böylece, eğer kişi isterse araba sürmeye katılabilir. Ancak yapay zeka hiçbir zaman sürüş görevlerinden herhangi birinin yerine getirilmesi için insana bağımlı değildir.

Yarı otonom araçlarda insan sürücü ile yapay zeka arasında el ele bir ilişki var. İnsan sürücü, sürüş kontrollerini tamamen devralabilir ve esas olarak yapay zekanın sürüşe katılmasını engelleyebilir. İnsan sürücü, yapay zekayı yeniden sürüş rolüne döndürmek isterse bunu yapabilir, ancak bu bazen insanı sürüş kontrollerinden vazgeçmeye zorlar.

Yarı otonom operasyonun başka bir şekli, insan sürücünün ve yapay zekanın ekip halinde birlikte çalışmasını gerektirecektir. Yapay zeka sürüyor ve insan sürüyor. Birlikte araba kullanıyorlar. Yapay zeka insana saygı gösterebilir. İnsan yapay zekaya boyun eğebilir.

Bir noktada, yapay zeka sürüş sistemi ve döngüdeki insan sürücü, mevcut sürüş görevine ilişkin "mesleki anlaşmazlığın" bir noktasına ulaşabilir.

Mesleki bir anlaşmazlıkla başa çıkma konusunda yukarıda bahsedilen kuralların bazılarının uygulanmasının ne kadar zor olabileceğini göstermek için, üçüncü taraf bir insanı konuya dahil etmesi ve çözülmemiş sorunu çözmek için bir karar önermesi örneğini düşünün.

Bir otomobil üreticisinin veya sürücüsüz teknoloji firmasının, uzaktan çalışan operatörlerin, filolarındaki araçların sürüş kontrollerine erişebilmesi için düzenleme yaptığını varsayalım. İnsan operatör uzaktaki bir ofiste veya benzer bir ortamda oturuyor. Bir bilgisayar sistemi aracılığıyla sürücüsüz araca yüklenen kameralara ve diğer sensör cihazlarına erişerek sürüş sahnesini görüntüleyebiliyorlar. Onlara göre bu neredeyse çevrimiçi bir video oyunu oynamak gibidir, ancak elbette gerçek hayattaki koşullar potansiyel olarak vahim sonuçlara yol açabilir.

Bir yapay zeka sistemi ve arabanın içindeki bir insan sürücü, yarı otonom bir aracı uzun bir otoyolda sürüyor. Yapay zeka birdenbire bir hendeğe yönelmek istiyor. İnsan sürücü bunu yapmak istemez. İkili, sürüş kontrolleri üzerinde tartışıyor.

Bu nasıl çözülecek?

Belki her zaman insanın kazanacağını önceden tesis edebilirdik. Bunu yapmamayı tercih ettiğimizi varsayalım.

Yapay zekanın her zaman kazanacağını önceden tespit edebilirdik. Bunu yapmamayı seçtiğimizi varsayalım. Sonuçta, üçüncü taraf bir kişinin müdahale etmesine ve herhangi bir asli nitelikteki mesleki anlaşmazlığı çözmesine izin vermeye karar vermemiz dışında, bu kuralların hiçbirini benimsemedik.

Bu kullanım durumunda yapay zeka ve direksiyondaki insan sürücü, sürüş kontrolleri için mücadele ediyor. Bu, diyelim ki uzaktaki insan operatöre (üçüncü taraf insanımıza) iletildi. Uzak insan operatör neler olup bittiğini inceliyor ve hendekten uzaklaşmaya karar veriyor, görünüşe göre yapay zekanın yapmaya çalıştığı şeyi önlüyor. Aynı zamanda, uzaktaki insan operatörün, muhtemelen ne yapay zekanın ne de arabanın içindeki insan sürücünün yapmak istemediği şekilde karşıdan gelen trafiğe yön verdiğini varsayalım.

Mesele şu ki, bu kuralın uygulanma şekli, üçüncü taraf insan operatörün hem yapay zekayı hem de döngüdeki insanı tamamen geçersiz kılabilmesidir. Bunun iyi bir sonuç üretip üretmeyeceği kesinlikle garanti değildir.

Bu örneği, bu konulardaki bazı ek bilgileri vurgulamak için kullanacağım.

Bu kurallardan birinin uygulamaya konması nedeniyle çözülen anlaşmazlığın sonucunun mutlaka iyi bir sonuç olacağının garanti olduğu gibi küstahça bir varsayımda bulunamazsınız. Öyle olmayabilir. Seçilebilecek katı ve her zaman doğru kural türü yoktur.

Daha sonra, bu kuralların bazıları uygulanabilir bir şekilde uygulanamayabilir.

Yapay zeka ve insan sürücü, sürüş kontrolleri konusunda kavga ederken uzaktan insan operatörün müdahale etmesinin örneğini düşünün. Uzaktaki insan operatörün neler olup bittiğini anlaması birkaç saniye sürebilir. O zamana kadar araç çoktan hendeğe düşmüş veya başka olumsuz sonuçlar doğurmuş olabilir. Ayrıca, aracın konumunun, örneğin herhangi bir ağ elektronik bağlantısının bulunmadığı bir yerde olması gibi, uzaktan erişimi engellediğini varsayalım. Veya aracın ağ özellikleri o anda çalışmıyor olabilir.

Gördüğünüz gibi, kural kağıt üzerinde şık görünebilir, ancak kuralı fiili kullanıma koymak çok zor veya oldukça riskli bir yaklaşım olabilir. Otonom araçların ve sürücüsüz araçların uzaktan operatörüyle ilgili eleştirel göz kapsamımı şu adreste görün: buradaki bağlantı.

Gelecek bir analizde daha derinlemesine ele alacağım başka bir ilgili konuya kısaca değinmek istiyorum.

Otonom araçlar ve yarı otonom sürücüsüz araçlarla ilgili artan endişelerden biri de sözde Sıcak Patates Sendromu.

İşte anlaşma.

Yapay zeka sürüş sistemi ve bir insan birlikte sürüş yapıyor. Korkunç bir durum ortaya çıkıyor. Yapay zeka, zor bir an meydana geldiğinde sürüş görevini bırakıp işleri insana devretmeye programlandı. Bu belki de "mantıklı" görünüyor, çünkü herhangi bir potansiyel mesleki anlaşmazlıkta varsayılan "kazanan"ın insan olduğuna ilişkin kurala başvuruyor gibiyiz.

Ancak yapay zekanın ayrılması daha hain ya da sinsi amaçlar için olabilir. Otomobil üreticisi veya sürücüsüz teknoloji firması, bir araba kazası meydana geldiğinde yapay zekalarının "kusurlu taraf" olarak değerlendirilmesini istemiyor olabilir. Görünüşe göre bu şekilde sıkışıp kalmaktan kaçınmak için yapay zeka, kontrolleri aniden insana devrediyor. Voila, muhtemelen araçtan tamamen insan sorumludur.

İşin ilginç yanı, yapay zekanın bu geçişi, diyelim ki bir çarpışmanın gerçekleşmesine bir saniye kala yaptığını varsayalım.

İnsanoğlunun gerçekten de kazayı önlemek için yeterli zamanı var mıydı?

Muhtemelen hayır.

Yapay zekanın aktarma işlemini birkaç milisaniye veya nanosaniye kala gerçekleştirdiğini varsayalım. İnsanoğlunun kazayı önlemek için herhangi bir şey yapma şansının aslında sıfır olduğunu söyleyebilirim.

Otomobil üreticisi veya sürücüsüz otomobil firması açısından bakıldığında, böyle bir araba kazası meydana geldiğinde elleri temizmiş gibi davranmaya çalışabilirler. Arabayı bir insan kullanıyordu. Arabayı yapay zeka kullanmıyordu. Tek "mantıklı" sonuç, insanın hatalı olması ve yapay zekanın tamamen suçsuz olması gerektiği gibi görünüyor.

Bu bir çanak.

Bunu gelecek bir köşe yazımda daha derinlemesine tartışacağım.

Sonuç

Mesleki anlaşmazlıklar ortaya çıkacak.

İki tarafın görevi birlikte yerine getirdiği ve hiçbir zaman mesleki anlaşmazlıkların ortaya çıkmayacağı karmaşık bir görevi hayal etmek zordur. Bu bir fantezi ülkesine ya da en azından çok nadir görülen bir şeye benziyor.

Bugün, günlük olarak barışçıl ve mantıklı bir şekilde şu ya da bu şekilde çözüme kavuşturulan, insandan insana mesleki anlaşmazlıkların çok sayıda örneğiyle karşı karşıyayız. Aslında, çoğu zaman mesleki anlaşmazlıkları teşvik etmek ve su yüzüne çıkarmak için durumları kasıtlı olarak kurarız. Bunun bazen iki kafanın bir kafadan daha iyi olduğu şeklindeki meşhur bilgeliği gösterdiğini iddia edebilirsiniz.

Yapay zeka daha yaygın hale geldikçe, çok sayıda yapay zekadan insana veya insandan yapay zekaya iki taraflı görev icracılarımız olacak ve mesleki anlaşmazlıklar bu gerçekleşecek. Tembellik her zaman insana boyun eğmektir. Bu en uygun yaklaşım olmayabilir. Yapay zeka daha iyi bir seçim olabilir. Veya yukarıda belirtilen diğer kurallardan biri daha sağlıklı bir yaklaşım olabilir.

Hepimizin genel olarak aynı fikirde olmama konusunda hemfikir olabilmemiz gerektiğini sık sık tekrarlayan bilgece bir söz vardır; ancak konu kabloya geldiğinde bazen bir anlaşmazlığın kesin bir şekilde çözülmesi gerekir, aksi takdirde eldeki mesele anlatılmamış bir felakete yol açacaktır. Bir anlaşmazlığın öylece sona ermesine izin veremeyiz. Zaman çok önemli olabilir ve hayatlar tehlikede olabilir.

Yapay zeka ile döngüdeki insanın aynı fikirde olmadığı veya bayt bayt görmediği durumlar da dahil olmak üzere, anlaşmazlıkları çözmek için bazı ihtiyatlı araçlara yönelik net bir gereklilik vardır;

Bu tamamen kabul edilebilir iddiaya katılmayacağınızı umuyorum.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot ve yardımcı pilot kalkıştan önce aynı fikirde değildi ve aniden terminale geri taksiyle gitmeyi ve kendi yollarına gitmeyi tercih etti.