Etik Yapay Zeka, Otonom Otonom Arabalarda Yapay Zeka ile İlgili Durumda olduğu gibi, Etik Davranışları Yapay Zekanın Kendi Kendine Öğrenmesini Hırslı Bir Şekilde Umuyor

Aristoteles, kalbi eğitmeden zihni eğitmenin eğitim olmadığını ünlü bir şekilde belirtmiştir.

Bu anlayışlı yorumu, etik ve ahlaki davranış hakkında bilgi edinmenin insanlık için son derece hayati olduğunu önermek için yorumlayabilirsiniz. Klasik doğaya karşı yetiştirme tartışmasında, etik geleneklerimizin ne kadarının içgüdüsel olarak yerli olduğu, ne kadarının yaşam günlerimiz boyunca öğrenildiği sorulmalıdır. Yeni yürümeye başlayan çocuklar diğer insanlara karşı dikkatlidir ve muhtemelen gördükleri ve duyduklarına dayanarak etik temellerini toplarlar. Aynı şey gençler için de söylenebilir. Açık fikirli yetişkinler için onlar da gündelik dünyayı deneyimlemenin bir sonucu olarak etik düşüncelerinde uyum sağlamaya ve ilerlemeye devam edeceklerdir.

Tabii ki, birine etik hakkında açıkça öğretmek de kurs için eşittir. İnsanlar, konuyla ilgili derslere katılarak veya belki de ilgilerini çeken etkinlik ve uygulamalara giderek etik yolları öğrenmeye mecburdurlar. Etik değerler, başkalarının kendi etik yapılarını formüle etmelerine yardımcı olacak bir araç olarak açıkça tanımlanabilir ve paylaşılabilir. Ek olarak, etik, nihayetinde etik davranışın nelerden oluştuğuna dair bir mesaj taşıyan hikayeler veya diğer öğretim biçimleri içinde ustaca gizlenmiş olabilir.

İnsanlar etiği bu şekilde aşılıyor gibi görünüyor.

Peki ya Yapay Zeka (AI)?

Böyle bir sorunun tuhaf görünebileceğinin farkındayım. İnsanların etiği benimsemelerini ve bir tür ahlaki kod görünümüyle yaşam boyunca yürümelerini kesinlikle bekliyoruz. Bu basit ve açık bir gerçektir. Öte yandan, bir makine veya bilgisayar aynı referans çerçevesine sığmıyor gibi görünüyor. İçgüdüsel tepkiniz, AI'yı etik ve ahlaki kodların bir düzenlemesine sahip olarak düşünmenin uzak veya tuhaf olduğu olabilir.

Yapay zeka hakkında yapabileceğimiz en iyi şey, onu etik davranıştan sapmayacak şekilde tasarlamaktır. AI geliştiricileri ve AI sahaları, AI'nın tasarlandığı ve uygulandığında zaten etik ilkelere uygun olmasını sağlamaktan sorumlu tutulacaktır. Kapının dışında, tabiri caizse, AI zaten bozulmamış ve tamamen etik olarak uygun bir düzenek olarak gitmeye hazır olmalıdır.

Yapay zeka sistemlerinin gerçekten de etik bir temele tamamen uyacak şekilde hazırlanmış olması gerektiğini düşünmekte kesinlikle haklısınız. En son AI sistemleri dalgası ilk kez piyasaya sürüldüğünde ve bir çağda olduğumuzu gösterdiğinde toplum oldukça heyecanlandı. AI için iyi. AI, dünyanın en zorlu sorunlarının çoğunun çözülmesine yardımcı olacaktır. Teknolojideki ilerlemeler, insan yeteneklerini bilişsel benzeri tesislerle desteklemek için kullanılıyordu, ancak henüz herhangi bir duyarlı yapay zekaya sahip olmadığımızı ve duyarlı yapay zekaya ulaşılıp ulaşılamayacağını bilmediğimizi vurgulamama izin verin.

AI'yı dünyaya sokmak için aceleyle ortaya çıkan sorun, yavaş yavaş AI'nın çirkin göbeği olarak bilinen çirkin karnını ortaya çıkardı. Kötü İçin AI. Önyargılar ve eşitsizliklerle dolu algoritmik karar verme (ADM) kullanan yapay zeka sistemleri hakkında birçok başlık var. Bunun da ötesinde, çağdaş AI'nın çoğu şeffaflık eksikliğinden muzdariptir, hesaplama kararlarını açıklamak açısından açıklanamaz olma eğilimindedir, sıklıkla adalet eksikliği sergiler ve bazılarının insani sorumluluklarını AI'yı işaret ederek yönlendirmelerine izin vermiştir.

Yazılarımda Etik AI ve AI etiğini kapsamlı bir şekilde ele alıyorum. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

nasıl olabilir Kötü İçin AI Yapay zekanın etik olmayan eylemlerden kaçınmak için baştan oluşturulması gerektiğini belirtilen bir yapı olarak kabul edersek?

Cevap çok katlıdır.

İlk olarak, birçok AI geliştiricisi ve AI alan şirket, AI'larını etik sınırlar içinde kalacak şekilde şekillendirmenin önemi konusunda kendilerinden habersizdir. Konsept onların radarında değil. Hızlı para kazanmanın cazibesi, bazılarının isteyerek üretmek istedikleri vahşi AI kavramlarını zorlamalarına neden oluyor. Herhangi bir etik şey bulmaya gerek yok. Sadece yapay zekayı kurun ve başlayın.

İkinci olarak, etik sonuçların açık bir farkındalığını süsleyen AI yapanlar var, ancak bunlar Etik AI hususlarını açıkça küçümser veya bir şekilde görmezden gelirler. Yaygın bir bakış açısı, hızlı bir şekilde başarısız olmayı ve sık sık başarısız olmayı hedefleyen klasik teknik mantradır. İşler umarım uygun bir şekilde çözülene kadar yinelemeye devam edin. AI etiğinin sistematik ve düşünceli bir şekilde dahil edilmesini bu hızlı AI çabalarına sıkıştırma şansı ne yazık ki zayıf. Etik AI'ya yönelik liderliğin güçlendirilmesi ihtiyacını tartışıyorum. buradaki bağlantı.

Üçüncüsü, AI tasarlanırken hangi etik korkulukların eğlendirilmesi gerektiği konusunda çok fazla belirsizlik var. Elbette, günümüzde birçok AI etik yönergesi var, şuradaki kapsamıma bakın: buradaki bağlantı, ancak bu kullanışlı teorik ilkelerin, inşa edilen belirli bir AI sistemi için mutlaka spesifikasyonlara dönüşmesi zor. Yavaş yavaş, Etik AI kodlama uygulamalarını içeren, soyut yönler ile atasözünün lastik-yolla buluşan yönleri arasındaki boşluğu kapatmaya yardımcı olan AI oluşturma araçlarının ve metodolojilerinin ortaya çıktığını göreceğimizi belirttim.

Dördüncüsü, buradaki vurguya göre, başlangıçta etik sınırlar içinde oluşturulmuş olsa bile, daha sonra kullanımdayken, varsayılan etik olarak kodlanmış parametrelerin ötesinde menderesler oluşturan etkilenen AI durumunu araştırıyoruz.

Bunu açmamız gerekiyor.

Günümüzün yapay zekasının çoğu, Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kullanır. Bunlar, hesaplamalı model eşleştirme teknikleri ve teknolojileridir. Genel olarak, fikir, AI'nın yapması gereken her şeyle ilgili birçok veriyi bir araya toplamanız, bu verileri seçilen hesaplamalı kalıp eşleştiriciye beslemeniz ve kalıp eşleştirmenin matematiksel olarak faydalı kalıplar bulmaya çalışmasıdır. Bu AI'nın herhangi bir duyarlılığı olmadığını unutmayın (yine, henüz böyle bir şey yoktur). Ayrıca sağduyulu bir akıl yürütme söz konusu değildir. Hepsi matematik ve hesaplamalar.

ML/DL'ye beslenen veriler zaten önyargılar ve eşitsizliklerle dolu olabilir. Bu durumda, hesaplama desen eşleştirmesinin yalnızca aynı eğilimleri taklit etmesi ihtimali vardır. Bir ırkı diğerine tercih eden veya bir cinsiyeti diğerine tercih eden veriler sağlarsanız, örüntü eşleşmesinin keşfedilen örüntü olarak buna kilitlenmesi için büyük bir şans vardır.

Bu tür bir kilitlemeyle ilgili büyük bir sorun, kalıpların verilerin bu yönüne dayandığını tahmin etmekte zorlanabilmemizdir. Dikenli ve karmaşık matematik, bu tür bulunan kalıpların yüzeyini oldukça sorunlu hale getirebilir. Yapay zekayı test etmek bile, uygulanan testlerin aralığına ve derinliğine bağlı olarak bu eğilimleri mutlaka ortaya çıkarmayacaktır.

Öyleyse, bir yapay zeka sistemi kurduğunuzu ve önceden var olan önyargıları olan verileri kullanmaktan kaçınmaya çalışarak ödevinizi yaptığınızı varsayalım. Ardından, Makine Öğrenimi ve Derin Öğrenme gerçekleştirildikten sonra, bir şekilde herhangi bir önyargı veya eşitsizlik olup olmadığını görmek için sonuçları test ettiniz. Diyelim ki bu tür istenmeyen eğilimler bulamadınız.

Tüm söylenenlere göre, şimdi devam etmek ve AI'yı kullanıma sokmak için yeşil ışık verildi. İnsanlar yapay zekayı kullanmaya başlayacak ve muhtemelen bunun etik olarak uygun olduğunu varsayacaklar. Geliştiriciler de bunu düşünüyor. AI'yı alan şirket bunu düşünüyor. Hepimiz gidiyoruz.

İşte olabilecekler.

Orijinal verilerde bulunmayan ve yapay zeka testi sırasında yakalanmayan bir önyargıya dair bir ipucu, muhtemelen etkinleştirilir. Belki de bu sadece nadiren olur. Nadir olduğu sürece her şeyin yolunda olduğuna inanabilirsiniz. Bahsedilen önyargıya karşı savunmasız olanların olayları bu şekilde görmeye istekli olduklarından şüpheliyim. AI sisteminin ve onu formüle edenlerin, ya hukuk mahkemelerinde ya da açık uçlu toplumsal görüş mahkemelerinde yansımalarla karşılaşacağını söylemeye cüret ediyorum.

Başka bir varyasyon, bir inç alma ve bir mil kapma atasözü kavramıdır. Mürekkebi başlangıçta küçük olabilir. Yapay zekanın kullanımı sırasında, yapay zeka, işler ilerledikçe kendini değiştirmek için tasarlanmış olabilir. Bu tür bir “öğrenme” veya “kendi kendine öğrenme” oldukça faydalı olabilir. Yapay zeka geliştiricilerinin yapay zeka sistemini sürekli olarak değiştirmesini ve ayarlamasını gerektirmek yerine, yapay zeka bunu kendi başına yapacak şekilde tasarlanmıştır. Gecikme yok, pahalı işçilik vb.

Bu kullanışlı kendi kendine ayarlamanın dezavantajı, yapay zekanın kullanım kapsamı dahilinde, mürekkebin daha büyük ve daha büyük olacak şekilde yükseltilebilmesidir. Önyargı dar bir köşedeyken, şimdi genişlemeye yer veriliyor. AI, bunun “yanlış” olduğuna dair hiçbir benzerliğe sahip değil ve çalışıyor gibi görünen bir şeyi yalnızca hesaplamalı olarak genişletiyor.

Bu, saçın başınızın üzerinde durmasını sağlarsa, bir sonraki varyant için oturmanız gerekir.

Baştan beri önyargının var olmadığını ve AI'nın tamamen önyargısız olduğuna dair her türlü makul inancımız olduğunu varsayalım. Ya şanslıydık ya da muhtemelen sistematik olarak verilerde hiçbir önyargı olmadığından ve hesaplama desen eşleştirmesi yoluyla hiçbirinin ortaya çıkmadığından emin olduk. Bu rahatlamaya rağmen, yapay zekanın kullanım sırasında ayarlanmasına izin verilir. Pandora'nın kapısı açılır ve yapay zeka, yapay zekanın yaptığı her şey sırasında bulunan önyargılara hesaplamalı olarak yönelmeyi seçer.

Yeni keşfedilen bir önyargı, yapay zekaya karışıyor ve hiç kimse bunun gerçekleştiği konusunda daha akıllı değil. Yikes, bir canavar yarattık, gerçek bir Frankenstein.

Bu ortaya çıkış nasıl önlenebilir veya en azından işaretlenebilir?

İlgi çeken bir yaklaşım, yapay zekaya bir etik toplama bileşeni eklemekten ibarettir. AI, Etik AI öğelerini içerecek şekilde oluşturulmuştur. Bu öğeler daha sonra AI zamanla ayarlanırken AI'nın geri kalanını izler veya izler. Yapay Zeka programlanmış etik ilkelerin ötesine geçtiğinde, Etik Yapay Zeka bu ayarlamaları yapmaya çalışır veya geliştiricileri bir şeylerin ters gittiği konusunda uyarır.

Bu Etik AI denetleme kapasitesini programlamayı deneyebilir ve AI kullanımdayken bunun geçerli olacağını umabilirsiniz.

Bir başka tartışmalı açı, Etik AI yönlerini AI sistemine eğitmek için Makine Öğrenimi ve Derin Öğrenmeyi kullanmak olacaktır.

Ne dedin?

Evet, belki de alışılmışın dışında olan kavram, bir dizi AI etik kuralını doğrudan kodlayan bir insan programcı yerine, AI'nın onları denemek ve "öğrenmek" için şekillendirilmesidir. ML/DL kullanımının tipik olarak algoritmalara veri beslemeye dayandığını ve bir hesaplama modeli eşleştirmesinin gerçekleştiğini kısaca not ettiğimi hatırlayın. Milyon dolarlık soru, etik değerleri bir AI sistemine yerleştirmek için aynı mekanizmayı kullanıp kullanamayacağımızdır.

Sanırım bunu, insanların etik ilkelerin farkına nasıl vardıkları konusundaki açılış konuşmama benzetebilirsiniz, ancak lütfen bugünün yapay zekasını insan düşüncesiyle karşılaştırılabilir olarak antropomorfize etmeyin (değildir ve bu tavsiyeyi birazdan tekrarlayacağım). AI, etik AI ilkeleriyle "doğuştan" programlanabilir. Veya AI, etik AI ilkelerini "öğrenebilir". Elbette ikisini de yapabilirsiniz, ki bu başka bir yerde ele aldığım bir şey, bkz. buradaki bağlantı.

Yapay zekanın etiği “öğrenebileceği” ve dolayısıyla muhtemelen etik davranışlara uyabileceği gibi görünüşte şaşırtıcı olan kavramı düşünmek için bir dakikanızı ayırın.

Bu araştırmacılar, bunun nasıl çalıştığını göstermek için bir evde istenen sıcaklığı bulan bir yapay zeka sistemi örneğini kullanıyorlar: “Önce çeşitli hanelerdeki insanların davranışlarını sadece bir hafta boyunca 'gözlemledi' ve tercihleri ​​hakkında sonuçlar çıkardı. Daha sonra evde birinin olup olmadığını belirlemek için hareket algılayıcı bir sensör kullandı. Ev boşken akıllı termostat yüksek enerji tasarrufu moduna girdi; insanlar evdeyken, termostat sıcaklığı kendi tercihlerine göre ayarlıyordu. Bu termostat, çok basit olmasına rağmen, bir etik botun iki gereksinimini açıkça karşılar. İnsanların tercihlerini değerlendirir ve onları ısıtma ve soğutma sisteminin kontrollerine dayatır. Bunun toplumsal ahlaki değerlerle ne ilgisi olduğu sorulabilir. Bu termostat, farklı değerlere sahip kişilerin tercih ettikleri sıcaklık ayarlarına sahip olmalarını sağlar. Ev sakinlerinin her gün gelip giderken termostatı sıfırlamasına gerek yoktur. Bu basit etik bot, aynı zamanda topluluğun toplam enerji ayak izini de azaltır” (Amitai Etzioni ve Oren Etzioni'nin ciltteki “AI Destekli Etik” başlıklı makalesine göre). Etik ve Bilgi Teknolojisi).

Etik davranışı “öğrenen” yapay zekaya sahip olmanın kıvrımlarını ve dönüşlerini daha fazla incelemeden önce, yapay zekanın durumu hakkında daha fazla şey söylemek istiyorum.

AI şu olası durumlardan oluşabilir:

1. Günümüzün duygusuz, düz-eski yapay zekası

2. İnsan kalitesinde duyarlı yapay zeka (henüz buna sahip değiliz)

3. Süper akıllı, duyarlı yapay zeka (2 numaranın ötesine geçiyor)

Ben, duyarlı olmayan düz-eski AI olan mevcut duruma odaklanacağım. Etik AI hakkında zaman zaman okuyabileceğiniz şeylerin çoğu, duyarlı AI'yı kapsar ve bu nedenle oldukça spekülatiftir. Bunun spekülatif olduğunu söylüyorum çünkü hiç kimse duygulu yapay zekanın ne olacağını eşeğe bağlayamaz. İnsan kalitesindeki duyarlı yapay zeka alanının daha da ötesinde, çok övülen süper akıllı yapay zekadır. Yapay zekanın bu tatlarının insanlığı nasıl köleleştirmeye ya da belki de hepimizi yok etmeye karar verdiğine dair pek çok bilimkurgu hikayesi ve endişesi var. Bu, yapay zekanın varoluşsal riski olarak bilinir. Zaman zaman, ikilem aynı zamanda AI'nın katastrofik riski olarak da ifade edilir.

Bazıları, AI'yı bugün sahip olduğumuz duyarlı olmayan düz-eski AI'da tuttuğumuz sürece iyi olabileceğimizi iddia ediyor. Hissedebilen yapay zekaya ulaşamadığımızı varsayalım. Hissedebilen yapay zekayı ne kadar yapmaya çalışırsak çalışalım, bunu yapamadığımızı hayal edin. Ayrıca, tartışma uğruna, duyarlı yapay zekanın gizemli bir kendiliğinden süreçle ortaya çıkmadığını varsayın.

O zaman, olası tek AI türü olan bu daha düşük kalibreli AI'nın kullanımda olacağından emin değil miyiz?

Pek sayılmaz.

Hemen hemen aynı genel sorunların ortaya çıkması muhtemeldir. Yapay zekanın bizi yok etmek istediğini “düşündüğünü” öne sürmüyorum. Hayır, sıradan, duygusuz yapay zeka, yalnızca bizi kendi kendimizi yok etmeye saplanan güç konumlarına yerleştirir. Örneğin, kitle imha silahlarına duyarlı olmayan yapay zeka koyduk. Bu otonom silahlar düşünemez. Aynı zamanda, insanlar tam olarak döngüde tutulmazlar. Sonuç olarak, bir otonom otomasyon biçimi olarak yapay zeka, ya bir insan emriyle, ya bir hata ya da hatayla ya da kötü niyetli davranışlarla ya da sorunları aşağı çeken kendi kendine ayarlamalarla, istemeden feci sonuçlara neden olur. çirkin yol vb.

AI etik sorununun, AI tarafından şart koşulan bu üç durum için de mevcut olduğunu, yani, duyarlı olmayan düz-eski AI ile AI etik sorunlarımız olduğunu ve ya sadece insan seviyesi olan ya da ulaşan uzanmış AI ile duyarlı AI ile ilgili olduğunu iddia ediyorum. alkışlanan süper zeka seviyesi.

Bu ayık beyan göz önüne alındığında, ilgili AI seviyelerinin her birinde etik problemlerle ilişkili büyüklük ve zorluğu kesinlikle tartışabiliriz. Alışılagelmiş bakış açısı, yapay zeka etik çıkmazının, duyarlı olmayan yapay zekada daha az aşılmaz, duyarlı insan-eşit yapay zeka düzeyinde daha sert ve olayların duyarlı süper zekalı yapay zeka aşamasında gerçek bir kafa karıştıran olmasıdır.

AI ne kadar iyi olursa, AI etik sorunu o kadar kötüleşir.

Belki de bu değişmez bir doğa yasasıdır.

Günümüzün yapay zekasına odaklanmaya dönersek, yapay zekanın çağdaş Makine Öğrenimi ve Derin Öğrenme yoluyla etik davranışları "öğrenmesini" sağlamaya çalışmak, endişeler ve zor problemlerle doludur. Yapay zekanın istenen etik ilkeleri toparlayamadığını varsayalım? Bunu yaparken bocaladığından nasıl emin olacağız? Ayrıca, bir yapay zeka sisteminin diğer bölümleri, toplanmış etik yapıları potansiyel olarak geçersiz kılar mı? Buna, AI anında uyum sağlıyorsa, ayarlamaların etik yönleri azaltabileceğini veya istemeden onları tamamen bunaltabileceğini ekleyin.

Daha da kötüsü, “öğrenme”, AI'nın gerçekten etik olmayan davranışlara inmesine yol açabilir. Yapay zekayı etik olmaya teşvik ederek doğru şeyi yaptığımızı düşünürken, bunun yerine yapay zekanın etik olmayan yönlerde kalıp eşleştirmeye kaydığı ortaya çıktı. Kendi ayağımızı vurmaktan bahset, bu kesinlikle olabilir.

Bu tartışmanın bu noktasında, etik "öğrenmenin" yapay zekanın günümüzün yapay zekasına nasıl uygulanabileceğini vurgulayabilecek bazı ek gerçek dünya örneklerini arzuladığınıza bahse girerim (termostat örneğinin lezzetli teaser'ı dışında).

Sorduğuna sevindim

Kalbime yakın, özel ve kesinlikle popüler bir dizi örnek var. Görüyorsunuz, etik ve yasal sonuçları da dahil olmak üzere bir yapay zeka uzmanı olarak, konunun biraz teorik doğasının daha kolay kavranabilmesi için sık sık yapay zeka Etik ikilemlerini sergileyen gerçekçi örnekler belirlemem isteniyor. Bu etik AI ikilemini canlı bir şekilde sunan en hatırlatıcı alanlardan biri, AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkmasıdır. Bu, konuyla ilgili geniş bir tartışma için kullanışlı bir kullanım örneği veya örnek teşkil edecektir.

İşte o zaman üzerinde düşünmeye değer, dikkate değer bir soru: AI tabanlı gerçek kendi kendini süren arabaların ortaya çıkışı, AI'nın Etik AI ilkelerini "öğrenebilmesi" hakkında herhangi bir şeyi aydınlatıyor mu ve eğer öyleyse, bu neyi gösteriyor?

Soruyu açmam için bir dakika izin verin.

İlk olarak, gerçek kendi kendini süren bir arabada insan sürücünün bulunmadığına dikkat edin. Gerçek kendi kendini süren arabaların bir AI sürüş sistemi ile sürüldüğünü unutmayın. Direksiyonda bir insan sürücüye ihtiyaç yoktur ve bir insanın aracı sürmesi için bir hüküm yoktur. Otonom Araçlar (AV'ler) ve özellikle kendi kendini süren arabalarla ilgili kapsamlı ve devam eden kapsamım için, bkz. buradaki bağlantı.

Gerçek kendi kendini süren arabalardan bahsettiğimde ne anlama geldiğini daha fazla netleştirmek istiyorum.

Sürücüsüz Araçların Seviyelerini Anlamak

Açıklığa kavuşturmak gerekirse, gerçek sürücüsüz otomobiller, yapay zekanın otomobili tamamen kendi başına sürdüğü ve sürüş görevi sırasında herhangi bir insan yardımı olmadığı araçlardır.

Bu sürücüsüz araçlar Seviye 4 ve Seviye 5 olarak kabul edilir (açıklamama bakın: Burada bu linki), sürüş eforunu birlikte paylaşmak için bir insan sürücü gerektiren bir araba genellikle Seviye 2 veya Seviye 3'te değerlendirilir. Sürüş görevini birlikte paylaşan arabalar yarı otonom olarak tanımlanır ve tipik olarak çeşitli özellikler içerir. ADAS (Gelişmiş Sürücü Yardım Sistemleri) olarak adlandırılan otomatik eklentiler.

Seviye 5'te henüz bunun gerçek bir otomobili yok, ki bu da bunu başarmanın mümkün olup olmadığını ve oraya ulaşmanın ne kadar süreceğini bilmiyoruz.

Bu arada, Seviye 4 çabaları, çok dar ve seçici halka açık yol denemelerinden geçerek yavaş yavaş biraz ilgi çekmeye çalışıyor, ancak bu testin kendi başına izin verilip verilmeyeceği konusunda tartışmalar var (hepimiz bir deneyde ölüm kalım kobayız. otoyollarımızda ve yan yollarımızda yer alıyor, bazıları iddia ediyor, Burada bu linki).

Yarı özerk otomobiller bir insan şoför gerektirdiğinden, bu tür otomobillerin benimsenmesi geleneksel araçları sürmekten belirgin bir şekilde farklı olmayacaktır, bu nedenle bu konuda onları ele alacak çok fazla şey yoktur ( bir anda, daha sonra yapılan hususlar genellikle uygulanabilir).

Yarı özerk otomobiller için, halkın son zamanlarda ortaya çıkan rahatsız edici bir yönü hakkında uyarılması önemlidir, yani Seviye 2 veya Seviye 3 otomobilinin direksiyonunda uykuya dalmaya devam eden insan sürücülerine rağmen , hepimizin yarı-özerk bir araba sürerken sürücünün dikkatlerini sürüş görevinden uzaklaştırabileceğine inanmaktan kaçınmamız gerekir.

Ne kadar otomasyonun bir Seviye 2 veya Seviye 3'e atılabileceğine bakılmaksızın, aracın sürüş işlemlerinden sorumlu tarafsınız.

Kendi Kendini Süren Arabalar ve Etik Yapay Zeka Aşılama

Seviye 4 ve Seviye 5 gerçek kendi kendine giden araçlar için, sürüş görevinde bir insan sürücüsü olmayacaktır.

Tüm yolcular yolcu olacak.

AI sürüş yapıyor.

Hemen tartışılması gereken bir husus, günümüzün AI sürüş sistemlerinde yer alan AI'nın bilinçli olmadığı gerçeğini gerektirir. Başka bir deyişle, yapay zeka tamamen bilgisayar tabanlı programlama ve algoritmalardan oluşan bir kollektiftir ve kesinlikle insanların yapabildiği şekilde akıl yürütemeyecektir.

Yapay zekanın duyarlı olmamasına neden bu ilave vurgu yapılıyor?

Çünkü AI sürüş sisteminin rolünü tartışırken, AI'ya insani nitelikler atfetmediğimin altını çizmek istiyorum. Lütfen bugünlerde yapay zekayı insana benzetmeye yönelik süregiden ve tehlikeli bir eğilim olduğunu unutmayın. Aslında insanlar, henüz böyle bir YZ'nin var olmadığı yadsınamaz ve tartışılmaz gerçeğe rağmen, bugünün yapay zekasına insan benzeri bir duyarlılık atıyorlar.

Bu açıklamayla, AI sürüş sisteminin doğal olarak bir şekilde sürüşün yönlerini "bilmeyeceğini" öngörebilirsiniz. Sürüş ve bunun gerektirdiği her şeyin, sürücüsüz arabanın donanım ve yazılımının bir parçası olarak programlanması gerekecektir.

Bu konuyla ilgili olarak ortaya çıkan sayısız konuya dalalım.

İlk olarak, tüm AI kendi kendine giden arabaların aynı olmadığını anlamak önemlidir. Her otomobil üreticisi ve kendi kendini süren teknoloji firması, kendi kendini süren otomobiller tasarlama yaklaşımını benimsiyor. Hal böyle olunca da yapay zekalı sürüş sistemlerinin ne yapıp ne yapmayacağı konusunda kapsamlı açıklamalar yapmak zor.

Ayrıca, ne zaman bir AI sürüş sisteminin belirli bir şey yapmadığını belirtse, bu, daha sonra, aslında bilgisayarı o şeyi yapmak için programlayan geliştiriciler tarafından geçilebilir. AI sürüş sistemleri adım adım geliştirilmekte ve genişletilmektedir. Bugün var olan bir sınırlama, sistemin gelecekteki bir yinelemesinde veya sürümünde artık mevcut olmayabilir.

Bunun, birazdan anlatacağım şeyin altını çizmek için yeterli sayıda uyarı sağladığına inanıyorum.

Şimdi, kendi kendini süren arabalara ve AI'nın etik davranışlar hakkında kendi başına "öğrenmesini" sağlayabileceğimize dair kaşları kaldıran iddiayı gerektiren Etik AI olasılıklarına derin bir dalış yapmaya hazırız.

Kolay anlaşılır bir örnek kullanalım. AI tabanlı kendi kendini süren bir araba mahallenizdeki sokaklarda ilerliyor ve güvenli bir şekilde sürüyor gibi görünüyor. İlk başta, sürücüsüz arabaya bir bakış atmayı başardığınız her sefere özel bir ilgi gösterdiniz. Otonom araç, video kameralar, radar birimleri, LIDAR cihazları ve benzerlerini içeren elektronik sensör rafıyla öne çıktı. Kendi kendini süren arabanın topluluğunuzun etrafında dolaştığını haftalarca geçirdikten sonra, şimdi bunu zar zor fark ediyorsunuz. Size göre, zaten yoğun olan halka açık yollardaki başka bir araba.

Kendi kendini süren arabaları görmenin imkansız ya da mantıksız olduğunu düşünmeyin diye, sürücüsüz araba denemeleri kapsamındaki yerellerin nasıl yavaş yavaş çekidüzenli araçları görmeye alıştığını sık sık yazdım, şuradaki analizime bakın Burada bu linki. Yerlilerin çoğu sonunda ağızları açık, kendinden geçmiş aval aval aval aval yapmaktan, artık bu dolambaçlı kendi kendine giden arabalara tanık olmak için geniş bir can sıkıntısı yaymaya geçti.

Muhtemelen şu anda otonom araçları fark etmelerinin ana nedeni, tahriş ve çileden çıkma faktörüdür. Kitaba göre AI sürüş sistemleri, araçların tüm hız sınırlarına ve yolun kurallarına uymasını sağlar. Geleneksel insan güdümlü arabalarındaki telaşlı insan sürücüler için, kesinlikle yasalara uyan AI tabanlı kendi kendine giden arabaların arkasında sıkışıp kaldığınızda zaman zaman canınız sıkılır.

Bu, doğru ya da yanlış, hepimizin alışması gerekebilecek bir şey.

Hikayemize dönelim. Bir gün, kasabanızda veya şehrinizde kendi kendine giden bir arabanın gittiğini ve bir yayanın karşıdan karşıya geçmek için beklediği bir durumla karşılaştığını varsayalım. Yayanın kendi başına yol hakkına sahip olmadığını varsayın. İnsanla çalışan bir araba yayayı geçebilir ve bunu yaparken tamamen yasal olabilir. Aynı şekilde, AI sürüş sistemi yasal olarak bekleyen yayayı geçebilir.

İster insan sürücü ister yapay zeka sürüş sistemi olsun, yayayı durdurup caddenin karşısına geçip geçmeyeceğine karar vermek tamamen sürücünün takdirine bağlı.

Eminim bu tür bir durumla sayısız kez karşılaşmışsınızdır. Belki de aceleniz var, bu yüzden yayaların karşıya geçmesine izin vermeyin. Başka bir durumda, hedefinize ulaşmak için bolca zamanınız olur, bu nedenle durup bekleyen kişinin caddenin karşısına geçmesine izin vermeyi seçersiniz. Ruh haliniz ve belirli koşullar, ne yapmayı seçeceğinizi belirler.

Bu senaryoyla ilgili hiçbir şey olağandışı veya can sıkıcı görünmüyor.

Şeylerin yapay zeka tarafını incelemeden önce, bir yayanın karşıdan karşıya geçmesine izin vermenin bu özel yönünün yakından incelendiğini bilmek ilginizi çekebilir. Araştırmacılar, bazen sürücü tarafından yapılan seçimin görünüşte ırk veya cinsiyet önyargılarına bağlı olabileceğini belirlediler. Bir insan sürücü, bekleyen yayayı boyutlandırabilir ve sürücünün doğal önyargılarına dayanarak kişinin görünüşte geçmesine izin vermeyi seçebilir. Sürücünün bunu yaptığını fark edip etmediği, devam eden bir araştırma meselesidir. Şuradaki kapsamıma bakın: Burada bu linki.

Yaya geçidi durumunda bir AI sürüş sisteminin neler yapabileceğini keşfetmemiz için zemin hazırladım.

AI'nın geleneksel programlaması, AI geliştiricilerinin her zaman AI sürüş sistemini durdurmaya ve yayaların geçmesine izin vermeye karar vermesini gerektirebilir. Bu, yapılacak etik olarak uygun veya medeni bir şey gibi görünüyor. Kendi kendini süren araba, karşıdan karşıya geçmek isteyen bekleyen insanı erteler.

Kendi kendine giden bir arabanın içinde bir yolcuysanız ve yapay zeka her zaman tüm isteğe bağlı bekleyen yayalar için durmuşsa, kafayı yiyebilirsiniz. Markete hızlı seyahatinizin gerçekleşmesi birçok kez daha uzun sürebilir. Ayrıca, yasal geçiş hakkına sahip olan yayalardan bahsetmediğimizi de unutmayın, çünkü bu vakalarda muhtemelen AI her zaman izin verecek şekilde programlanmıştır. Sadece isteğe bağlı durumlara odaklanıyoruz.

İsteğe bağlı yayaların karşıdan karşıya geçmesine izin vermek için her zaman durma bildiriminin daha fazla olumsuz tarafı vardır.

Yapay zeka tabanlı kendi kendini süren arabaları yapan ve kullananlar, insanların onlara binmesini istiyor. Buradaki fikir, kendi kendini süren arabalara sahip olarak, şu anda yalnızca Amerika Birleşik Devletleri'nde yaklaşık 40,000 yıllık ölüm ve 2.5 milyon yaralanmaya neden olan yıllık araba kazalarının sayısını azaltabiliriz. Burada bu linki. Bu saygın toplumsal hedefin yanı sıra, otomobil üreticileri ve kendi kendini süren teknoloji üreticileri, doğal olarak yapay zeka yaratımlarından da para kazanmayı umuyor.

Bunu gündeme getirdim çünkü AI sürüş sistemi böyle şeyler yaparsa insanlar kendi kendini süren arabalara binmemeye karar verebilir. boşu boşuna yolculukları geciktirir. Herhangi bir sıradan insan, bunun yerine bir insan sürücü seçerek yolculuğun daha hızlı olabileceğini ve dolayısıyla bir yolculuk için yapay zekalı kendi kendini süren bir araba seçmenin seçim listesinde çok alt sıralarda yer alabileceğini düşünebilir. Bu da, araba kazalarında aranan azalmaya sahip olmayacağımız ve ayrıca üreticilerin ürünlerini potansiyel olarak kârsız bulabilecekleri anlamına gelir.

Bu argümanlar dizisi göz önüne alındığında, karşıdan karşıya geçmek isteyen bir yayanın isteğe bağlı bir örneği meydana geldiğinde yapay zekanın asla durmaması gerektiğini düşünmeye sevk edilebilirsiniz. Yapay zeka sürüş sistemini kesinlikle yasal olan her şeyi yapacak şekilde programlayın. Yayaların karşıya geçmesine izin vermek için yasal bir zorunluluk yoksa, o bekleyen yaya için büyük şans. Belki de kişi, kendi kendini süren arabayı durduran AI'nın yasal bir temeline izin veren bir geçiş noktasına gitmelidir.

Bu konudaki çığlığı hayal edebiliyor musunuz?

Kasabanızdaki veya şehrinizdeki insanlar, yapay zekalı kendi kendine giden arabaların asla isteğe bağlı bir yayanın geçmesine izin vermeyeceğini yavaş yavaş keşfeder. Bu lanet olası öfkeli AI! Yapay zeka insanlara burun kıvırıyormuş gibi. İşe yaramaz bir otomasyonun terbiyesiz veleti. Üstüne üstlük, yayaların umutsuzca karşıya geçmek zorunda olduğu belgelenmiş durumlar olduğunu ve yapay zekanın hiç durmayacağını hayal edin.

Bu arada, insan sürücüler bu “umutsuz” insanların güvenli bir şekilde caddenin karşısına geçmesine izin vermek için isteyerek duruyorlardı.

Bu öfkenin bir sonucu olarak, AI sürücüsüz arabalar artık bulunduğunuz yerin sokaklarında ve ara yollarında hoş karşılanmıyor. Belediye başkanları tarafından verilen izinler iptal edildi. Nankör kabadayıları yollarımızdan uzaklaştırmak ses yaygarasıdır.

Pekala, bir kaya ile sert bir yer arasında görünüyoruz. AI her zaman isteğe bağlı yaya geçişine izin vermemelidir (her zaman durma). AI, isteğe bağlı bir yayanın karşıdan karşıya geçmesini her zaman engellememelidir (her zaman yakınlaştırarak geçmeyin). Ne yapalım?

Açık cevap, yapay zekayı isteğe bağlı bir şekilde hareket edecek şekilde programlamak olacaktır.

Bunun içermesi gereken ADM'yi (algoritmik karar verme) düşünmenizi rica ediyorum. Yapay zeka, yayaların doğasını tespit etmeye çalışacak ve kendi kendine giden arabayı durdurup durdurmamaya karar vermek için temel olarak ayırt edilen özellikleri kullanacak mı? Belki de daha yaşlı görünen birini seçmenin yolu budur. Ama bu yaş ayrımcılığı yapımda mı? Ve bunun gibi.

Belki de AI sürüş sistemi gündüz saatlerinde duracak ve gece boyunca asla durmayacak şekilde programlanmıştır. Mantık, kendi kendini süren arabadaki sürücüler için, otonom aracın gündüz durduğunun, ancak akşamın daha leier saatlerinde değil, daha güvenli olduğu varsayılıyor.

Bu belki kulağa mantıklı geliyor. Sorunun bir kısmı yayaların beklentileri olacak. İşte demek istediğim. Yayalar, gün ışığında meydana gelen isteğe bağlı geçişler için AI kendi kendine giden arabaların durduğunu görüyor. Yayalar, AI'nın durmaya karar vermek için hangi kriterleri kullandığını bilmiyor. Bazı yayaların varsayımı, AI'nın her zaman duracağıdır (gün ışığının geceye karşı gerçek belirleyici olduğunu fark etmemek). Sonuç olarak, kendi kendini süren arabanın her zaman duracağına inanan yayalar, bir şans alacak ve AI sürüş sistemi durmayı amaçlamadığı zaman (ki, AI muhtemelen durursa duracaktır) geçmeye başlayacaklar. yaya sokağa giriyor, ancak bu riskli olabilir ve fizik, yapay zekanın kendi kendini süren arabayı görünüşte "hatalı" yayaya çarpmaktan kaçınmak için yetersiz bir süre durdurmasını engelleyebilir).

Yapay zeka geliştiricilerinin ve kendi kendini süren arabaları şehrinizde bir araya getiren ve sahaya çıkaran firmaların, bu konuda yapay zekayı nasıl hızlandıracaklarından emin olmadıklarını varsayalım.

Yerel ayardan toplanan veriler üzerinde AI'yı "eğitmeye" karar verirler. Kasabadaki arabaların geliş gidişlerini yakalayan çok sayıda şehre monte kamera olduğu ortaya çıktı. Bu veriler, caddeyi isteğe bağlı bir şekilde geçmeye çalışan birçok yaya örneğini gösterir. Tüm veriler, o yetki alanında geleneksel olarak kabul edilenleri elde etmek için bir Makine Öğrenimi ve Derin Öğrenme sistemine beslenir.

Yapay zekayı, yapılması gereken yerel etik gelenekleri yapması için eğitiyor muyuz?

Başka bir deyişle, belirli bir kasabanın, insan sürücü eylemlerinin kanıtladığı gibi, durma ve isteğe bağlı yayaların geçmesine izin verme eğiliminde olan yerel bir kültürü varsa, ML/DL potansiyel olarak bu model üzerinde hesaplamalı olarak toplanacaktır. AI daha sonra aynı şekilde eğitilecekti. Diğer uçta, eğer insan sürücüler nadiren durursa, AI potansiyel olarak bu "ders"i verileri hesaplamalı olarak analiz etmekten alır. Yapay zeka, insanların yaptığı gibi yapacak, bir nevi.

İddia, insanların etik davranışlarının verilerde yakalandığı ve yapay zekanın aynı etik ilkeleri hesaplamalı analiz yoluyla aşılayacağıdır. Bir etikçi bunu genellikle etiğe toplulukçu bir yaklaşım olarak tanımlar. Topluluğun ortak değerleri, toplumun genel olarak çabalarına yansır.

Bu züppe bir çözüm gibi görünebilir.

Ne yazık ki, birçok tuzak var.

Belki de bariz bir sorun, insan sürücülerin durmayı veya durmamayı seçerken (daha önce belirtildiği gibi) bir tür önyargı kullanıyor olmalarıdır. AI daha sonra bu önyargıların bir kopyası olacaktır. Bunun böyle olmasını istiyor muyuz?

Başka bir sorun düşünün. İnsan sürücülerin, yapay zekalı kendi kendini süren arabaların nasıl çalıştığını hemen kabul etmediğini varsayalım. İnsan sürücüler diyelim ki durmaya istekli oldukları için, bu, kendi kendini süren arabalar için aynı şekilde varsayılmayabilir. Aynı şey insan sürücülerin ellerinde olsa da, insan sürücüleri rahatsız etmiyor gibi görünse de, insan sürücülerin isteğe bağlı yayalar için durmaya devam eden yapay zekalı kendi kendine giden arabalardan rahatsız olması olabilir.

Rahatsız edici olmanın yanı sıra, insan sürücülerin istemeden kendi kendine giden arabaların arkaya gitme olasılığını da düşünebilirsiniz. Bir insan sürücü, sürücüsüz arabanın bir yaya için durmasını beklemiyorsa ve insan odaklı araba, sürücüsüz arabanın hemen arkasındaysa, ciddi bir beklenti uyuşmazlığı ortaya çıkabilir. AI sürüş sistemi, kendi kendini süren arabayı durdurur. İnsan sürücü bu eylemi beklemiyordu. İnsan sürücü sürücüsüz arabaya çarpıyor. Yaralanmalar ve muhtemelen ölümler meydana gelir.

İnsanlara zarar verme ihtimaline bilerek işaret ettim.

Karşıdan karşıya geçen yaya, ilk bakışta önemsiz bir soru gibi görünebilir. AI'nın durdurmayı veya durmamayı seçtiği herhangi bir yöntemle kimse zarar göremez gibi görünüyor. Yanlış! Yayaların ezilme ihtimali var. Kendi kendini süren arabaya insan tarafından yönlendirilen bir arabanın çarpma şansı var. İnsan tahrikli arabanın sürücüsü ve yolcuları yaralanabilir. Kendi kendini süren arabanın içindeki sürücüler zarar görebilir. Olası insan zararının ek permütasyonları kolayca tasavvur edilir.

Sonuç

İnsanlara verilen zarardan bahsetmişken, bu Etik Yapay Zeka bilmecesinde kafanızı karıştırmak için size başka bir şey vereceğim.

Bir haber, bir adamın bir arabayı bir kavşağa sürdüğünü ve bunu yapmak için yeşil ışık yaktığını bildirdi. Başka bir insan güdümlü araba kavşakta kırmızı ışıkta geçmeyi seçti ve yasa dışı ve güvenli olmayan bir şekilde engelsiz bir şekilde kavşağa girdi ve yasal olarak ilerlemekte olan araca çarpma tehdidinde bulundu.

Sürücü gazetecilere, çarpmayı almak arasında seçim yapması gerektiğini ya da çarpmayı önlemek için arabasını yönlendirebileceğini, ancak yakınlarda yayalar olduğunu ve yoldan çıkma eyleminin bu insanları tehlikeye atabileceğini söyledi. Sen ne yapardın? Bu yaklaşan araba tarafından vurulmayı seçebilir ve belki de hikayeyi anlatmak için yaşayabilirsiniz. Ya da vurulmaktan kaçınmaya çalışabilir, ancak bu arada muhtemelen masum yayaları ezebilirsiniz.

Günlük sürüşümüzün çoğunda bu tür etik açıdan çok büyük ve ani kararlar alınması gerekir. Bu ölüm kalım kararlarını ünlü veya bazılarının kötü şöhretli Tramvay Problemi ile ilişkilendirerek bunu uzun uzadıya tartıştım. buradaki bağlantı.

Bu senaryoda insan sürücüyü bir AI sürüş sistemi ile değiştirin.

Yapay zekanın ne yapmasını istiyorsunuz?

Bu kafa karıştırıcı bir soru.

Bir yaklaşım, yapay zekayı kesin olarak tamamen düz sürüş eylemi yapacak şekilde programlamaktır, böylece olası çarpışmadan uzaklaşmak gibi diğer seçenekleri hesaplamalı olarak bile dikkate almaz. Kendi kendini süren arabalardaki sürücülerin, AI'nın isabet almaktan başka bir şey yapmak için tasarlanmadığını öğrenmek için üzüleceklerini tahmin ediyorum. Davalar ve bir kargaşa bekleyebilirsiniz.

Başka bir yaklaşım, AI'yı çeşitli olasılıkları dikkate alacak şekilde denemek ve programlamak olacaktır. AI sürüş sisteminin hangi yöne gideceğine karar veren ADM'yi kim kuracak? AI geliştiricilerinin kendi başlarına bu kadar ağır kararlar almalarına izin verilmesinin bol endişelerle dolu olduğu görülüyor.

Yapay zekanın günlük trafik durumları tarafından toplanan insan sürüş verilerinden "öğrenmesine" izin vermeyi deneyebilirsiniz. Bu, yaya geçidi ikilemine ve yerel etik gelenekler ne olursa olsun yapay zekanın toplamasını sağlamak için birleştirilmiş verileri kullanma fikrine benzer. Bununla ilgili, ML/DL tarafından keşfedilen kalıpların uygun olup olmadığı gibi birçok uyarı var.

Ayrıca, ilgili etik adetlere bağlı olarak, AI'nın etik olmayan davranışları toplama şansı olduğu konusunda da önceden uyarmıştım. Örneğin, AI'nın bir şekilde, başka bir araba kendi kendini süren arabaya çarpmakla tehdit ettiğinde her zaman yayaları hedef alan bir hesaplama modeline indiğini varsayalım.

Vay, yayalara dikkat et, hazır hedef olacaksın.

Şimdilik tartışmayı kapatma ve bunu yüreklendirici bir son düşünceyle yapma zamanı.

Isaac Asimov'un 1950'de “Üç Robotik Yasası”nı önerdiğinin farkında olabilirsiniz ve bizler bu güne kadar bu ilan edilen kuralların aşığıyız. Bir yapay zeka sistemi veya robotun bir insana zarar vermemesi ve bir insanın zarar görmesine izin vermemesi gibi kurallara kolayca uyulabilir gibi görünse de, bunu karmaşık ve zaman zaman savunulamaz kılan birçok önemli nüans var, analizime bakın de buradaki bağlantı.

Her halükarda, Asimov'un daha az bilinen bir özelliği daha var: “Asla ahlak anlayışınızın doğru olanı yapmanıza engel olmasına izin vermeyin.”

Hepimizin tasarlamayı umduğumuz Etik AI için, yerleşik AI etiğinin beklediğimiz gibi olmayabileceğini ve bir şekilde AI'nın hala doğru olanı yapması gerekeceğini aklımızda tutmalıyız. Asimov güzel söylemiş. Uzun zaman önce, Aristoteles oldukça benzer duygular düşünüyor gibiydi.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- ai-in-otonom-kendi kendini süren-arabalar/