Sorumlu Yapay Zeka, En İyi Meslek Kuruluşu ACM Tarafından Yapay Zeka Etik Bildirgesi Yoluyla Olağanüstü Artışın Keyfini Çıkarıyor

Haberi gördünüz mü duydunuz mu?

Başka bir AI Etik kuralları seti yakın zamanda ilan edildi.

Kısık alkış lütfen.

Sonra tekrar, belki değil Diğer pek çok AI Etik hükmünün bir süredir ortalıkta dolaşması nedeniyle bunu fark ettim. Bazıları, Etik Yapay Zeka bildirilerinin görünüşte kesintisiz sızmasının biraz uyuşuk hale geldiğini söylüyor. Kaç taneye ihtiyacımız var? Herkes hepsini takip edebilir mi? Hangisi en iyisi? Yapay Zeka Etiği ilkeleri konusunda aşırıya kaçıyor olabilir miyiz? Ve benzeri.

Pekala, bu özel durumda, kulübe bu son ilaveyi özellikle hoş karşılamamız gerektiğini söylüyorum.

Nedenini birazdan anlayışlı bir şekilde açıklayacağım.

İlk olarak, açıklama olarak, artık resmi olarak "" olarak bilinen AI Etik kural setine atıfta bulunuyorum.Sorumlu Algoritmik Sistemler İçin İlkeler Üzerine Açıklama” ACM Teknoloji Politikası Konseyi tarafından yakın zamanda 26 Ekim 2022'de yayınlandı. Yardımcı baş yazarlar Jeanna Matthews (Clarkson Üniversitesi) ve Ricardo Baeza-Yates (Universitat Pompeu Fabra) dahil olmak üzere bu ödüllü belgeyi bir araya getiren uzman ekiplere teşekkür ederiz. ).

Bilgi sahibi olanlarınız, yakından incelendiğinde bu belgenin biraz tanıdık geldiğini fark edebilir.

Güzel göz!

Bu en son enkarnasyon, esas olarak, 2017'de ACM ABD Teknoloji Politikası Komitesi ve ACM Avrupa Teknoloji Politikası Komitesi tarafından ilan edilen önceki ortak "Algoritmik Şeffaflık ve Hesap Verebilirlik Üzerine Açıklama"nın güncellenmiş ve genişletilmiş bir çeşididir. Köşe yazılarımın sadık okuyucuları bunu hatırlayabilir. Zaman zaman 2017 tarihli kararnameden AI Etiği ve AI Yasasının altında yatan temel yönleri ele aldığım köşe yazımda bahsetmiştim.

Yapay Zeka Etiği ve Yapay Zeka Yasasına ilişkin kapsamlı ve devam eden değerlendirmem ve trend analizlerim için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

ACM'nin bu son açıklaması, birkaç hayati nedenden dolayı özellikle önemlidir.

İşte nedenidir.

için kullanışlı bir kısaltma olan ACM Bilgisayar Makineleri Birliği, dünyanın en büyük bilgi işlem odaklı derneği olarak kabul edilir. Yaklaşık 110,000 üyeden oluşan ACM, bilgi işlem alanında uzun süredir öncüdür. ACM, bilgi işlem alanındaki en üst düzey bilimsel araştırmalardan bazılarını üretir ve aynı şekilde profesyonel ağ oluşturma sağlar ve bilgi işlem uygulayıcılarına da hitap eder. Bu nedenle ACM, genellikle yüksek teknolojiye sahip olan ve bilgisayar alanını ilerletmek için yılmadan çabalayanları temsil eden önemli bir sestir (ACM 1947'de kurulmuştur).

Bu konuda da kişisel bir not ekleyebilirim. Lisede bilgisayara ilk başladığımda, ACM'ye katıldım ve eğitim programlarına katıldım, özellikle de yıllık bilgisayar programlama yarışmasında yarışmak için heyecan verici bir şans (bu tür yarışmalar günümüzde oldukça yaygın ve tipik olarak şu şekilde etiketleniyor: hackathon). Üniversitedeyken yerel üniversite bölümüm aracılığıyla ACM'ye dahil olmaya devam ediyorum ve öğrenci bölümü görevlisi olarak liderlik hakkında bilgi edinme fırsatı buldum. Sektöre girdikten sonra profesyonel bir bölüme katıldım ve bir kez daha liderlik rolü üstlendim. Daha sonra profesör olduğumda, kampüs öğrenci bölümüne sponsor olmanın yanı sıra ACM komitelerinde ve yayın kurullarında görev yaptım. Bugün bile, ACM ABD Teknoloji Politikası Komitesinde hizmet vermek de dahil olmak üzere, ACM'de aktifim.

ACM'nin hayat boyu öğrenme ve kariyer gelişimine dair sevecen ve kalıcı vizyonundan zevk alıyorum.

Her halükarda, en son AI Ethics beyannamesi açısından, bunun ACM tarafından yayınlanmış olması, ona oldukça ağır bir yük getirmektedir. Etik Yapay Zeka ilkelerinin dünya çapındaki bir bilgi işlem profesyonelleri grubunun bütünü veya ortak sesi olduğunu makul bir şekilde iddia edebilirsiniz. Orada bir şeyler söylüyor.

Ayrıca, bilgisayar alanındaki diğer kişilerin, bilgisayar meslektaşları tarafından beyan edilen beyanı dikkate alma anlamında canlanmak ve dinlemek için ilham alacakları bir yön de var. Bu nedenle, ACM'de olmayanlar veya saygı duyulan grup hakkında hiçbir şey bilmeyenler için bile, umarım açıklamanın ne hakkında olduğunu keşfetmeye büyük bir ilgi olacaktır.

Bu arada olanlar dışında Bilgisayarların Ethical AI hakkında söylediklerinin bir tür perde arkası içeriden bakışı olarak ifadeye çekilebilir. Bununla birlikte, ifadenin yalnızca bilgisayar topluluğundakilere değil herkese yönelik olduğunu vurgulamak istiyorum ve bu nedenle, AI Etik ilkelerinin olduğu gibi, tüm yönetim kurulunu kapsadığını unutmayın.

Son olarak, çok az kişinin dikkate alacağı ek bir bükülme var.

Bazen, dışarıdan kişiler bilgi işlem derneklerini teknolojide diz boyu ve özellikle bilgisayarların ve yapay zekanın toplumsal etkilerinin farkında değiller olarak algılarlar. Bu tür profesyonel kuruluşların yalnızca donanım veya yazılımdaki en son ve en yeni buluşlarla ilgilendiğini varsaymak isteyebilirsiniz. Halk tarafından, basitçe ifade edilen kaba bir tavırla, teknik inekler olarak algılanıyorlar.

Rekoru düzeltmek için, bilgisayarlara ilk girdiğimden beri bilgi işlemin sosyal etkilerine daldım ve aynı şekilde ACM de bu tür konularla derinden ilgileniyor.

Yapay Zeka Etiği ilkeleri hakkındaki bu açıklamanın ACM tarafından bir araya getirilip yayınlanmasına şaşıran herkes, bu konularda uzun süredir devam eden araştırma ve çalışmalara dikkat etmiyor. İlgilenenlerin ACM'ye iyi bakmalarını da tavsiye ederim. Etik Kurallar, yıllar içinde gelişen ve sistem geliştiricilerin çabalarının ve ürünlerinin etik sonuçlarının farkında olmaları, bunlara uymaları ve bunlara karşı uyanık olmaları gerektiğini vurgulayan katı bir profesyonel etik kodu.

AI, bilgi işlem etiği hakkında bilgi sahibi olma konusunda yangınları körüklüyor.

Bilgi işlem alanındaki etik ve yasal hususların görünürlüğü, günümüzün yapay zekasının ortaya çıkmasıyla birlikte muazzam bir şekilde arttı. Meslekteki kişiler, AI Etiği ve AI Yasası konularına uygun ilgi gösterilmesi konusunda bilgilendirilmekte ve zaman zaman davul çalmaktadır. Milletvekilleri, AI Etiği ve AI Yasaları yönlerinin giderek daha fazla farkına varıyor. Şirketler, tasarladıkları veya kullandıkları yapay zekanın hem avantajlı olduğu hem de bazen çok büyük riskler ve potansiyel olumsuzluklar yarattığı fikrine alışıyorlar.

Bu son AI Etik ilkelerine geçmeden önce uygun bir bağlam oluşturulabilmesi için son birkaç yılda neler olup bittiğini açıklayalım.

Etik Yapay Zekaya İlişkin Artan Farkındalık

AI'nın son dönemi, başlangıçta, AI için iyiBu, yapay zekayı insanlığın iyileştirilmesi için kullanabileceğimiz anlamına geliyor. Ardından AI için iyi bizim de içine daldığımızın farkına vardık Kötü İçin AI. Bu, ayrımcı olacak şekilde tasarlanan veya kendi kendini değiştiren ve aşırı önyargılar içeren hesaplamalı seçimler yapan yapay zekayı içerir. Bazen AI bu şekilde inşa edilirken, diğer durumlarda bu istenmeyen bölgeye sapar.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan emin olmak istiyorum.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. Duyarlı AI hakkında çılgınca spekülasyon yapmak isteseydik, bu tartışma kökten farklı bir yöne gidebilirdi. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

Her şeyi gerçekçi tutmamızı ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını düşünmemizi şiddetle tavsiye ederim.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Günümüzün yapay zekasını antropomorfize ederken çok dikkatli olun.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şu anda gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü olan önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Tüm bunların önemli ölçüde AI Etiği sonuçları vardır ve AI'yı yasalaştırmaya çalışırken öğrenilen derslere (hatta tüm dersler gerçekleşmeden önce) kullanışlı bir pencere sunar.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazı öldüreceğimiz konusunda önceden uyarıyorlar.

Önceki sütunlarda, yapay zekayı düzenleyen yasalar oluşturmak ve yürürlüğe koymak için çeşitli ulusal ve uluslararası çabaları ele aldım, bkz. buradaki bağlantı, örneğin. Ayrıca, yaklaşık 200 ülkenin benimsediği UNESCO AI Etiği seti gibi Birleşmiş Milletler çabası da dahil olmak üzere, çeşitli ulusların belirlediği ve benimsediği çeşitli AI Etiği ilkelerini ve kılavuzlarını da ele aldım, bkz. buradaki bağlantı.

İşte daha önce yakından araştırdığım AI sistemleriyle ilgili Etik AI kriterlerinin veya özelliklerinin yararlı bir temel taşı listesi:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Bu AI Etik ilkelerinin, AI geliştirme çabalarını yönetenlerin yanı sıra AI geliştiricileri tarafından ve hatta nihayetinde AI sistemlerinde bakım yapan ve bakım yapanlar tarafından ciddiyetle kullanılması gerekiyor.

Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. "Yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayım olduğundan, bu önemli bir vurgudur. Burada daha önce vurgulandığı gibi, AI'yı tasarlamak ve sahaya koymak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

ben de yakın zamanda inceledim AI Haklar Bildirgesi Bu, Office of Science and Technology Policy (OSTP) tarafından bir yıl süren çabanın sonucu olan “AI Bill of Rights: Making Automated Systems Work for the American People” başlıklı ABD hükümeti resmi belgesinin resmi adıdır. ). OSTP, Amerikan Başkanına ve ABD Yönetim Ofisine ulusal öneme sahip çeşitli teknolojik, bilimsel ve mühendislik yönleri hakkında tavsiyelerde bulunmaya hizmet eden federal bir kuruluştur. Bu anlamda, bu AI Haklar Bildirgesi'nin mevcut ABD Beyaz Saray tarafından onaylanan ve onaylanan bir belge olduğunu söyleyebilirsiniz.

AI Haklar Bildirgesi'nde beş kilit taşı kategorisi vardır:

  • Güvenli ve etkili sistemler
  • Algoritmik ayrımcılık korumaları
  • Veri gizliliği
  • Bildirim ve açıklama
  • İnsan alternatifleri, değerlendirme ve geri dönüş

Bu ilkeleri dikkatlice gözden geçirdim, bkz. buradaki bağlantı.

Artık bu ilgili Yapay Zeka Etiği ve Yapay Zeka Yasası konularında faydalı bir temel attığıma göre, yakın zamanda yayınlanan ACM “Sorumlu Algoritmik Sistemler İçin İlkeler Üzerine Açıklama”ya geçmeye hazırız (bu arada, belge başlığı şuna atıfta bulunduğundan) sorumlu algoritmik sistemler, konuşmanın ne anlama geldiğine dair değerlendirmeme bir göz atmak isteyebilirsiniz. güvenilir yapay zekaBakın buradaki bağlantı).

AI Etik ilkelerinin bu son setine doğru bir yolculuğa hazırlanın.

ACM Tarafından Beyan Edilen Yapay Zeka Etiği İlkelerini Özenle İncelemek

ACM'nin Etik Yapay Zeka ile ilgili bildirisi şu dokuz kilit taşından oluşur:

  • Meşruiyet ve yeterlilik
  • Zararı en aza indirmek
  • Güvenlik ve gizlilik
  • Şeffaflık
  • Yorumlanabilirlik ve açıklanabilirlik
  • İdame
  • Tartışılabilirlik ve denetlenebilirlik
  • Hesap verebilirlik ve sorumluluk
  • Çevresel etkilerin sınırlandırılması

Bu son seti diğer önemli mevcut setlerle karşılaştırırsanız, aralarında çok fazla benzerlik veya benzer yazışmalar olduğunu görürsünüz.

Bir yandan, bunu iyi bir işaret olarak kabul edebilirsiniz.

Genel olarak, etrafta dolaşan AI Etik ilkelerinin hepsinin aynı genel kapsama doğru birleştiğini umabiliriz. Bir setin başka bir setle bir şekilde karşılaştırılabilir olduğunu görmek, bu setlerin bir şekilde kafa karıştırıcı bir sol alanda değil, aynı basketbol sahası içinde olduğuna dair bir güven duygusu verir.

Bazıları tarafından olası bir şikayet, bu çeşitli kümelerin kabaca aynı görünmesidir ve bu durumda, görünüşte yinelenen çok sayıda listeye sahip olmamamız gerektiği endişesinden dolayı muhtemelen kafa karışıklığı veya en azından şaşkınlık yaratır. Tek bir liste olamaz mı? Elbette sorun şu ki, tüm bu tür listeleri tekdüze bir şekilde tam olarak aynı hale getirmenin basit bir yolu yok. Farklı gruplar ve farklı varlıklar buna farklı şekillerde yaklaştı. İyi haber şu ki, hemen hemen hepsi aynı kapsayıcı sonuca ulaştı. Setler arasında çok büyük farklar olmaması içimizi rahatlatabilir ki bu genel bir fikir birliği olmasa belki bizi tedirgin edebilirdi.

Bir muhalif, belki de devam eden bir grup düşüncesi olduğunu savunarak, bu listelerin ortak noktalarının rahatsız edici olduğunu söyleyebilir. Belki de tüm bu farklı gruplar aynı şekilde düşünüyor ve normların ötesine bakamıyor. Hepimiz aynı tuzağa düşüyoruz. Listeler görünüşte düşüncelerimizi sabitliyor ve kendi burnumuzun ötesini göremiyoruz.

Burnumuzun ötesine bakmak şüphesiz değerli bir sebeptir.

Muhaliflerin söyleyeceklerini duymaya kesinlikle açığım. Bazen sahip olduğu bir şeyin rüzgarını yakalarlar. Titanik dev bir buzdağına doğru ilerliyor. Birkaç kartal gözü gözetleme noktası kullanabiliriz. Ancak, bu Yapay Zeka Etiği ilkeleri konusunda, aykırı görüşler tarafından kesin olarak dile getirilen ve gereksiz bir ortak noktanın devam ettiğine dair endişeleri açıkça azaltan veya artıran hiçbir şey olmamıştır. Bence iyi gidiyoruz.

Bu ACM setinde, dikkate değer dikkate değer olduğunu düşündüğüm, özellikle dikkate değer veya göze çarpan birkaç nokta var.

İlk olarak, normdan biraz farklı olan üst düzey ifadeyi seviyorum.

Örneğin, atıfta bulunulan meşruiyet ve yeterlilik (ilk madde işaretli öğe), yapay zeka ile ilişkili hem tasarımcı hem de yönetim yeterliliklerinin önemini andırıyor. ek olarak meşruluk slogan bizi AI Etiği'ne götürüyor ve AI Hukuk alanı. Bunu söylüyorum çünkü AI Etiği ilkelerinin çoğu neredeyse tamamen etik çıkarımlara odaklanıyor, ancak yasal sonuçları da ihmal ediyor veya not etmekten çekiniyor gibi görünüyor. Hukuk alanında, etik mülahazalar genellikle “yumuşak kanun” olarak lanse edilirken, kitaplardaki kanunlar “katı kanunlar” olarak yorumlanır (yani hukuk mahkemelerinin ağırlığını taşırlar).

Tüm zamanların en sevdiğim sözlerinden biri ünlü hukukçu Earl Warren tarafından söylendi: "Uygar hayatta hukuk, etik denizinde yüzer."

Yapay Zeka Etiği ilkelerinin, Yapay Zeka Yasalarının hazırlanmasında, yasalaşmasında ve uygulanmasında olduğu gibi, işlerin katı hukuk tarafını da kapsadığından ve vurguladığından emin olmamız gerekiyor.

İkinci olarak, listenin şunları içerdiğini takdir ediyorum itiraz edilebilirlik ve denetlenebilirlik.

Bir AI sistemine tabi olduğunuzda rekabet edebilmenin veya kırmızı bayrak kaldırabilmenin değeri hakkında defalarca yazdım, bkz. buradaki bağlantı. Ayrıca, AI sistemlerini denetlenmeye zorlayan yeni kanunları giderek daha fazla göreceğiz. Bu kanunu, çalışanların işe alımı ve terfileri için kullanılan AI sistemlerinin denetim önyargılarına ilişkin New York City (NYC) yasası hakkında uzun uzadıya tartıştım, bkz. buradaki bağlantı. Ne yazık ki ve NYC'nin yeni yasasını açıkça eleştirdiğime göre, bu denetlenebilirlik yasaları kusurluysa, muhtemelen çözdüğünden daha fazla sorun yaratacaktır.

Üçüncüsü, yapay zekanın sürdürülebilirlik konularını aşılayabileceğine dair kademeli bir uyanış var ve çevre konu, bu Yapay Zeka Etiği ilkelerinde en üst düzeyde faturalandırıldı (listenin son maddesine bakın).

Bir yapay zeka sistemi oluşturma eylemi tek başına çok fazla bilgi işlem kaynağı tüketebilir. Bu bilgi işlem kaynakları, doğrudan veya dolaylı olarak sürdürülebilirlik gaspçıları olabilir. Bir yapay zekanın sağladığı faydalar ile birlikte gelen maliyetler arasında dikkate alınması gereken bir denge vardır. ACM madde işaretli maddelerinin sonuncusu, yapay zeka ile ortaya çıkan sürdürülebilirlik ve çevresel hususları not eder. Yapay zeka ile ilgili karbon ayak izi konularıyla ilgili kapsamım için bkz. buradaki bağlantı.

ACM'nin Yapay Zeka Etiği ilkeleri listesine iyice bir göz attığımıza göre, şimdi ayak parmaklarımızı sulara daha derinden sokabiliriz.

Üst düzey Yapay Zeka Etiği ilkelerinin her biri için resmi açıklamalar aşağıdadır (resmi açıklamadan alıntılanmıştır):

1. "Meşruiyet ve yeterlilik: Algoritmik sistem tasarımcıları, bu tür sistemleri kurmak ve dağıtmak için yönetim yetkinliğine ve açık yetkiye sahip olmalıdır. Ayrıca uygulama alanında uzmanlığa, sistemlerin amaçlanan kullanımına ilişkin bilimsel bir temele sahip olmalı ve sistemden etkilenen paydaşlar tarafından geniş çapta sosyal olarak meşru kabul edilmelidir. Sistemler tarafından getirilen herhangi bir riskin ele alınan sorunlarla orantılı olacağını ve herhangi bir fayda-zarar takasının ilgili tüm paydaşlar tarafından anlaşıldığını doğrulamak için yasal ve etik değerlendirmeler yapılmalıdır.

2. "Zararın en aza indirilmesi: Algoritmik sistemlerin yöneticileri, tasarımcıları, geliştiricileri, kullanıcıları ve diğer paydaşları, bunların tasarımı, uygulanması ve kullanımıyla ilgili olası hataların ve önyargıların ve bir sistemin bireylere ve topluma verebileceği potansiyel zararın farkında olmalıdır. Kuruluşlar, sistemin zarara, özellikle ayrımcı zarara yol açıp açmayacağını belirlemek ve uygun azaltma önlemlerini uygulamak için kullandıkları sistemler üzerinde rutin olarak etki değerlendirmeleri yapmalıdır. Mümkün olduğunda, yalnızca kendileri ayrımcı olabilecek geçmiş kararların kalıplarından değil, gerçek performans ölçütlerinden ders çıkarmalıdırlar.”

3. "Güvenlik ve gizlilik: Algoritmik sistemler bağlamında ortaya çıkan yeni güvenlik açıklarını azaltmak için sağlam kontroller dahil olmak üzere, sistemlerin yaşam döngülerinin her aşamasında en iyi güvenlik ve gizlilik uygulamaları tanıtılarak kötü niyetli taraflardan kaynaklanan risk azaltılabilir.”

4. "Şeffaflık: Sistem geliştiricilerin, geliştirme, eğitim, doğrulama ve test için belirli veri kümelerinin, değişkenlerin ve modellerin seçilme biçiminin yanı sıra veri ve çıktı kalitesini garanti etmek için kullanılan belirli ölçütleri açıkça belgelemeye teşvik edilir. Sistemler her bir çıktıda güven düzeylerini belirtmeli ve güven düşük olduğunda insanlar müdahale etmelidir. Geliştiriciler ayrıca potansiyel önyargıları keşfetmek için kullanılan yaklaşımları da belgelemelidir. Yaşam ve esenlik üzerinde kritik etkisi olan sistemler için, bağımsız doğrulama ve geçerli kılma prosedürleri gerekli olmalıdır. Verilerin ve modellerin kamu tarafından incelenmesi, düzeltme için maksimum fırsat sağlar. Bu nedenle geliştiriciler, kamu yararına üçüncü taraf testlerini kolaylaştırmalıdır."

5. "Yorumlanabilirlik ve açıklanabilirlik: Algoritmik sistemlerin yöneticileri, hem kullanılan algoritmaların izlediği prosedürler (yorumlanabilirlik) hem de aldıkları belirli kararlar (açıklanabilirlik) hakkında bilgi üretmeye teşvik edilir. Açıklanabilirlik, doğruluk kadar önemli olabilir, özellikle de kamu politikası bağlamlarında veya algoritmaların onaylanmadan bir grubun diğerine göre fayda sağlayacak şekilde nasıl çarpık olabileceğine dair endişelerin olduğu herhangi bir ortamda. Açıklanan sonuca ulaşmak için kullanılan kanıtları veya karar verme sürecini yansıtmayan açıklamalar ile olay sonrası rasyonelleştirmeler arasında ayrım yapmak önemlidir.”

6. "Sürdürülebilirlik: Tüm algoritmik sistemlerin sağlamlığının kanıtı, sistem gereksinimlerinin dokümantasyonu, değişikliklerin tasarımı veya uygulanması, test senaryoları ve sonuçları ve bulunan ve düzeltilen hataların günlüğü dahil olmak üzere yaşam döngüleri boyunca toplanmalıdır. Uygun bakım, sistemlerin yeni eğitim verileriyle yeniden eğitilmesini ve/veya kullanılan modellerin değiştirilmesini gerektirebilir.”

7. "Tartışılabilirlik ve denetlenebilirlik: Düzenleyiciler, bireylerin ve grupların sonuçları sorgulamasına ve algoritmik olarak bilgilendirilmiş kararlardan kaynaklanan olumsuz etkiler için tazminat aramasına olanak tanıyan mekanizmaların benimsenmesini teşvik etmelidir. Yöneticiler, verilerin, modellerin, algoritmaların ve kararların, zarardan şüphelenilen veya iddia edilen durumlarda denetlenebilmesi ve sonuçların tekrarlanabilmesi için kaydedilmesini sağlamalıdır. Bireylerin, kamu yararına çalışan kuruluşların ve araştırmacıların iyileştirmeleri gözden geçirmesi ve tavsiye etmesi için denetim stratejileri kamuoyuna açıklanmalıdır.”

8. "Hesap verebilirlik ve sorumluluk: Kamu ve özel kuruluşlar, kullandıkları algoritmaların sonuçlarını nasıl ürettiklerini ayrıntılı olarak açıklamak mümkün olmasa bile, kullandıkları algoritmalar tarafından alınan kararlardan sorumlu tutulmalıdır. Bu tür organlar, yalnızca belirli bir sistemi oluşturan ayrı ayrı parçalardan değil, kendi özel bağlamlarında konuşlandırılan tüm sistemlerden sorumlu olmalıdır. Otomatik sistemlerde sorunlar tespit edildiğinde, bu sistemlerin kurulumundan sorumlu kuruluşlar, sorunu çözmek için yapacakları belirli eylemleri ve bu tür teknolojilerin kullanımının hangi koşullar altında askıya alınması veya sonlandırılması gerektiğini belgelemelidir.”

9. "Çevresel etkilerin sınırlandırılması: Algoritmik sistemler, hem eğitim hem de operasyonel hesaplamalardan kaynaklanan karbon emisyonları da dahil olmak üzere çevresel etkilerin tahminlerini rapor edecek şekilde tasarlanmalıdır. AI sistemleri, kullanıldıkları bağlamın gerektirdiği doğruluk derecesi göz önüne alındığında, karbon emisyonlarının makul olmasını sağlayacak şekilde tasarlanmalıdır.”

Bu önemli Yapay Zeka Etiği ilkelerinin her birine dikkatli ve eski bir okuma vereceğinize güveniyorum. Lütfen onları dikkate alın.

Sonuç

ACM bildirisinin pek çok kişinin istemeden gözden kaçırabileceğine inandığım ince ama aynı derecede önemli bir kısmı var. Bunu dikkatinize sunacağımdan emin olun.

Yapay Zeka Etiği ilkeleriyle ilişkili değiş tokuşları tartmak zorunda olmanın ıstırap verici muammasını tartışan bir kısımdan bahsediyorum. Görüyorsunuz, çoğu insan Etik Yapay Zeka ilkelerini okurken genellikle çok fazla akılsızca başını sallıyor ve tüm ilkelerin ağırlık olarak eşit olduğunu ve tüm ilkelere her zaman aynı optimal hürmet ve değer görünümünün verileceğini varsayıyor.

Gerçek dünyada değil.

Lastik yolla buluştuğunda, bir nebze karmaşıklığa sahip olan herhangi bir yapay zeka, bazı unsurların diğer bazı ilkelere göre yeterince erişilebilir olup olmadığı konusunda AI Etik ilkelerini kötü bir şekilde test edecektir. Tüm yapay zekanın tüm yapay zeka etik ilkelerini en üst düzeye çıkarmak zorunda olduğunu yüksek sesle haykırıyor olabileceğinizin farkındayım, ancak bu özellikle gerçekçi değil. Almak istediğiniz tavır buysa, muhtemelen AI üreticilerinin ve kullanıcılarının çoğuna veya neredeyse tamamına dükkanı kapatmalarını ve AI'yı tamamen kaldırmalarını söylemeniz gerekeceğini söyleyebilirim.

AI'yı kapıdan çıkarmak için tavizler verilmesi gerekiyor. Bununla birlikte, AI Etiği ilkelerini ihlal eden kestirme yolları savunmuyorum veya AI Yasalarını ihlal etmeleri gerektiğini ima etmiyorum. Belirli bir minimuma ulaşılması gerekir ve bunun üzerinde hedef daha çok çaba sarf etmektir. Sonunda, bir dengenin dikkatle değerlendirilmesi gerekir. Bu dengeleme eylemi dikkatli, açık bir şekilde, yasalara uygun olarak ve iyi niyetli ve içtenlikle sahip olunan bir inanç olarak AI Etiği ile yapılmalıdır (şirketlerin bu ciddi yaklaşımı denemek ve elde etmek için AI Etik Kurullarını nasıl kullandığını görmek isteyebilirsiniz, bkz. buradaki bağlantı).

ACM deklarasyonunun takas karmaşıklıkları hakkında bahsettiği bazı madde işaretli noktalar şunlardır (resmi belgeden alıntılanmıştır):

  • "Çözümler, karmaşıklığı veya maliyeti etkilese bile çözülmekte olan sorunla orantılı olmalıdır (örneğin, basit bir tahmin görevi için halka açık video gözetimi kullanımının reddedilmesi).
  • "Çok çeşitli performans ölçütleri dikkate alınmalı ve uygulama alanına göre farklı şekilde ağırlıklandırılabilir. Örneğin, bazı sağlık uygulamalarında yanlış negatiflerin etkileri yanlış pozitiflerden çok daha kötü olabilirken, ceza adaletinde yanlış pozitiflerin sonuçları (örneğin, masum bir insanı hapse atmak) yanlış negatiflerden çok daha kötü olabilir. En arzu edilen operasyonel sistem kurulumu, nadiren maksimum doğruluğa sahip olandır.”
  • "Gizlilik, ticari sırların korunması veya kötü niyetli aktörlerin sistemi oynamasına izin verebilecek analitiklerin ifşa edilmesi, nitelikli kişilere erişimin kısıtlanmasını haklı gösterebilir, ancak bunlar, üçüncü taraf incelemesini sınırlandırmayı veya geliştiricileri yükümlülükten muaf tutmak için kullanılmamalıdır. hataları kabul etmek ve onarmak için.”
  • “Şeffaflık, algoritmik bir sistemden etkilenen paydaşların verilen zararlar için anlamlı bir tazminat aramasını sağlayan hesap verebilirlik süreçleriyle eşleştirilmelidir. Şeffaflık, bir sistemi meşrulaştırmak veya sorumluluğu başka taraflara devretmek için kullanılmamalıdır.”
  • “Bir sistemin etkisi yüksek olduğunda, daha açıklanabilir bir sistem tercih edilebilir. Çoğu durumda, açıklanabilirlik ve doğruluk arasında bir değiş tokuş yoktur. Ancak bazı durumlarda yanlış açıklamalar, açıklama yapılmamasından daha kötü olabilir (örneğin, sağlık sistemlerinde bir semptom, yalnızca bir hastalığa değil, birçok olası hastalığa karşılık gelebilir).

AI geliştiren veya kullananlar, karşılaştıkları ödünleşimleri açıkça fark etmeyebilir. Bir firmanın üst düzey liderleri safça yapay zekanın tüm yapay zeka etik ilkelerinde maksimumları karşıladığını varsayabilir. Buna ya AI hakkında hiçbir fikirleri olmadığı için inanıyorlar ya da buna inanmak istiyorlar ve belki de AI'yı kolayca benimsemek için göz kırpıyorlar.

Muhtemelen, ödünleşimlerle somut ve açık bir şekilde yüzleşmemek, zarar üretecek bir yapay zeka ile sonuçlanacaktır. Bu zararlar da muhtemelen bir firmayı potansiyel olarak büyük ölçekli yükümlülüklere açık hale getirecektir. Bunun da ötesinde, geleneksel yasalar, yapay zeka ile ilişkili olası suç eylemleri için geçerli olabilir ve buna yönelik daha yeni yapay zeka odaklı yasalar da geçerli olabilir. Dengeleri aşmanın yolunu bulabileceklerini düşünenlerin veya ödünlerin varlığından derinden habersiz olanların (kaçınılmaz olarak üzerlerine ezici bir kavrayış düşecektir) başlarının üzerinde bir ton tuğla bekliyor.

Bu Etik Yapay Zeka ilkelerinin makroskopik olarak ortaya çıkarmayı amaçladıklarını açıklamak için sağlam bir iş çıkardığını düşündüğümden, bu konudaki son sözü ACM beyanının sonuç kısmına vereceğim:

  • “Yukarıdaki tavsiyeler, algoritmik sistemlerin sorumlu tasarımı, geliştirilmesi ve kullanımına odaklanmaktadır; sorumluluk yasa ve kamu politikası tarafından belirlenmelidir. Algoritmik sistemlerin artan gücü ve yaşam açısından kritik ve sonuçsal uygulamalarda kullanımları, bunların kullanımında büyük özen gösterilmesi gerektiği anlamına gelir. Bu dokuz araçsal ilke, güvenilirliği, emniyeti ve sorumluluğu teşvik ederken geniş bir kullanıcı yelpazesine fayda sağlamak için tartışmalar başlatma, araştırma başlatma ve yönetişim yöntemleri geliştirme konusunda ilham verici olmayı amaçlamaktadır. Sonuç olarak, etkilenen tüm paydaşların temsilcileriyle işbirliği içinde bir algoritmik sistemin doğru tasarımını ve kullanımını tanımlayan özel bağlamdır” (resmi belgeden alıntılanmıştır).

Bilgelik sözlerinin bize zekice söylediği gibi, binlerce millik bir yolculuk ilk adımla başlar.

AI Etiği ve AI Yasasına aşina olmanızı, sizi harekete geçirecek ilk adımı atmanızı ve ardından bu hayati çabaları sürdürmenize yardımcı olmanızı rica ediyorum. Güzel olan şu ki, yapay zekayı nasıl yöneteceğimizi ve toplumsal olarak onunla nasıl başa çıkacağımızı öğrenmenin henüz emekleme aşamasındayız, bu nedenle, zemin kata iniyorsunuz ve çabalarınız, geleceğinizi ve hepimiz için geleceği açıkça şekillendirebilir.

AI yolculuğu daha yeni başladı ve hayati ilk adımlar hala devam ediyor.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-valued-computing- meslek-derneği-acm/