Yapay Zeka Etiği ve Yapay Zeka Yasası, Yakın Zamanda Yayınlanan Yapay Zeka Haklar Bildirgesi'ni Uygulamanın Temel Yollarını Ağırlıklandırıyor ve Yapay Zekayı Tamamen Kullanarak Şaşırtıcı Bir Şekilde

Günlük hayatımızda planlara ihtiyacımız olduğuna dair çok az şüphe var.

Uzun zamandır hayal ettiğiniz o hayalinizdeki evi inşa edecekseniz, önce kullanışlı bir plan hazırlamanız akıllıca olur.

Bir plan, kafanızda kilitli kalmış geniş gözlü vizyoner bakış açısı ne olursa olsun somut ve belgelenmiş bir şekilde sergiliyor. Değerli çiftliğinizi inşa etmesi istenecek olanlar, plana başvurabilecek ve işin nasıl yapılacağına dair ayrıntıları not edebilecekler. Planlar kullanışlıdır. Bir planın yokluğu, her türlü karmaşık iş veya projeyle başa çıkmak için sorunlu olmaya mahkumdur.

Planlara yönelik bu biraz duygusal ama gerçek övgüyü Yapay Zeka (AI) alanına kaydıralım.

Yapay zekaya önemli ölçüde dahil olanlarınız, önemli bir politika odaklı planı Yakın zamanda ABD'de, yapay zekanın geleceği ile açıkça ilgili olan serbest bırakıldı. Gayri resmi olarak bilinen AI Haklar Bildirgesi, ilan edilen teknik incelemenin resmi başlığı "Bir Yapay Zeka Haklar Bildirgesi Planı: Otomatik Sistemlerin Amerikan Halkı İçin Çalışmasını Sağlamak"tır ve çevrimiçi olarak kolayca erişilebilir durumdadır.

Belge, Bilim ve Teknoloji Politikası Ofisi (OSTP) tarafından bir yıl süren çaba ve dikkatli çalışmanın sonucudur. OSTP, 1970'lerin ortalarında kurulmuş ve Amerikan Başkanına ve ABD Yönetim Ofisine ulusal öneme sahip çeşitli teknolojik, bilimsel ve mühendislik yönleri hakkında tavsiyelerde bulunmaya hizmet eden federal bir varlıktır. Bu anlamda, bu AI Haklar Bildirgesi'nin mevcut ABD Beyaz Saray tarafından onaylanan ve onaylanan bir belge olduğunu söyleyebilirsiniz.

AI Haklar Bildirgesi şunları gösterir: insan hakları Yapay zekanın günlük hayatımızda ortaya çıkmasıyla ilgili olarak insanlığın sahip olması gereken şey. Bu önemli noktayı vurguluyorum çünkü bazı insanlar ilk başta bunun, AI'nın tüzel kişiliğe sahip olduğunun bir tür kabulü olduğuna ve bunun hissedebilen AI ve insansı robotlar için bir haklar ayini olduğuna şaşırmıştı. Hayır, henüz orada değiliz. Birazdan göreceğiniz gibi, bize aksini söyleyen manşetlere rağmen, duyarlı yapay zekaya yakın değiliz.

Tamam, yapay zeka çağında insan haklarını açıklayan bir taslağa ihtiyacımız var mı?

Evet, kesinlikle yaparız.

AI'nın zaten ve giderek artan bir şekilde haklarımızı ihlal ettiğini bilmemek için neredeyse bir mağarada kilitli kalmanız ve İnternet erişiminizin olmaması gerekir. AI'nın son dönemi, başlangıçta, AI için iyiBu, yapay zekayı insanlığın iyileştirilmesi için kullanabileceğimiz anlamına geliyor. Ardından AI için iyi bizim de içine daldığımızın farkına vardık Kötü İçin AI. Bu, ayrımcı olacak şekilde tasarlanan veya kendi kendini değiştiren ve aşırı önyargılar içeren hesaplamalı seçimler yapan yapay zekayı içerir. Bazen AI bu şekilde inşa edilirken, diğer durumlarda bu istenmeyen bölgeye sapar.

AI Yasası, AI Etiği ve diğer önemli AI teknolojik ve toplumsal eğilimlerine ilişkin devam eden ve kapsamlı kapsamım ve analizim için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

AI Haklar Bildirgesi'nin Paketini Açma

AI Haklar Bildirgesi'ni daha önce tartıştım ve burada hızlı bir özet yapacağım.

Bir kenara, yakın zamanda yayınlanan AI Haklar Bildirgesi'nin derinlemesine artılarını ve eksilerini bilmek isterseniz, analizimi şu adresteki bir gönderide detaylandırdım: avukatBakın buradaki bağlantı. avukat Hukuk öğrencisi muhabirleri, editörleri, yorumcuları, muhabirleri ve içerik geliştiricilerinden oluşan küresel bir ekip tarafından desteklenen, ödüllü bir hukuk haber servisi olarak bilinen, dikkate değer bir hukuk haberleri ve yorum çevrimiçi sitesidir ve merkezi Pittsburgh Üniversitesi'ndedir. 25 yıl önce başladığı Pittsburgh'da hukuk. Üstün ve çalışkan ekibe duyurulur avukat.

AI Haklar Bildirgesi'nde beş kilit taşı kategorisi vardır:

  • Güvenli ve etkili sistemler
  • Algoritmik ayrımcılık korumaları
  • Veri gizliliği
  • Bildirim ve açıklama
  • İnsan alternatifleri, değerlendirme ve geri dönüş

Bunları birden beşe kadar numaralandırmadığıma dikkat edin, çünkü böyle yapmak belirli bir sırada olduklarını veya haklardan birinin görünüşte diğerinden daha önemli olduğunu ima edebilir. Bunların her birinin kendi değerleri olduğunu varsayacağız. Hepsi bir anlamda eşit derecede değerlidir.

Her birinin nelerden oluştuğunun kısa bir göstergesi olarak, resmi teknik incelemeden bir alıntı:

  • Güvenli ve Etkili Sistemler: “Güvenli olmayan veya etkisiz sistemlerden korunmalısınız. Sistemin endişelerini, risklerini ve potansiyel etkilerini belirlemek için çeşitli topluluklardan, paydaşlardan ve alan uzmanlarından istişare ile otomatik sistemler geliştirilmelidir.”
  • Algoritmik Ayrımcılık Korumaları: “Algoritmalara göre ayrımcılık yapılmamalı ve sistemler hakkaniyete uygun şekilde kullanılmalı ve tasarlanmalıdır. Algoritmik ayrımcılık, otomatik sistemler haksız yere farklı muameleye katkıda bulunduğunda veya ırk, renk, etnik köken, cinsiyet (hamilelik, doğum ve ilgili tıbbi durumlar, cinsel kimlik, interseks durumu ve cinsel yönelim dahil), din, yaşa dayalı olarak insanları kötüleyen etkiler yaptığında ortaya çıkar. , ulusal köken, engellilik, gazilik durumu, genetik bilgi veya kanunla korunan diğer herhangi bir sınıflandırma.”
  • Veri gizliliği: “Yerleşik korumalar aracılığıyla kötüye kullanım amaçlı veri uygulamalarından korunmalı ve hakkınızdaki verilerin nasıl kullanıldığı konusunda yetki sahibi olmalısınız. Veri toplamanın makul beklentilere uymasını ve yalnızca belirli bağlam için kesinlikle gerekli olan verilerin toplanmasını sağlamak da dahil olmak üzere, bu tür korumaların varsayılan olarak dahil edilmesini sağlayan tasarım seçenekleri aracılığıyla gizlilik ihlallerinden korunmalısınız.”
  • Bildirim ve Açıklama: “Otomatik bir sistemin kullanıldığını bilmeli ve sizi etkileyen sonuçlara nasıl ve neden katkıda bulunduğunu anlamalısınız. Otomatik sistemlerin tasarımcıları, geliştiricileri ve dağıtımcıları, genel sistem işleyişinin ve otomasyonun oynadığı rolün açık tanımlarını içeren, genel olarak erişilebilir, sade dilde belgeler sağlamalı, bu tür sistemlerin kullanımda olduğuna, sistemden sorumlu kişi veya kuruluşa ve bunların açıklamalarına dikkat etmelidir. net, zamanında ve erişilebilir sonuçlar. ”
  • İnsan Alternatifleri, Üzerinde Düşünülmesi ve Geri Dönüşü: “Uygun olduğu durumlarda devre dışı bırakabilmeli ve karşılaştığınız sorunları hızla değerlendirip çözebilecek bir kişiye erişiminiz olmalıdır. Uygun olduğunda, bir insan alternatifi lehine otomatik sistemlerden vazgeçebilmelisiniz.”

Genel olarak bunlar, AI Etiği ve AI Yasası bağlamında bir süredir ortalıkta dolanan insanlık haklarının yönleridir, bkz. buradaki bağlantı. Beyaz kağıt, şimdiye kadar AI dönemi bağlamında açıklığa kavuşturulmamış yeni keşfedilen veya ortaya çıkarılan bir hakla ilgili olarak sihirli bir şekilde bir tavşanı şapkadan çıkarmıyor.

Sorun yok.

Bunların düzgün bir şekilde paketlenmiş ve resmileştirilmiş bir koleksiyonda derlenmesinin hayati bir hizmet sağladığını iddia edebilirsiniz. Ayrıca, beğenilen biri olarak meshedilerek AI Haklar Bildirgesi, bu ayrıca tüm meseleyi açıkça ve ustalıkla kamusal alanın bilincine sokar. Mevcut çok sayıda farklı tartışmayı, artık her türden paydaşa iletilebilen ve iletilebilen tekil bir kümede birleştirir.

Açıklanan AI Haklar Bildirgesi'ne bu olumlu tepkiler listesini sunmama izin verin:

  • Temel ilkelerin temel bir derlemesini sağlar
  • Üzerine inşa edilecek bir plan veya temel görevi görür
  • Seslendirilmiş bir harekete geçirici mesaj görevi görür
  • İlgi uyandırır ve bunların ciddi değerlendirmeler olduğunu gösterir
  • Çok sayıda farklı tartışmayı bir araya getirir
  • Etik AI benimseme çabalarını harekete geçirir ve katkıda bulunur
  • Şüphesiz AI Yasalarının oluşturulmasını besleyecektir
  • Diğer

Yapılması gereken daha çok iş olduğunu ve bunun yapay zekayı yönetmenin zorlu yolunda uzun bir yolculuğun sadece başlangıcı olduğunu hesaba katarak, olumlu olmayan tepkileri de dikkate almamız gerekiyor.

Bu nedenle, AI Haklar Bildirgesi hakkında yapılan biraz sert ya da yapıcı eleştirilerin şunları içerdiğini söyleyelim:

  • Yasal olarak uygulanabilir değil ve tamamen bağlayıcı değil
  • Yalnızca danışma amaçlıdır ve hükümet politikası olarak kabul edilmez
  • Diğer yayınlanmış eserlere kıyasla daha az kapsamlı
  • Öncelikle geniş kavramlardan oluşur ve uygulama ayrıntılarından yoksundur
  • Gerçek uygulanabilir pratik yasalara dönüşmek zor olacak
  • Bazı bağlamlarda AI'yı yasaklama konusunda başgösteren konuda görünüşte sessiz
  • İyi tasarlanmış yapay zeka kullanmanın avantajlarını az da olsa kabul eder
  • Diğer

Belki de en belirgin keskin yorum, bu AI Haklar Bildirgesi'nin yasal olarak uygulanabilir olmadığı ve bu nedenle net hedefler belirleme konusunda su tutmadığı gerçeğine odaklanmıştır. Bazıları, beyaz kağıdın yararlı ve cesaret verici olmasına rağmen, kesinlikle dişlerden yoksun olduğunu söyledi. Sözde içi boş dişli bir dizi şık ilkeden ne gelebileceğini sorgularlar.

Bu can yakıcı sözlere birazdan değineceğim.

Bu arada, teknik inceleme, bu AI Haklar Bildirgesi'nin içerdiği sınırlamaları bolca belirtiyor:

  • “Bir AI Haklar Bildirgesi için Blueprint bağlayıcı değildir ve ABD hükümet politikasını oluşturmaz. Mevcut herhangi bir tüzük, yönetmelik, politika veya uluslararası belgenin yorumunu geçersiz kılmaz, değiştirmez veya yönlendirmez. Kamu veya Federal kurumlar için bağlayıcı bir kılavuz teşkil etmez ve bu nedenle burada açıklanan ilkelere uyulmasını gerektirmez. Ayrıca, ABD hükümetinin herhangi bir uluslararası müzakeredeki pozisyonunun ne olacağı konusunda belirleyici değildir. Bu ilkelerin benimsenmesi, mevcut yasaların, yönetmeliklerin, politikaların veya uluslararası belgelerin gerekliliklerini veya bunları uygulayan Federal kurumların gerekliliklerini karşılamayabilir. Bu ilkeler, kanun yaptırımı, ulusal güvenlik veya istihbarat faaliyetleri de dahil olmak üzere bir devlet kurumunun herhangi bir yasal faaliyetini yasaklamaz veya sınırlandırmaz” (beyaz kitap başına).

AI Haklar Bildirgesi'ni yasal olarak bağlayıcı olmadığı için hızlı bir şekilde ortadan kaldıranlar için, bu acı verici iddia üzerinde biraz düşünce deneyi yapalım. Beyaz kağıdın yayınlandığını ve yasanın tüm gücüne sahip olduğunu varsayalım. Sonucun, en azından bildiriye verilen hem yasal hem de toplumsal tepkiler derecesinde, biraz felaket olacağını söylemeye cüret ediyorum.

Milletvekilleri, bu tür yasaları bir araya getirirken normatif süreçleri ve yasal prosedürleri üstlenmediği konusunda kararlı olacaklardır. İşletmeler, bu yasaların ne olduğu konusunda yeterli bildirim ve farkındalık olmadan yeni yasaların ortaya çıkması için haklı olarak öfkelenirdi. Her türlü şaşkınlık ve öfke ortaya çıkacaktı.

Yapay zeka çağında insanlığın haklarını sağlamlaştırmaya yönelmek için iyi bir yol değil.

Bu tartışmaya daha önce planların değerini ve canlılığını gündeme getirerek başladığımı hatırlayın.

Birinin taslak hazırlama adımını atladığını ve hemen hayalinizdeki evi inşa etmeye başladığını hayal edin. Sizce ev nasıl olurdu? Evin özellikle aklınızdakilerle eşleşmeyeceğine dair adil bir bahis gibi görünüyor. Ortaya çıkan çiftlik evi tam bir karmaşa olabilir.

İşin özü şu ki, planlara ihtiyacımız var ve şimdi mantıklı AI Yasalarını bulmak ve Etik AI benimsemelerini güçlendirmek için ilerlemek adına bir planımız var.

Bu nedenle, bu AI Haklar Bildirgesi planının deyim yerindeyse bir eve nasıl dönüştürülebileceğine değinmek istiyorum. Taslağı nasıl kullanacağız? Sonraki uygun adımlar nelerdir? Bu plan yeterli olabilir mi, yoksa kemiklerde daha fazla ete mi ihtiyacı var?

Bu ağır konulara atlamadan önce, AI'nın doğası ve bugünün durumunun nelerden oluştuğu konusunda hepimizin aynı sayfada olduğundan emin olmak istiyorum.

Bugünün Yapay Zekası Hakkında Rekoru Ayarlamak

Son derece vurgulu bir açıklama yapmak istiyorum.

Hazır mısınız?

Bugün duyarlı olan herhangi bir yapay zeka yok.

Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı ya da duyarlı yapay zekanın bir şekilde mucizevi bir şekilde bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. Duyarlı AI hakkında çılgınca spekülasyon yapmak isteseydik, bu tartışma kökten farklı bir yöne gidebilirdi. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

Her şeyi gerçekçi tutmamızı ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını düşünmemizi şiddetle tavsiye ederim.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Günümüzün yapay zekasını antropomorfize ederken çok dikkatli olun.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şu anda gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü olan önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Tüm bunların önemli ölçüde AI Etiği sonuçları vardır ve AI'yı yasalaştırmaya çalışırken öğrenilen derslere (hatta tüm dersler gerçekleşmeden önce) kullanışlı bir pencere sunar.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazı öldüreceğimiz konusunda önceden uyarıyorlar.

Önceki sütunlarda, yapay zekayı düzenleyen yasalar oluşturmak ve yürürlüğe koymak için çeşitli ulusal ve uluslararası çabaları ele aldım, bkz. buradaki bağlantı, örneğin. Ayrıca, yaklaşık 200 ülkenin benimsediği UNESCO AI Etiği seti gibi Birleşmiş Milletler çabası da dahil olmak üzere, çeşitli ulusların belirlediği ve benimsediği çeşitli AI Etiği ilkelerini ve kılavuzlarını da ele aldım, bkz. buradaki bağlantı.

İşte daha önce yakından araştırdığım AI sistemleriyle ilgili Etik AI kriterlerinin veya özelliklerinin yararlı bir temel taşı listesi:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Bu AI Etik ilkelerinin, AI geliştirme çabalarını yönetenlerin yanı sıra AI geliştiricileri tarafından ve hatta nihayetinde AI sistemlerinde bakım yapan ve bakım yapanlar tarafından ciddiyetle kullanılması gerekiyor.

Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. "Yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayım olduğundan, bu önemli bir vurgudur. Burada daha önce vurgulandığı gibi, AI'yı tasarlamak ve sahaya koymak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

Artık yararlı bir temel attığıma göre, AI Haklar Bildirgesi'ne daha fazla dalmaya hazırız.

AI Haklar Bildirgesini Uygulamanın Dört Temel Yolu

Biri size bir plan verir ve işe gitmenizi söyler.

Ne yaparsınız?

Bir plan olarak AI Haklar Bildirgesi durumunda, ilerlemek için şu dört temel adımı göz önünde bulundurun:

  • AI yasalarını formüle etmeye yönelik girdi olarak hizmet edin: Planı, federal, eyalet ve yerel düzeylerde uyumlu bir temelde (belki de uluslararası AI yasal çabalarına yardımcı olarak) yaparak, AI yasalarını formüle etmeye yardımcı olmak için kullanın.
  • Yapay Zeka Etiğinin daha geniş çapta benimsenmesine yardım: Bu planı, işletmelere, bireylere, devlet kurumlarına ve diğer seçmenlere daha iyi ve daha tutarlı Etik değerlere yönelik ilham vermek ve rehberlik etmek için AI Etik formülasyonlarını (yasal olarak bağlayıcı “katı yasalar” ile karşılaştırıldığında bazen “yumuşak yasalar” olarak anılır) geliştirmek için kullanın. AI sonuçları.
  • Yapay zeka geliştirme faaliyetlerini şekillendirin: Yapay zeka geliştirme metodolojilerinin ve eğitim yönlerinin oluşturulmasını teşvik etmek için planı kullanın, bunu yapmak için AI geliştiricilerini ve AI alan veya kullananları, AI'nın arzu edilen AI Etiği ilkeleri doğrultusunda ve beklenti içinde nasıl tasarlanacağı konusunda daha bilinçli olmasını sağlamak için yapın. Yaklaşan AI yasalarının yürürlüğe girmesi.
  • Yapay zekayı kontrol etmeye yardımcı olması için yapay zekanın gelişini motive edin: Olumsuz bölgeye yönelebilecek diğer AI'lara karşı bir kontrol ve denge görevi görmek ve hizmet etmek için kullanılacak AI'yı tasarlamak için planı kullanın. Bu, görünüşte endişe verici bulduğumuz şeyi aynı zamanda (ironik olarak, söylenebilir) bizi korumaya yardımcı olarak kullanabileceğimiz makroskopik bakış açılarından biridir.

Sütun gönderilerim boyunca yukarıda bahsedilen dört adımın her birini tartıştım.

Buradaki tartışma için, listelenen dördüncü adıma odaklanmak istiyorum, yani AI Haklar Bildirgesi, AI'nın kontrolüne yardımcı olmak için AI'nın gelişine doğru bir motive edici olarak hizmet edebilir. Bu, AI'nın ilerlediği bu alana henüz tam olarak girmemiş olan birçok kişi için biraz şok edici veya şaşırtıcı bir adımdır.

Ayrıntıya girmeme izin ver.

Basit bir benzetme hile yapmalı. Bugünlerde hepimiz siber güvenlik ihlallerine ve hacker saldırılarına alışkınız. Neredeyse her gün, bilgisayarlarımızda, kötü niyetli kişilerin verilerimizi ele geçirmesine veya dizüstü bilgisayarlarımıza korkunç bir fidye yazılımı yerleştirmesine izin verecek en son boşluklardan haberdar oluyoruz veya bundan etkileniyoruz.

Bu alçakça girişimlere karşı savaşmanın bir yolu, bu hırsızlıkları önlemeye çalışan özel yazılımlar kullanmaktır. Evde veya işte bilgisayarınızda mutlaka bir anti-virüs yazılım paketiniz vardır. Orada olduğunun farkında olsanız da olmasanız da, akıllı telefonunuzda muhtemelen benzer bir şey vardır.

Demek istediğim, bazen ateşle ateşle savaşmanız gerektiğidir (bu konudaki kapsamıma bakın, örneğin buradaki bağlantı ve buradaki bağlantı).

Verboten alanına giren AI durumunda Kötü İçin AI, kullanmayı arayabiliriz AI için iyi bu kötü niyetli ile mücadele Kötü İçin AI. Bu elbette mucizevi bir tedavi değil. Bildiğiniz gibi, bilgisayarlarımıza girmeye çalışan kötü niyetli kişiler ile siber güvenlik korumalarında kaydedilen ilerlemeler arasında sürekli bir kedi-fare oyunu var. Neredeyse sonsuz bir oyundur.

Yasak bir yoldan giden yapay zeka ile uğraşmak için yapay zekayı kullanabiliriz. Bunu yapmak yardımcı olacaktır. Hedeflenen olumsuz AI neredeyse kesinlikle bu tür korumalardan kaçınmak için tasarlanacağından, özellikle gümüş bir kurşun olmayacak. Bu, AI'ya karşı AI'nın devam eden kedi-faresi olacaktır.

Her durumda, kendimizi korumak için kullandığımız AI, kötü AI'ya karşı bir miktar koruma sağlayacaktır. Bu nedenle, şüphesiz bizi koruyabilecek veya koruyabilecek bir AI tasarlamamız gerekiyor. Ayrıca, kötü AI uyum sağladıkça uyum sağlamak için koruyucu AI'yı oluşturmaya çalışmalıyız. Şimşek hızındaki kedi-farenin şiddetli bir görüntüsü olacak.

Herkes yapay zekanın rolünün bu genişlemesinden hoşlanmaz.

AI'yı zaten homojen amorf bir küme olarak algılayanlar, bu yapay AI-versus-AI kumarında tüyleri diken diken edecek ve kabuslar görecektir. Ateşi ateşe karşı koymaya çalışırsak, belki de sadece daha büyük bir ateş yakıyoruzdur. AI, artık kontrol etmediğimiz ve insanlığı köleleştirmeyi veya bizi gezegenden silmeyi seçeceğimiz devasa bir şenlik ateşi olacak. Yapay zekayı varoluşsal bir risk olarak tartışmaya gelince, genellikle tüm yapay zekanın bir araya geleceğine inanmaya yönlendiriliriz, bu konular hakkındaki tartışmamı şurada bulabilirsiniz: buradaki bağlantı. Görüyorsunuz, bize her AI parçasının kendi kardeşleri AI'yı ele geçireceği ve büyük bir derebeyi üniter aile olacağı söylendi.

Duygulu yapay zekanın kusursuz, bire bir ve bire bir mafya olarak korkunç ve kesinlikle sarsıcı senaryosu budur.

Bunun bir gün gerçekleşebileceğine dair bu tür varsayımlarda bulunmaktan memnuniyet duysanız da, sizi temin ederim ki, bugün sahip olduğumuz yapay zeka, kamyonlar dolusu bağlantısız yapay zeka programından oluşuyor ve bunlar birbirleriyle özel bir komplo kurmanın hiçbir yolu yok.

Bunu söyledikten sonra, AI komplo teorilerine hararetle inananların, gerçeği gizlemek için kasten söylediğimde ısrar edeceklerine eminim. Aha! Belki de şimdiden büyük AI devralmayı planlayan bugünün AI tarafından ödeniyorum (evet efendim, AI derebeyleri hükmettiğinde zenginlikler içinde yüzeceğim). Ya da kesinlikle bu diğer açıyı desteklemiyorum, belki de yapay zekanın nasıl gizlice arkamızdan planlar yaptığından körü körüne habersizim. Sanırım bekleyip AI darbesinin bir parçası mıyım yoksa AI sefil bir serseri miyim (ah, bu acıtıyor) olup olmadığımı görmemiz gerekecek.

Dünyevi düşüncelere geri dönersek, çağdaş AI'nın AI Haklar Bildirgesi'nin uygulanmasına yardımcı olmak için nasıl kullanılabileceğini kısaca keşfedelim. Uygun ve özet olarak buna şu şekilde değineceğim: iyi yapay zeka.

AI Haklar Bildirgesi'nde yer alan beş temel taşı kullanacağız:

  • Teşvik için iyi AI Güvenli ve Etkili Sistemler: Bir AI sistemine tabi olduğunuzda veya kullandığınızda, İyi AI, kullanılan AI'nın güvensiz veya etkisiz olup olmadığını anlamaya çalışır. Böyle bir tespit üzerine, İyi Yapay Zeka sizi uyarabilir veya Kötü Yapay Zeka'yı engellemek de dahil olmak üzere başka eylemler gerçekleştirebilir.
  • Sağlamak için iyi AI Algoritmik Ayrımcılık Korumaları: Ayrımcı algoritmalar içerebilecek bir yapay zeka sistemi kullanırken, iyi yapay zeka sizin için yetersiz koruma olup olmadığını belirlemeye çalışır ve kullanılan yapay zekada gerçekten gereksiz önyargıların olup olmadığını belirlemeye çalışır. İyi AI sizi bilgilendirebilir ve ayrıca diğer AI'yı AI yasaları ve yasal gereklilikler tarafından şart koşulmuş olabilecek çeşitli yetkililere potansiyel olarak otomatik olarak rapor edebilir.
  • Korumak için iyi AI Veri gizliliği: Bu tür İyi AI, sizi veri gizliliği istilalarından korumaya çalışır. Başka bir Yapay Zeka sizden belki de gerçekten gerekli olmayan verileri talep etmeye çalıştığında, İyi Yapay Zeka sizi aşırıya kaçan eylemden haberdar edecektir. İyi AI ayrıca, diğer AI'ya beslendikten sonra veri gizliliği haklarınızı korumaya devam edecek şekilde verilerinizi potansiyel olarak maskeleyebilir. Vb.
  • kurmak için iyi AI Bildirim ve Açıklama: Hepimizin uygun ve uygun bildirimleri sağlamada ciddi şekilde eksik olan ve ne yazık ki eylemleri için yeterli bir açıklama gösteremeyen AI sistemleriyle karşılaşması muhtemeldir. İyi AI, sağlanması gereken bildirimleri ve açıklamaları potansiyel olarak belirlemek için diğer AI'yı yorumlamaya veya sorgulamaya çalışabilir. Belirli bir durumda bunu yapmak mümkün olmasa bile, İyi AI en azından diğer AI'nın kusurları konusunda sizi uyaracak ve muhtemelen AI'yı belirlenmiş AI yasalarına ve yasal gerekliliklere göre belirlenmiş yetkililere bildirecektir.
  • Sunmak için iyi AI İnsan Alternatifleri, Üzerinde Düşünülmesi ve Geri Dönüş: Bir yapay zeka sistemi kullandığınızı ve yapay zekanın görünüşte eldeki göreve uygun olmadığını varsayalım. İşlerin kötüye gittiğini fark etmeyebilirsiniz veya durum hakkında ne yapacağınız konusunda biraz temkinli ve emin olmayabilirsiniz. Böyle bir durumda, İyi AI, diğer AI'nın ne yaptığını sessizce inceler ve sizi bu AI ile ilgili hayati endişeler konusunda uyarabilir. Daha sonra yapay zekaya bir insan alternatifi talep etmeniz istenecektir (ya da İyi Yapay Zeka bunu sizin adınıza yapabilir).

Bu tür bir şeyin nasıl olduğunu daha iyi anlamak için iyi yapay zeka geliştirilebilir ve sahaya çıkarılabilir, genel olarak AI koruyucu melekler olarak bahsettiğim şey hakkında popüler ve yüksek puan alan AI kitabıma bakın ("İlk On" olarak not edildiğini söylemekten onur duyarım, bkz. buradaki bağlantı.

Sonuç

Ne düşündüğünü biliyorum. Bizi korumak için tasarlanmış İyi Yapay Zekamız varsa, İyi Yapay Zekanın bozularak Kötü Yapay Zeka haline geldiğini varsayalım. Ünlü ya da kötü şöhretli Latince atasözü bu olasılığa tamamen uygun görünüyor: Quis custodiet ipsos velayeti?

Bu ifade, Romalı şair Juvenal'a atfedilir ve başlıklı eserinde bulunabilir. taşlamaları, ve muhafızları kimin koruyacağı veya gözetleyeceği anlamında gevşek bir şekilde tercüme edilebilir. gibi birçok film ve dizi Star Trek bu çizgiyi defalarca kullandılar.

Bu kesinlikle çünkü mükemmel bir nokta.

Elbette, yürürlüğe giren tüm AI yasalarının hem Kötü AI'yı hem de kötüye giden İyi AI'yı kapsaması gerekecektir. Bu nedenle mantıklı ve kapsamlı AI yasaları yazmak çok önemli olacaktır. Sadece rastgele hukukçuları duvara atmaya çalışan ve yapay zeka yasalarına bağlı kalmasını uman kanun yapıcılar, kendilerini hedefi büyük ölçüde kaçırdıklarını görecekler.

Buna ihtiyacımız yok.

Yetersiz tasarlanmış yapay zeka yasalarıyla başa çıkmak için ne zamanımız var ne de toplumsal masrafları karşılayabiliyoruz. Ne yazık ki, zaman zaman kötü bir şekilde oluşturulmuş ve her türlü yasal hastalıkla dolu yeni AI ile ilgili yasalara tanık olduğumuza dikkat çektim, örneğin şu adresteki New York Şehri (NYC) AI Önyargıları denetim yasasına ilişkin araştırma analizime bakın. buradaki bağlantı.

Şimdi AI ile ilgili elimizde bulunan AI Haklar Bildirgesi planını uygun şekilde kullandığımızdan emin olalım. Planı görmezden gelirsek, oyunumuzu hızlandırma konusunda kaybettik. Planı yanlış uygularsak, yararlı bir temeli gasp ettiğimiz için utanalım.

Saygıdeğer Romalı şair Juvenal, bu durumda yararlanabileceğimiz bir şey daha söyledi: Corpore Sano'da Anima Sana.

Genel olarak bu, hem sağlam hem de sağlıklı bir zihne ve sağlam veya sağlıklı bir vücuda sahip olmanın ihtiyatlı olacağı iddiasına dönüşür. Bu, Juvenal'e göre her türlü zorluğa dayanmamızı sağlar ve kesinlikle barış ya da erdemli bir yaşama giden tek yol olacaktır.

İnsanlığın, her yerde ve zaman zaman istenmeyen yapay zekanın ortaya çıkan dünyasında insan haklarımızın korunmasını ve sağlam bir şekilde güçlendirilmesini sağladığımızdan emin olmak için sağlam bir zihin ve sağlam bir beden kullanma zamanı. Bu, Romalılardan gelen, yapay zekanın saçma sapan çağında ve kararlı bir şekilde hem iyi hem de kötü yapay zeka ile dolu bir geleceğin ortasında bugünün koşuşturmacasına uymamız gereken sağlam bir tavsiye.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- ai-tam olarak-kullanarak-ve-şaşırtıcı bir şekilde-haklar-bildirgesi/