Yasal Akıl Yürütmeyi Yapay Zekaya Yerleştirmek Akıllıca İnsan-Değer Hizalamasına Ulaşabilir, Diyor ki Yapay Zeka Etiği ve Yapay Zeka Yasası

Bugünün sütununda, AI ile ilgili görünüşte birbirinden farklı sayısız konuyu güzel bir şekilde dokunmuş tek bir kumaşta bir araya getireceğim.

Hazır mısınız?

Önemli bir görevi üstlenirken size yardımcı olan yapay zeka destekli bir uygulama kullandığınızı hayal edin. Belki de mesele finansal bir meseledir veya sağlıkla ilgili olabilir. İşin özü, doğru şeyi yapmak ve varsayılan olarak güvenli ve sağlam bir şekilde performans göstermek için yapay zekaya bağlı olmanızdır.

AI'nın etik olmayan bir bölgeye saptığını varsayalım.

AI'nın bunu yaptığını fark etmeyebilirsiniz.

Örneğin, yapay zeka ırk veya cinsiyet gibi potansiyel olarak gizli ayrımcı faktörlere güveniyor olabilir, ancak istenmeyen kullanımı ayırt etmek için geçerli bir yolunuz olmayabilir. İşte, yapayalnız, ya en başından problemli bir şekilde tasarlanmış ya da riskli ve sınırda bir etik tehlikeye girmeyi başarmış bir yapay zeka aracılığıyla sopanın kısa ucunu alıyorsunuz (hakkında daha fazla şey söyleyeceğim) bu bir anda).

Etik olmayan bir yola girmeyi seçen yapay zeka hakkında ne yapabilirsiniz veya ne yapılabilir?

Yapay zekayı bu tür sinsi eylemlerde bulunmaması için önceden yapılandırmaya çalışmanın yanı sıra, daha önce de detaylandırmıştım ki, gömülü bir ilgi artıyor. AI etik kontrolü Aksi halde Vahşi Batı'nın her şeye uygun yapay zeka sistemlerinin pazara fırlatıldığı filizlenen bataklığa bir bileşen. Fikir şu ki, AI ile aşılanmış bir uygulamanın etik boyutların ötesine geçmesini engellemek için, bir kontrol ve denge yapmak için ek AI kullanabiliriz. Bu eklenen yapay zeka, hedeflenen yapay zeka uygulamasının dışında olabilir veya üzerinde biraz kontrol yapmak istediğimiz doğrudan yapay zekaya yerleştirilmiş veya yerleştirilmiş bir bileşen olabilir.

Daha önce de belirttiğim gibi, bkz. buradaki bağlantı: "Son zamanlarda ortaya çıkan bir trend, yapay zeka sisteminin geri kalanı önceden belirlenmiş etik sınırların ötesine geçmeye başladığında yakalanacak olan yapay zekaya etik korkuluklar inşa etmeye çalışmaktan oluşuyor. Bir anlamda amaç, AI'nın kendisini etik olarak ters gitmesini önlemek için kullanmaktır. Yapay zekanın kendi kendini iyileştirmesini hedeflediğimizi söyleyebilirsiniz” (Lance Eliot, “Etik Olmayan Yapay Zekayı İzleyen ve Kötü Yapay Zekayı Harekete Geçmekten Caydırmaya Çalışan Etik Yapay Zeka Hazırlamak”, Forbes, 28 Mart 2022).

Ayrıca ilgili kitabımı da ilginizi çekebilir. AI koruyucu botlar, bazen koruyucu melekler olarak anılır ve bu son teknoloji yapay zeka içinde yapay zeka yerleşik çift denetleyicilerin teknik temellerini kapsar, bkz. buradaki bağlantı.

Sonuç olarak, pastırmanız, kullanmakta olduğunuz bir AI uygulamasına yerleştirilmiş ve yerleştirilmiş bir gömülü AI çift kontrol etik-ölçme öğesinin kullanılmasıyla minnetle kurtarılabilir. Ancak bu, yapay zekanın sizi tamamen zorlamadığından ve hatta daha zararlı bir zemine girmediğinden emin olmak için bir koruyucu için yeterli olacak mı?

Görüyorsunuz, AI uygulaması görünüşte performans gösterebilir yasadışı davranır.

Etik veya etik dışı olarak kabul ettiğimiz davranışların gri bir alanına giren yapay zekaya sahip olmak bir şeydir. Eşit derecede rahatsız edici bir davranış ve muhtemelen daha da kötüleşen bir endişe, yapay zekanın köpekbalığını olduğu gibi atlayıp düpedüz yasa dışı eylemlerin kalitesiz karanlığına inmesini gerektirir.

Yasadışı AI kötüdür. Yasa dışı yapay zekanın gözetimsiz kalmasına izin vermek kötüdür. Bazı hukuk bilginleri, yapay zekanın ortaya çıkışının ve yaygınlığının, yavaş yavaş ve korkunç bir şekilde, yapay zekaya bakışımızı baltalayacağından açıkça endişe duyuyor. hukukun üstünlüğü, adresindeki analizime bakın buradaki bağlantı.

Bir saniye, diyebilirsiniz.

Yapay zeka geliştiricilerinin bunu yapacağını düşünebilirsiniz. asla AI'larını yasalara aykırı olacak şekilde programlayın. Düşünülemez. Bunu yalnızca kötü kötü adamlar yapar (bu arada, yapay zekayı kasıtlı olarak kötü amaçlar için tasarlayan ve kullananlar olduğunu unutmayın; bu, suçlular ve yapay zekayı hain faaliyetler için kullanmak isteyen diğerleri için giderek artan bir ilgi alanıdır).

Üzgünüz, ancak kötü niyetli olmayan tüm yapay zeka geliştiricilerinin, yapay zekalarının yasalara tamamen uygun olduğundan kesinlikle emin olacaklarını varsaymak hüsnükuruntu. Yapay zeka kendi kendine uyum sağlıyor ve yasa dışı faaliyetlere giriyor olabilir. Elbette, yapay zeka geliştiricilerinin ya yapay zekanın yasa dışı hareket etmesini istemeleri ya da yapay zekayı oluştururken neyin yasa dışı ve yasal eylemler olduğunun farkında olmama ihtimalleri de vardır (evet, bu oldukça olasıdır, yani bir baş aşağı tüm teknoloji yapay zeka ekibi, yapay zekalarının yasal maskaralıklarından habersiz olabilir, bu affedilemez ve yine de endişe verici bir sıklıkta gerçekleşir).

Bununla ilgili ne yapılabilir?

Bir kez daha, yapay zekanın sağlam ve yasal olmasını sağlamaya çalışmanın yanı sıra, hız kazanmaya yönelik ek bir yaklaşım, yapay zeka uygulamasının geri kalanı için yasal çifte kontrol yapan bir yapay zeka bileşeninin yerleştirilmesini veya yerleştirilmesini içerir. Sessizce oturan ve genellikle habersiz olan bu eklenen yapay zeka, yapay zekanın hile yapıp yapmayacağını veya en azından yasal veya düzenleyici tarafından uygulanan kısıtlamaların sınırlarını aşıp aşmayacağını denemek ve ayırt etmek için yapay zekanın geri kalanını gözlemliyor.

Artık potansiyel olarak bir AI uygulamasına yerleştirilmiş iki tür AI çift kontrolüne sahibiz:

  • Yapay Zeka Etiği çift denetleyicisi: Gerçek zamanlı olarak, bu bileşen veya AI eklentisi, AI'nın geri kalanını, AI'nın sergilediği etik ve etik olmayan davranışlar açısından değerlendirir.
  • AI Yasal çift denetleyici: Gerçek zamanlı olarak, bu bileşen veya yapay zeka eklentisi, yapay zekanın geri kalanını yasal kilit taşları içinde kalma güvencesi ve ortaya çıkan yasa dışı etkinliklerin yapay zeka tarafından yakalanması açısından değerlendirir.

Açıklığa kavuşturmak gerekirse, bunlar nispeten yeni kavramlardır ve bu nedenle bugün kullanmakta olduğunuz yapay zeka şu mevcut koşullardan herhangi birinde olabilir:

  • Hiç çift dama içermeyen yapay zeka
  • AI Ethics çift denetleyicisi bulunan ancak başka çift denetleyicisi olmayan AI
  • AI Legal çift denetleyicisi olan ancak başka çift denetleyicisi olmayan AI
  • Hem AI Ethics çift denetleyicisine hem de AI Legal çift denetleyicisine sahip AI
  • Diğer

Hem AI Ethics çift denetleyicisi hem de AI Yasal çift denetleyicisinin bir AI uygulamasında akraba olarak yan yana çalışmasının bazı belirgin derecede zor yönleri vardır. Bu, koordine etmesi sandığınızdan daha zor olabilen bir tür düalizmdir (Sanırım hepimiz biliyoruz ki kardeşler en sıkı bağlara sahip olabilirler, ancak zaman zaman pislikler gibi kavga edebilirler ve şiddetle karşı çıkabilirler. Görüntüleme).

Bu tür çetin konuları uzun uzadıya tartıştım. ikilik: "AI for Social Good'da, gelişmiş AI sistemlerinde hem yapay ahlaki failliğin rolünü hem de yapay yasal muhakemeyi kapsama eksikliğini içeren, ihmal edilmiş bir ikilik ortaya çıkıyor. Yapay zeka araştırmacıları ve geliştiricileri tarafından yapılan çabalar, bir yapay zeka sistemi sahada çalışırken ahlaki karar vermeye rehberlik etmek için yapay ahlaki ajanların nasıl üretileceğine ve yerleştirileceğine odaklanma eğilimindeydi, ancak aynı zamanda yapay yasal muhakeme yeteneklerinin kullanımına odaklanmadı ve bunları birleştirmedi. sağlam ahlaki ve yasal sonuçlar için eşit derecede gereklidir” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good,” Harvard Üniversitesi CRCS Yıllık Konferansı 2020, Harvard Araştırma ve Hesaplama Merkezi Topluluğu)

Bir AI Etik denetçisi ile bir AI Hukuk çift denetleyicisi arasında neden gerilim olabileceği konusunda kafa yormak isterseniz, akıllara durgunluk veren kavramsal değere ilişkin şu dikkate değer alıntıyı bulabilirsiniz: "Yasa belirli bir eyleme izin verebilir, bu davranış ahlaksız olsa da; ve yasa, bir eylemi, bu eylem ahlaki olarak izin verilebilir ve hatta ahlaki olarak gerekli olsa bile yasaklayabilir” (Shelly Kagan, Ahlakın Sınırları, 1998).

Odak noktamızı biraz değiştirelim ve bu çifte denetleyicilerin son derece incelenmiş başka bir yapay zeka konusuna, yani Sorumlu AI veya insani değerler ile yapay zekanın hizalanmasının uyumlu bir şekilde değerlendirilmesi.

Genel fikir, uygun ve arzu edilen insani değerlere uyan yapay zeka istediğimizdir. Bazıları buna şu şekilde atıfta bulunur: Sorumlu AI. Diğerleri de benzer şekilde tartışıyor Sorumlu AI, güvenilir yapay zeka, ve AI Hizalaması, hepsi aynı köşe taşı ilkesine dokunuyor. Bu önemli konulara ilişkin tartışmam için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Yapay zekanın insani değerlerle uyumlu hale gelmesini nasıl sağlayabiliriz?

Daha önce önerildiği gibi, AI geliştiricilerinin Sorumlu AI bağlılığına ulaşan AI geliştirmenin farkında olacağını umuyoruz. Ne yazık ki, daha önce açıklanan nedenlere göre, olmayabilirler. Ek olarak, bunu yapmaya çalışabilirler ve yine de yapay zeka, etik davranışların göze çarpan aleminin ötesinde veya muhtemelen yasa dışı sulara kendi kendine uyum sağlar.

Pekala, o zaman bu riskleri ve maruz kalma durumlarını desteklemek için kullanışlı çift denetleyicilerimizi düşünmeliyiz. İyi tasarlanmış bir AI Ethics çift denetleyicisinin kullanılması, AI'yı insani değerlerle uyumlu hale getirmeye maddi olarak yardımcı olabilir. Benzer şekilde, iyi tasarlanmış bir AI Yasal çift denetleyicinin kullanılması, AI'yı insani değerlerle uyumlu hale getirmeye önemli ölçüde yardımcı olabilir.

Bu nedenle, Sorumlu Yapay Zeka, Güvenilir Yapay Zeka, Hesap Verebilir Yapay Zeka, Yapay Zeka Hizalaması vb.'ye ulaşmaya çalışmanın çok önemli ve henüz iyi bilinmeyen bir yolu, bir Yapay Zeka Etiği çift denetleyicisi gibi bir Yapay Zeka çift denetleyicisinin kullanımını içerecektir. İçine yerleştirildikleri yapay zeka üzerinde bir çifte kontrol olarak yorulmadan çalışacak AI Yasal çift denetleyici.

Bu tartışmada, yapay zekaya gömülü olabilecek yapay zeka yasal çift denetleyicilerin doğası ve yapıları hakkında biraz daha ayrıntıya girmek istiyorum. Bunu yapmak için, genel konu hakkında bazı ek bilgileri sizinle paylaşmak faydalı olabilir. yapay zeka ve hukuk.

Yapay zeka ve hukukun birbiriyle nasıl karıştığının saçma sapan bir incelemesi için, adresindeki tartışmama bakın. buradaki bağlantı. benim temkinli bakışımda yapay zeka ve hukuk eşleştirme, yapay zeka ile yasayı ilişkilendirmenin iki ana yolunun bu basit kavramını sunuyorum:

  • (1) AI'ya uygulanan yasalar: Toplumumuzda Yapay Zekanın düzenlenmesi veya yönetilmesine uygulanan yasaların formülasyonu, yürürlüğe girmesi ve uygulanması
  • (2) Kanuna Uygulanan Yapay Zeka: Avukatlık görevlerini otonom veya yarı otonom olarak gerçekleştirmek için LegalTech yüksek teknoloji uygulamalarına aşılanan AI-tabanlı Hukuki Akıl Yürütme (AILR) dahil olmak üzere kanunda tasarlanan ve uygulanan Yapay Zeka teknolojisi

Listelenen ilk bakış açısı, mevcut ve yeni yasaların yapay zekayı nasıl yöneteceğini düşünmekten oluşur. Listelenen ikinci bakış açısı, yapay zekayı yasaya uygulamakla ilgilidir.

Bu ikinci kategori, genellikle avukatlar tarafından kullanılan çeşitli çevrimiçi araçlarda AI tabanlı Yasal Muhakeme (AILR) kullanmayı içerir. Örneğin, yapay zeka, yeni sözleşmeler hazırlamak için yararlı olacak sözleşme dilini belirleyerek avukatlara yardımcı olan veya aksiliklere veya yasal boşluklara izin veren yasal olarak yetersiz bir dile sahip sözleşmeleri tespit edebilen bir Sözleşme Ömür Döngüsü Yönetimi (CLM) paketinin parçası olabilir. (Yapay zeka tarafından algılanabilen sözde "hukuk kokusuna" bakışım için, bkz. buradaki bağlantı).

Genel halk tarafından kullanıma sunulan ve bir avukatın döngüde olmasını gerektirmeyen yasaya kaçınılmaz olarak yapay zeka uygulayacağız. Şu anda, UPL (Yetkisiz Hukuk Uygulaması) dahil olmak üzere çeşitli kısıtlamaların bir sonucu olarak, yapay zeka tabanlı yasal danışmanlık uygulamalarını kullanıma sunmak çetrefilli ve tartışmalı bir konudur, şu adresteki tartışmama bakın: buradaki bağlantı.

AI & Law hakkındaki bu girişi, AI'nın yasaya uygulanan başka bir araçsal kullanımının AI Legal çift denetleyicileri oluşturmak olacağına işaret etmek için gündeme getirdim.

Evet, yapay zekayı yasaya uygulamakla ilgili aynı türden teknolojik hüner, yapay zekayı gömülü veya yerleştirilmiş bir yapay zeka yasal çift denetleyici olarak kullanmak için çifte görev olarak hizmet edebilir. AI Legal çift denetleyicisi, yasal yönleriyle bilgi sahibi olması gereken bir bileşendir. AI uygulamasının geri kalanı çeşitli eylemler gerçekleştirirken, AI Legal çift denetleyicisi, AI uygulamasının bunu yasal olarak ve yasal kısıtlamalar dahilinde yapıp yapmadığını ölçer.

Bir AI Legal çift denetleyici bileşeninin, yasa hakkında bilinmesi gereken her şeyin tamamını kapsaması gerekmez. Genel olarak AI'nın amacı ve eylemleri açısından AI uygulamasının doğasına bağlı olarak, AI Hukuk çift denetleyicisi, içerdiği yasal uzmanlık açısından çok daha dar kapsamlı olabilir.

Yasal alandaki yapay zekanın Özerklik Düzeyleri (LoA) olarak bilinen bir dizi özerk kapasitede nasıl değiştiğini göstermek için yararlı bir çerçeve belirledim. Genel bir bakış için bkz. Forbes 21 Kasım 2022 tarihli köşe yazısı, "Avukatların Neden Yapay Zeka ve Hukuk Hakkında Bilmeleri Gerektiğine İlişkin Saçma Olmayan Kapsamlı Zorlayıcı Vaka" buradaki bağlantıve ayrıntılı bir teknik tasvir için şuradaki derinlemesine araştırma makaleme bakın: MIT Hesaplamalı Hukuk Dergisi 7 Aralık 2021, bkz. buradaki bağlantı.

Çerçeve, yasal çabalarda kullanıldığı şekliyle beş yapay zeka seviyesini açıklamaktadır:

  • Seviye 0: AI tabanlı yasal işler için otomasyon yok
  • Seviye 1: AI tabanlı yasal işler için basit yardım otomasyonu
  • Seviye 2: AI tabanlı yasal işler için gelişmiş yardım otomasyonu
  • Seviye 3: AI tabanlı yasal işler için yarı otonom otomasyon
  • Seviye 4: AI tabanlı yasal işler için alan özerkliği
  • Seviye 5: AI tabanlı yasal işler için tamamen özerk

Bunları burada kısaca anlatacağım.

Seviye 0, otomasyonsuz seviye olarak kabul edilir. Hukuki muhakeme ve hukuki görevler manuel yöntemlerle gerçekleştirilir ve esas olarak kağıt temelli yaklaşımlarla gerçekleşir.

Seviye 1, AI yasal muhakemesi için basit yardım otomasyonundan oluşur. Bu kategorinin örnekleri arasında günlük bilgisayar tabanlı kelime işlem kullanımı, günlük bilgisayar tabanlı elektronik tabloların kullanımı, elektronik olarak saklanan ve alınan çevrimiçi yasal belgelere erişim vb. verilebilir.

Seviye 2, AI yasal muhakeme için gelişmiş yardım otomasyonundan oluşur. Bu kategorinin örnekleri arasında, sorgu stili ilkel Doğal Dil İşleme (NLP), Makine Öğreniminin (ML) basit öğeleri, yasal durum tahminleri için istatistiksel analiz araçları vb.

Seviye 3, AI yasal muhakeme için yarı özerk otomasyondan oluşur. Bu kategorinin örnekleri arasında yasal muhakeme için gelişmiş Bilgi Tabanlı Sistemlerin (KBS) kullanımı, yasal muhakeme için Makine Öğrenimi ve Derin Öğrenmenin (ML/DL) kullanımı, gelişmiş NLP vb. sayılabilir.

Seviye 4, AI yasal muhakeme için alan özerk bilgisayar tabanlı sistemlerden oluşur. Bu seviye, kendi kendini süren arabalar için kullanıldığı, ancak yasal alana uygulandığı şekliyle, Operasyonel Tasarım Etki Alanlarının (ODD'ler) kavramsal kavramını yeniden kullanır. Hukuki alanlar, aile hukuku, gayrimenkul hukuku, iflas hukuku, çevre hukuku, vergi hukuku vb. gibi işlevsel alanlara göre sınıflandırılabilir.

Seviye 5, AI yasal muhakeme için tamamen otonom bilgisayar tabanlı sistemlerden oluşur. Bir anlamda Düzey 5, tüm olası yasal alanları kapsaması bakımından Düzey 4'ün üst kümesidir. Lütfen bunun oldukça uzun bir sipariş olduğunu anlayın.

Bu Özerklik Düzeylerini, sürücüsüz arabaları ve otonom araçları tartışırken benzer kullanımlarla aynı seviyede tasavvur edebilirsiniz (ayrıca resmi SAE standardına dayalıdır, adresindeki kapsamıma bakın). buradaki bağlantı). Henüz SAE Seviye 5 sürücüsüz arabalarımız yok. SAE Seviye 4 sürücüsüz arabalara doğru ilerliyoruz. Geleneksel arabaların çoğu SAE Seviye 2'deyken, yeni arabalardan bazıları SAE Seviye 3'e giriyor.

Yasal alanda, henüz Seviye 5 AILR'ye sahip değiliz. Son derece dar ODD'lerde olsa da bazı Düzey 4'e değiniyoruz. Seviye 3 gün ışığını görmeye başlarken, bugün AILR'nin temel dayanağı öncelikle Seviye 2'de.

Yasaya uygulandığı şekliyle AI hakkında yakın tarihli bir araştırma makalesi, olarak bilinen bir tipleştirmeyi öne sürdü. Kanun Kodu Bilgilendirir. Araştırmacı şunu ifade etmektedir: “Araştırmanın temel amaçlarından biri Yasa Bilgi Kodu gündem yapay zekaya kanunun ruhuna uymayı öğretmektir” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Teknoloji ve Fikri Mülkiyet Dergisi, Cilt 20, yakında çıkacak). bazı temel görüşler vardır ki, Yasa Bilgi Kodu mantra gündeme gelir ve size bu temel ilkelerin birçoğunda yol göstereceğim.

Konuya dalmadan önce, tartışmanın bağlamsal olarak mantıklı olacağından emin olmak için önce AI ve özellikle AI Etiği ve AI Yasası hakkında bazı temel temeller atmak istiyorum.

Etik AI ve Ayrıca AI Yasasının Artan Farkındalığı

AI'nın son dönemi, başlangıçta, AI için iyiBu, yapay zekayı insanlığın iyileştirilmesi için kullanabileceğimiz anlamına geliyor. Ardından AI için iyi bizim de içine daldığımızın farkına vardık Kötü İçin AI. Bu, ayrımcı olacak şekilde tasarlanan veya kendi kendini değiştiren ve aşırı önyargılar içeren hesaplamalı seçimler yapan yapay zekayı içerir. Bazen AI bu şekilde inşa edilirken, diğer durumlarda bu istenmeyen bölgeye sapar.

Bugünün yapay zekasının doğası hakkında aynı sayfada olduğumuzdan emin olmak istiyorum.

Bugün duyarlı olan herhangi bir yapay zeka yok. Bizde bu yok. Duyarlı AI'nın mümkün olup olmayacağını bilmiyoruz. Duyarlı yapay zekaya ulaşıp ulaşamayacağımızı veya duyarlı yapay zekanın bir şekilde mucizevi bir şekilde kendiliğinden bir hesaplamalı bilişsel süpernova biçiminde (genellikle tekillik olarak adlandırılır) ortaya çıkıp çıkmayacağını kimse uygun bir şekilde tahmin edemez, bkz. buradaki bağlantı).

Odaklandığım yapay zeka türü, bugün sahip olduğumuz duyarlı olmayan yapay zekadan oluşuyor. Duyarlı AI hakkında çılgınca spekülasyon yapmak isteseydik, bu tartışma kökten farklı bir yöne gidebilirdi. Duyarlı bir AI, sözde insan kalitesinde olurdu. Duyarlı AI'nın bir insanın bilişsel eşdeğeri olduğunu düşünmeniz gerekir. Dahası, bazıları süper akıllı AI'ya sahip olabileceğimizi tahmin ettiğinden, böyle bir AI'nın sonunda insanlardan daha akıllı olabileceği düşünülebilir (süper akıllı AI'yı bir olasılık olarak keşfetmem için, bkz. buradaki kapsama).

Her şeyi gerçekçi tutmamızı ve günümüzün hesaplamalı, duyarlı olmayan yapay zekasını düşünmemizi şiddetle tavsiye ederim.

Günümüzün yapay zekasının hiçbir şekilde insan düşüncesiyle aynı düzeyde “düşünemediğinin” farkına varın. Alexa veya Siri ile etkileşime girdiğinizde, konuşma kapasiteleri insan kapasitelerine benzer görünebilir, ancak gerçek şu ki, hesaplamaya dayalıdır ve insan bilişinden yoksundur. Yapay zekanın son dönemi, hesaplamalı model eşleştirmesinden yararlanan Makine Öğrenimi (ML) ve Derin Öğrenmeyi (DL) kapsamlı bir şekilde kullandı. Bu, insan benzeri eğilimlerin görünümüne sahip AI sistemlerine yol açmıştır. Bu arada, bugün sağduyuya benzeyen ve sağlam insan düşüncesinin bilişsel harikasından hiçbirine sahip olmayan herhangi bir AI yoktur.

Günümüzün yapay zekasını antropomorfize ederken çok dikkatli olun.

ML/DL, bir hesaplama modeli eşleştirme biçimidir. Genel yaklaşım, bir karar verme göreviyle ilgili verileri bir araya getirmenizdir. Verileri ML/DL bilgisayar modellerine beslersiniz. Bu modeller matematiksel kalıpları bulmaya çalışır. Bu tür kalıpları bulduktan sonra, eğer bulunursa, AI sistemi yeni verilerle karşılaştığında bu kalıpları kullanacaktır. Yeni verilerin sunulması üzerine, güncel bir karar vermek için “eski” veya geçmiş verilere dayalı kalıplar uygulanır.

Sanırım bunun nereye gittiğini tahmin edebilirsiniz. Kararları kalıplaştıran insanlar, istenmeyen önyargılar içeriyorsa, verilerin bunu ince ama önemli şekillerde yansıtması ihtimali vardır. Makine Öğrenimi veya Derin Öğrenme hesaplama desen eşleştirmesi, verileri buna göre matematiksel olarak taklit etmeye çalışacaktır. Yapay zeka yapımı modellemenin kendi başına sağduyu veya diğer duyarlı yönleri yoktur.

Ayrıca, AI geliştiricileri de neler olup bittiğini anlamayabilir. ML/DL'deki gizli matematik, şu anda gizli olan önyargıları ortaya çıkarmayı zorlaştırabilir. Haklı olarak, AI geliştiricilerinin, göründüğünden daha zor olsa da, potansiyel olarak gömülü önyargıları test etmelerini umar ve beklersiniz. Nispeten kapsamlı testlerde bile, ML/DL'nin model eşleştirme modellerinde hala gömülü olan önyargıların olacağına dair sağlam bir şans var.

Çöpü içeri çöpü dışarı atmakla ilgili ünlü ya da kötü şöhretli atasözünü bir şekilde kullanabilirsiniz. Mesele şu ki, bu önyargılara daha çok benziyor - bu, yapay zekanın içine daldırılmış önyargılar olarak sinsi bir şekilde aşılanıyor. AI'nın algoritma karar verme (ADM) aksiyomatik olarak eşitsizliklerle yüklü hale gelir.

İyi değil.

Tüm bunların önemli ölçüde AI Etiği sonuçları vardır ve AI'yı yasalaştırmaya çalışırken öğrenilen derslere (hatta tüm dersler gerçekleşmeden önce) kullanışlı bir pencere sunar.

Genel olarak AI Etiği ilkelerini kullanmanın yanı sıra, AI'nın çeşitli kullanımlarını yöneten yasalara sahip olmamız gerekip gerekmediğine ilişkin bir soru var. Yapay zekanın nasıl tasarlanacağının kapsamını ve yapısını ilgilendiren federal, eyalet ve yerel düzeylerde yeni yasalar dolaşıyor. Bu tür yasaları hazırlama ve yürürlüğe koyma çabası aşamalı bir çabadır. AI Etiği, en azından bir geçici önlem olarak hizmet eder ve neredeyse kesinlikle bir dereceye kadar bu yeni yasalara doğrudan dahil edilecektir.

Bazılarının inatla AI'yı kapsayan yeni yasalara ihtiyacımız olmadığını ve mevcut yasalarımızın yeterli olduğunu iddia ettiğini unutmayın. Bu AI yasalarından bazılarını yürürlüğe koyarsak, AI'daki muazzam toplumsal avantajlar sunan ilerlemeleri kısıtlayarak altın kazı öldüreceğimiz konusunda önceden uyarıyorlar.

Önceki sütunlarda, yapay zekayı düzenleyen yasalar oluşturmak ve yürürlüğe koymak için çeşitli ulusal ve uluslararası çabaları ele aldım, bkz. buradaki bağlantı, örneğin. Ayrıca, yaklaşık 200 ülkenin benimsediği UNESCO AI Etiği seti gibi Birleşmiş Milletler çabası da dahil olmak üzere, çeşitli ulusların belirlediği ve benimsediği çeşitli AI Etiği ilkelerini ve kılavuzlarını da ele aldım, bkz. buradaki bağlantı.

İşte daha önce yakından araştırdığım AI sistemleriyle ilgili Etik AI kriterlerinin veya özelliklerinin yararlı bir temel taşı listesi:

  • Şeffaflık
  • Adalet ve Adalet
  • Zarar Vermez
  • sorumluluk
  • Gizlilik
  • ihsan
  • Özgürlük ve Özerklik
  • Güven
  • Sürdürülebilirlik
  • Haysiyet
  • Dayanışma

Bu AI Etik ilkelerinin, AI geliştirme çabalarını yönetenlerin yanı sıra AI geliştiricileri tarafından ve hatta nihayetinde AI sistemlerinde bakım yapan ve bakım yapanlar tarafından ciddiyetle kullanılması gerekiyor.

Tüm AI geliştirme ve kullanım yaşam döngüsü boyunca tüm paydaşlar, Etik AI'nın yerleşik normlarına uyma kapsamında değerlendirilir. "Yalnızca kodlayıcıların" veya AI'yı programlayanların AI Etiği kavramlarına bağlı kalmaya tabi olduğu olağan varsayım olduğundan, bu önemli bir vurgudur. Burada daha önce vurgulandığı gibi, AI'yı tasarlamak ve sahaya koymak için bir köy gerekir ve bunun için tüm köyün AI Etik ilkelerine hakim olması ve bunlara uyması gerekir.

ben de yakın zamanda inceledim AI Haklar Bildirgesi Bu, Office of Science and Technology Policy (OSTP) tarafından bir yıl süren çabanın sonucu olan “AI Bill of Rights: Making Automated Systems Work for the American People” başlıklı ABD hükümeti resmi belgesinin resmi adıdır. ). OSTP, Amerikan Başkanına ve ABD Yönetim Ofisine ulusal öneme sahip çeşitli teknolojik, bilimsel ve mühendislik yönleri hakkında tavsiyelerde bulunmaya hizmet eden federal bir kuruluştur. Bu anlamda, bu AI Haklar Bildirgesi'nin mevcut ABD Beyaz Saray tarafından onaylanan ve onaylanan bir belge olduğunu söyleyebilirsiniz.

AI Haklar Bildirgesi'nde beş kilit taşı kategorisi vardır:

  • Güvenli ve etkili sistemler
  • Algoritmik ayrımcılık korumaları
  • Veri gizliliği
  • Bildirim ve açıklama
  • İnsan alternatifleri, değerlendirme ve geri dönüş

Bu ilkeleri dikkatlice gözden geçirdim, bkz. buradaki bağlantı.

Bu ilgili Yapay Zeka Etiği ve Yapay Zeka Yasası konularıyla ilgili faydalı bir temel attığıma göre, artık Yapay Zeka Hukukunun çifte denetleyicileri konusuna ve alemine atlamaya hazırız. Yasa Bilgi Kodu.

İnsan-Değer Hizalaması İçin Yapay Zekaya Gömülü Yapay Zeka Yasal Çift Denetleyiciler

bazen atıfta bulunurum AI Yasal Çift Denetleyiciler AI-LDC'nin kısaltması aracılığıyla. Bu, kısaltmaya aşina olmayanlar için görsel olarak biraz rahatsız edici. Bu nedenle, bu tartışmada bu kısaltmayı kullanmayacağım, ancak size bir uyarı olarak bahsetmek istedim.

AI Legal çifte denetleyicilerinin karmaşıklıklarından bazılarını açmak için şu ana noktaları ele alalım:

  • Yapay zeka insani değerler hizalama mekanizması olarak AI Legal çift denetleyicilerinin kullanımı
  • Daha kapsamlı AI, buna bağlı olarak daha sağlam AI Yasal çift denetleyicileri gerektirecektir
  • AI Legal çift denetleyicileri yasayı çıkarıyor ve özellikle yasa yapmıyor (muhtemelen)
  • Kurallara karşı standartlar olarak yasanın yapay zeka yasal düzenlemesi arasındaki hassas denge
  • Yapay zekanın yasalara uyması söz konusu olduğunda pudingin kanıtını istemek

Yer kısıtlamaları nedeniyle, şimdilik sadece bu beş noktayı ele alacağım, ancak bu hızla gelişen ve ileriye doğru hareket eden konular hakkında ek ve eşit derecede dikkate değer hususları içeren köşemde daha fazla yer almak için lütfen tetikte olun.

Hemen şimdi emniyet kemerinizi takın ve canlandırıcı bir yolculuğa hazır olun.

  • Yapay zeka insani değerler hizalama mekanizması olarak AI Legal çift denetleyicilerinin kullanımı

Yapay zeka ile insani değerler arasında uyumlu bir hizalamayı denemenin ve elde etmenin çok sayıda yolu vardır.

Daha önce de belirtildiği gibi, AI Etik ilkelerini üretebilir ve ilan edebiliriz ve AI geliştiricilerinin ve AI'yı sahaya çıkaran ve çalıştıranların bu temel taşlara uymasını sağlamaya çalışabiliriz. Ne yazık ki, bu tek başına hile yapmayacak. Kaçınılmaz olarak mesajı almayacak bazı yaratıcılarınız var. Etik Yapay Zeka ile hava atacak ve biraz gevşek öngörülen ilkeleri atlatmaya çalışacak bazı düzenbazlarınız var. Ve benzeri.

Yapay Zeka Etiğini gerektiren "yumuşak yasa" yaklaşımlarının kullanımı, yapay zekayı oluşturan veya kullanan herkese ağır bir sinyal gönderecek yasa ve yönetmeliklerin çıkarılması gibi "katı yasa" yollarıyla neredeyse kaçınılmaz bir şekilde eşleştirilmelidir. Yapay zekayı mantıklı bir şekilde kullanmıyorsanız, kanunun uzun kolu sizi almaya gelebilir. Hapishane kapılarının çınlama sesi keskin bir dikkat toplayabilir.

Yine de büyük bir sorun, bazen ahır kapısının atları dışarı çıkarmasına izin vermesidir. Alana alınan bir yapay zeka, potansiyel olarak her türlü yasa dışı eylemi üretecek ve sadece yakalanana kadar değil, aynı zamanda bazı yaptırımlar yasa dışı eylemlerin akışını engellemek için nihayet harekete geçene kadar bunu yapmaya devam edecek. Tüm bunlar zaman alabilir. Bu arada, insanlar şu ya da bu şekilde zarar görüyor.

Bu baskına AI Legal çift denetleyicisi geliyor.

AI Legal çift denetleyicisi, bir AI uygulamasında ikamet ederek, AI'nın yasalara aykırı göründüğünü anında tespit edebilir. AI Yasal çift denetleyicisi, AI'yı yolunda durdurabilir. Veya bileşen, gözetmenleri acil düzeltici eyleme sevk edebilecek şekilde zamanında yaparak, fark edilen yasa dışı faaliyetler konusunda insanları uyarabilir. Ayrıca, yapay zekanın olumsuz eylemlerini kodlamak amacıyla bir denetim izinin somut bir görünümünü sağlayan, bileşenin oluşturabileceği kabul edilen resmileştirilmiş günlük kaydı da vardır.

Yasalarımızın, çok aktörlü bir kümelenme biçimi olduğu söylenir, öyle ki yasalar, kaçınılmaz olarak, toplumun uygun ve uygunsuz toplumsal davranışlara ilişkin olası çelişkili görüşler arasında bir denge olarak oluşturmaya çalıştığı şeyin bir karışımıdır. Bu nedenle, yasalarımıza dayalı bir AI Legal çift denetleyicisi bu karışımı bünyesinde barındırmaktadır.

Özellikle, bu sadece kesin yasal kurallar listesini programlamaktan daha fazlasıdır. Kanunlar, en küçük mikroskobik kuralları belirlemek yerine daha esnek olma ve kapsayıcı standartlara ulaşma çabasında olma eğilimindedir. Karmaşıklıklar çoktur.

Daha önce belirtilen araştırma makalesine dönersek, AI Hizalama arayışıyla ilgili olarak bu düşüncelerin nasıl görülebileceği aşağıda açıklanmıştır: “Çok aracılı hizalamanın uygulamalı felsefesi olan yasa, bu kriterleri benzersiz bir şekilde karşılamaktadır. Hizalama bir sorundur çünkü yapamayız ex ante iyi AI davranışını tamamen ve kanıtlanabilir şekilde yönlendiren kurallar belirleyin. Benzer şekilde, yasal bir sözleşmenin tarafları, ilişkilerinin tüm olasılıklarını öngöremezler ve yasa koyucular, yasalarının uygulanacağı özel koşulları tahmin edemezler. Bu nedenle hukukun çoğu bir standartlar kümesidir” (ibid).

Yasayı bir Yapay Zeka Hukuk çift denetleyicisine dahil etmek, ilk başta varsayabileceğinizden çok daha zordur.

AI ilerledikçe, bu tür ilerlemelerden buna göre yararlanmamız gerekecek. Meğer kaz için iyi olan sey için de iyiymiş. Yasaya uygulandığı şekliyle yapay zekada ilerleme kaydeden bizler, yapay zekanın sınırlarını zorluyor ve şüphesiz en sonunda yapay zeka ilerlemesini besleyebilecek yeni ilerlemeler oluşturuyoruz.

  • Daha kapsamlı AI, buna bağlı olarak daha sağlam AI Yasal çift denetleyicileri gerektirecektir

Bir kedi-fare kumarı bu konuyla yüzleşiyor.

Muhtemelen, AI daha da geliştikçe, herhangi bir AI Legal çift denetleyicili bileşen, sorunlarla baş edilmesi giderek daha zor hale gelecektir. Örneğin, incelenmekte olan bir AI uygulaması, AI'nın gerçekleştirdiği yasa dışı eylemleri gizlemek için yeni süper sinsi yollar bulmuş olabilir. Yapay zeka gizli bir yol izlemiyor olsa bile, yapay zekanın genel karmaşıklığı tek başına, AI Legal'ın çifte denetleyici değerlendirmesi yapmasını istemek için göz korkutucu bir engel olabilir.

İşte bunun nasıl özellikle önemli hale geldiği.

Bir AI geliştiricisinin veya AI kullanan bazı firmaların, AI tabanlı uygulamaya yerleştirilmiş bir AI Legal çift denetleyicisi olduğunu ilan ettiğini varsayalım. Voila, artık başka endişelerden ellerini yıkamış görünüyorlar. AI Legal çift denetleyicisi her şeyin icabına bakar.

Öyle değil.

AI Yasal çift denetleyici, ilgili AI uygulamasının doğası için yetersiz olabilir. Ayrıca, AI Legal çift denetleyicisinin güncelliğini yitirmesi, belki de AI uygulamasıyla ilgili en son yasalarla güncellenmemesi olasılığı da vardır. Bir AI Legal çift denetleyicisinin varlığının neden gümüş bir kurşun olmayacağına dair bir dizi neden öngörülebilir.

Daha önce alıntılanan araştırmanın şu içgörülerini göz önünde bulundurun: "Yapay zeka için en son teknoloji ilerledikçe, kanıtlanmış yasal anlayış yeteneklerinde yinelemeli olarak daha yüksek çıtalar belirleyebiliriz. Bir geliştirici, sistemlerinin görevler üzerinde gelişmiş yeteneklere sahip olduğunu iddia ederse, yapay zekanın zaman, emsal ve yargı alanındaki yasa ve yönetmelikler bataklığını göz önünde bulundurduğunda pratik olarak hiçbir zorluk tavanı olmayan, buna karşılık gelen gelişmiş yasal kavrayış ve yasal, muhakeme yeteneklerini göstermelidir. ” (ibid).

  • AI Legal çift denetleyicileri yasayı çıkarıyor ve özellikle yasa yapmıyor (muhtemelen)

Eminim bazılarınız bu Yapay Zeka Hukuk çift denetleyicilerine sahip olma fikrine şaşırmışsınızdır.

Sıklıkla dile getirilen bir endişe, görünüşe göre AI'nın yasalarımıza bizim yerimize karar vermesine izin vereceğimizdir. Aman Tanrım, bir parça otomasyonun insanlığı ele geçireceğini düşünüyor olabilirsiniz. O kahrolası yerleşik AI Legal çift denetleyicileri, yasalarımızın varsayılan kralları olacak. Muhtemelen ne yaparlarsa yapsınlar, yasa göründüğü gibi olacak.

İnsanlar AI tarafından yönetilecek.

Ve bu AI Legal çifte denetleyicileri, bizi oraya götüren kaygan yokuştur.

Bir karşı argüman, bu tür konuşmaların komplo teorilerinin malzemesi olduğu yönündedir. Çılgınca varsayımda bulunuyorsun ve kendini heyecanlandırıyorsun. Gerçek şu ki, bu Yapay Zeka Hukuk çift denetleyicileri bilinçli değiller, gezegeni ele geçirmeyecekler ve varoluşsal riskleri hakkında abartmak açıkça akıl almaz ve son derece abartılıyor.

Sonuç olarak, sakin ve makul bir duruşla kalarak, Yapay Zeka Yasal çift denetleyicilerinin yasayı uygun bir şekilde yansıtmaya hizmet ettiğine ve ne tasarımla ne de tesadüfen saygıdeğer yapma alanına bir şekilde temerrüde düşmeye gitmediğine dikkat etmemiz gerekir. yasa. Duyarlılık tahminlerini bir kenara bırakırsak, AI Legal çift denetleyicisinin belirli bir yasanın gerçek doğasını yanlış tanıtabileceğine dair gerçek ve acil bir endişe olduğu konusunda kesinlikle hemfikir olabiliriz.

Buna karşılık, bu "yanlış tanıtılan" yasanın, asıl yasanın amaçladığı şeyi artık uygun bir şekilde ifade etmediği için esasen yeniden yapıldığını iddia edebilirsiniz. Bunun ne kadar incelikli ama etkileyici bir değerlendirme olduğunu içtenlikle görebileceğinize inanıyorum. Herhangi bir zamanda, AI Legal çifte denetleyicisi, yalnızca AI bileşeninin kanunu AI'da orijinal olarak belirtildiği veya somutlaştırıldığı şekilde (benim kapsamım için) nasıl yorumladığına göre yeni yasalar oluşturarak veya "halüsinasyon" mu diyeceğiz? AI sözde halüsinasyonlarBakın buradaki bağlantı).

Buna titizlikle dikkat edilmelidir.

Bu konuda, yukarıda belirtilen araştırma çalışması, bu kutsal çizgiyi aşmayı önleme arayışı açısından şu paralel düşünceyi önermektedir: “Yapay zekanın yasa yapma, yasal emsal oluşturma veya yasa uygulama meşruiyetine sahip olmasını hedeflemiyoruz. Aslında bu, yaklaşımımızı baltalayacaktır (ve bunu önlemek için önemli çaba sarf etmeliyiz). Bunun yerine, Kanun Bilgilendirme Yasasının en iddialı hedefi, mevcut yasal kavramların ve standartların genelleştirilebilirliğini hesaplamalı olarak kodlamak ve doğrulanmış AI performansına yerleştirmektir ”(ibid).

  • Kurallara karşı standartlar olarak yasanın yapay zeka yasal düzenlemesi arasındaki hassas denge

Kanunlar dağınık.

Kitaplardaki hemen hemen her yasa için, yasanın gerçek uygulamada ne öngördüğü hakkında muhtemelen çok sayıda yorum vardır. Yapay zeka alanının deyimiyle, yasalardan anlamsal olarak belirsiz olarak söz ediyoruz. Yasaya uygulandığı şekliyle yapay zeka geliştirmeyi bu kadar heyecan verici ve aynı zamanda can sıkıcı bir zorluk haline getiren de budur. Finansal odaklı AI uygulamaları için görebileceğiniz kesin sayıların aksine, yasalarımızı AI'ya dahil etme arzusu, bir anlamsal belirsizlikler tsunamisiyle uğraşmayı gerektirir.

Vakfımın Yapay Zeka Yasal Muhakemenin (AILR) temelleri hakkındaki kitabında, yasaları bir dizi sınırlı kural halinde kodlamaya yönelik önceki girişimlerin bizi yasal alanda gitmek istediğimiz kadar ileri götürmediğini tartışıyorum (bkz. buradaki bağlantı). Günümüzün AILR'si, kuralların kullanımı ile kanunun temsil ettiği kapsayıcı standartlar olarak adlandırılabilecek şeyler arasında bir bütünleşmeyi kapsamalıdır.

Bu önemli denge şu şekilde ifade edilebilir: "Uygulamada çoğu yasal hüküm, saf kural ile saf standart arasındaki bir yelpazede yer alır ve hukuk teorisi, "kurallılık" ve "standartlık"ın doğru bileşimini tahmin etmeye yardımcı olabilir. AI sistemlerinin hedeflerini belirlerken” (ibid).

  • Yapay zekanın yasalara uyması söz konusu olduğunda pudingin kanıtını istemek

Bir şeyi istemek, bir şeye sahip olmaktan farklıdır.

Yapay Zeka Hukuki çift denetleyicilere sahip olmak istesek de, onların çalıştıklarından ve doğru çalıştıklarından fazlasıyla emin olmamız gerektiğini öne sürerken bu bilgelik ortaya çıkıyor. Bunun başka bir zorlu ve meşakkatli engel teşkil ettiğini unutmayın. Yapay zekanın doğrulanması ve onaylanmasındaki en son gelişmeleri ve zorlukları daha önce ele aldım, bkz. buradaki bağlantı.

Araştırma makalesinde belirtildiği gibi: “Yapay zeka modelleri, örneğin ana yollardaki tamamen otonom araçlar gibi giderek artan aracı kapasitelerde konuşlandırılmadan önce, boşluğu gidermek için konuşlandıran taraf, sistemin insan hedeflerini, politikalarını ve yasal standartları anladığını göstermelidir. Bir doğrulama prosedürü, AI'nın yasal kavramların 'anlamına' ilişkin 'anlayışını' gösterebilir” (ibid).

Sonuç

Yapay Zeka Yasal çift denetleyicileri oluşturmak ve sahaya sürmek için bu asil arayışta bana katılmayı düşünmenizi tavsiye ediyorum. Bu erdemli arayışa adanmış daha fazla dikkat ve kaynağa ihtiyacımız var.

Bu aynı zamanda, daha önce de belirtildiği gibi, avukatlara yardımcı olmak için kullanılabilecek ve potansiyel olarak doğrudan halk tarafından kullanılabilecek Yapay Zeka Yasal Muhakeme'ye (AILR) ulaşmak için çifte görev sağlar. Gerçekten de bazıları, adalete daha eksiksiz bir erişim duygusuna (A2J) ulaşmanın tek geçerli yolunun, yasal kapasiteleri bünyesinde barındıran ve herkes tarafından erişilebilen yapay zekanın oluşturulması yoluyla olacağını hararetle savunuyor.

Şimdilik hızlı bir son nokta.

Şimdiye kadarki tartışma, AI Legal çift denetleyicisinin AI'ya yerleştirileceğini veya yerleştirileceğini vurguladı. Bu, gerçekten de bu gelişmekte olan alanı araştıran ve üstlenenlerin birincil odak noktasıdır.

İşte üzerinde düşünmeye değer bir soru.

Düşünme başlığını tak.

Neden tüm yazılımlarda AI Legal çift denetleyicilerinden faydalanmıyorsunuz?

İşin özü şu ki, AI Legal çift denetleyicilerini AI'da özel olarak kullanmak yerine, belki de bakış açımızı genişletmeliyiz. Her türlü yazılım yasal olarak yoldan çıkabilir. Yapay zeka, kuşkusuz, günlük yaşamlarında insanları etkileyen yürek burkan kararlar vermek gibi, yapay zekanın genellikle kullanıma sokulduğu yollardan dolayı aslan payını aldı. Yine de, benzer şekilde çalışan birçok AI olmayan sistem olduğunu kolayca iddia edebilirsiniz.

Özünde, hiçbir yazılımın yasadan kaçınmak veya kanundan caymak için bedava çalışmasına izin vermemeliyiz.

Daha önce de hatırlayın, AI ve yasayı birleştirmenin iki kategorisinden bahsetmiştim. Burada, yasaya uygulandığı şekliyle AI kullanımına odaklandık. Madalyonun diğer tarafında yasanın yapay zekaya uygulanması var. AI Legal çift denetleyicilerinin kullanılmasını gerektiren yasaları çıkardığımızı varsayalım.

Bu, ilk başta özellikle yüksek riskli olarak derecelendirilen yapay zeka sistemleriyle sınırlı olabilir. Yavaş yavaş, aynı AI Yasal çift kontrol gereksinimi, AI olmayan yazılımlara da genişletilebilir. Yine bedava yolculuk yok.

Siz yukarıdaki değerlendirme üzerinde kafa yorarken, ben kapanış teaser'ı olarak olayları renklendireceğim. AI Yasal çift denetleyicileri zorunlu kılmaya çalışacaksak, aynı şeyi AI Etik çift denetleyicileri için de yapıyor olabiliriz. Bir AI Yasal çift denetleyicisinin kullanılması hikayenin sadece yarısıdır ve AI Etik endişelerini de ihmal edemeyiz veya unutamayız.

Bu gösterişli konuşmayı en sevdiğim alıntılardan biriyle bitireceğim. Amerika Birleşik Devletleri'nin Baş Yargıcı olarak görev yapan ünlü hukukçu Earl Warren'ın bilge sözlerine göre: "Uygar yaşamda hukuk, bir etik denizinde yüzer."

Başımızı güvenliğimizi tehlikeye atan kötü yapay zeka ve yapay zeka olmayan kasvetli sistemlerden kaynaklanan potansiyel olarak başgösteren ağır denizlerin üzerinde tutmak istiyorsak, tomurcuklanan ve köpüren AI Hukuk çift denetleyicilerini ve AI Etik çift denetleyicilerini hevesli bir şekilde kullanıma sokmak en iyisi olabilir. .

İnsanlığın can yeleği olabilirler.

Kaynak: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- ve-ai-hukuk/