Politika Belirleyicilerin Gerçek Yapay Zeka Zorluklarıyla Başa Çıkması Gerekiyor

Yapay zekanın puslu yok olma riskine odaklanmak tehlikeli bir dikkat dağıtıcıdır.

Geçen hafta, Yapay Zeka Güvenliği Merkezi adlı Silikon Vadisi tarafından finanse edilen bir grup, tek cümlelik bir bildiri yayınladı: "Yapay zekanın yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır." Birçok endüstri lideri ve saygın yapay zeka araştırmacısı tarafından imzalandı ve basında geniş yer buldu.

Açıklamaya daha geniş tepki sert oldu. Oxford Üniversitesi Profesörü Sandra Wachter, bunun sadece bir tanıtım gösterisi olduğunu söyledi. Güvenlik uzmanı Bruce Schneier gibi daha mantıklı imza sahiplerinden bazıları, imzalayanların pişmanlık duyduğunu hemen ifade etti. Schneier, "Aslında AI'nın insan neslinin tükenmesi için bir risk oluşturduğunu düşünmüyorum" dedi.

Diğerleri, ifadenin gerçekten bir bağış toplama hilesi olduğunu düşündü. Duke Üniversitesi Sosyoloji profesörü Kieren Healy sahte bir açıklama yayınladı: "Arkadaşlarım ve ben, yaptığımızı iddia ettiğimiz bu şeyle ilgili tür düzeyindeki gerçek varoluşsal tehditleri azaltmak için mutlak bir kamyon dolusu hibe parası isteyeceğiz."

Şu anda Stanford Üniversitesi'nin Siber Politika Merkezi'nde çalışan eski bir AB parlamenter olan Marietje Schaake, açıklamanın alt metninin, politika yapıcıların varoluşsal riskle uğraşması gerektiğini, şirket yöneticilerinin ise yapay zeka kullanımı için gerçek kuralları belirlemesi gerektiğini öne sürdü. Yapay zeka yeni olsa da, yapay zeka endüstri liderlerinin "ürettikleri teknolojileri düzenlemek için en iyi konumda oldukları" şeklindeki bu üstü kapalı argümanın, sosyal medya ve kripto para birimi tartışmalarındaki önceki kullanımlarından geri dönüştürülen konuşma noktalarından başka bir şey olmadığını söyledi.

Benim görüşüme göre, AI'nın bilinçli ve bağımsız bir ajansa ulaştığı kıyamet uyarıları, düzenleyicilerin mevcut yasaların uygulanmasını hızlandırmasını ve politika yapıcıların yasal boşluklarla başa çıkmak için revizyonları düşünmesini gerektiren gerçek AI zorluklarından bir dikkat dağıtıcıdır.

Federal Ticaret Komisyonu Başkanı Lina Khan'ın dediği gibi, AI kullanılarak gerçekleştirilen dolandırıcılık yasa dışıdır. Ajans, video ve telefon dolandırıcılığı yapmak için insanları taklit etmek için AI kullanımı konusunda zaten uyardı. Çin de aynı şeyi fark etti ve yapay zeka güdümlü dolandırıcılıklara karşı önlem alıyor. Burada yeni yasal sorunlar olup olmadığı net değil, ancak bu yaklaşan yapay zeka dolandırıcılığı selini kontrol etmek için çok büyük uygulama çabaları gerekecek. Kurumun 590 milyon dolarlık bütçe talebini tamamen finanse etmek, AI'nın varoluşsal risklerine ilişkin bir çalışmadan çok, kamu parasının çok daha verimli bir şekilde kullanılması olacaktır.

Herkes, Rusya'nın saldırı altında olduğuna dair son 'Sahte Putin' duyurusu gibi yapay zeka tarafından yaratılan yanlış bilgilerden haklı olarak endişe duyuyor. Etiketleme, bu riskleri azaltmak için uzun bir yol kat edebilir. Biden'ın cumhurbaşkanlığı adaylığını duyurmasının ardından gelen Cumhuriyetçi Ulusal Komite reklamı, yeni bir Biden Başkanlığı altında neler olabileceğine dair görüntüler oluşturmak için yapay zekayı kullandı, ancak bu şekilde etiketlendi ve bu da yanlış bilgi riskini azalttı.

Yapay zeka için şeffaflık, bazılarının yapıyor gibi göründüğü gibi, politika yapıcıların alması gereken, düşük asılı bir politika meyvesidir. Bu hafta Avrupa Komisyonu başkan yardımcısı Vera Jourova, teknoloji şirketlerini yapay zeka tarafından üretilen içeriği etiketlemeye çağırdı. ABD'de, Temsilci Ritchie Torres (DN.Y.) yakında ChatGPT gibi hizmetlerin çıktısının "yapay zeka tarafından üretildiğini" açıklamasını gerektirecek yasayı çıkaracak.

Telif hakkı ve yapay zeka başka bir zorluktur. Telif hakkı sahiplerine materyallerinin yapay zeka eğitimi için kullanılması karşılığında tazminat verilmesi konusunda biraz netlik gerekiyor. Şubat ayında Getty, Stability AI şirketinin Stable Diffusion AI görüntü oluşturma yazılımını eğitmek için izin almadan 12 milyon Getty görüntüsünü kopyaladığını söyleyerek ABD'de Stability AI'ye dava açtı. Geçen hafta bir Londra mahkemesinden İngiltere'deki Stability AI'yi bloke etmesini istedi çünkü AI şirketi, sistemini eğitirken Getty'nin telif hakkını ihlal etti.

Bu davalar mahkemede çözülecek. Ancak, telif hakkı sahiplerinin adil kullanım nedeniyle veya AI eğitimi için yalnızca korumasız gerçekler ve fikirler çıkarıldığı için tazmin edilmesine gerek olmadığına dair makul bir argüman var. Ayrıca, Avrupa Birliği'nin Dijital Tek Pazarda 2019 Telif Hakkı direktifi, telif hakkı sahibi taramayı önlemek için başlık engelleyici gibi teknolojik korumalar kullanmayı devre dışı bırakmadığı sürece, çevrimiçi telif hakkıyla korunan materyallerin metin ve veri madenciliğine izin veren bir istisna içermektedir. Bu, AI eğitim verilerini kapsayabilir.

Avrupa Birliği'nin Yapay Zeka Yasası'nın mevcut taslağı, yapay zeka sistemlerinin eğitiminde kullanılan telif hakkıyla korunan çalışmaların açıklanmasını gerektiriyor. Bu, telif hakkı sahiplerinin AI eğitimi için metin ve veri madenciliğini devre dışı bırakma haklarını kullanmalarını sağlamayı amaçlıyor gibi görünüyor. Ama aynı zamanda daha ileri bir şeye doğru bir adım da olabilir. Telif hakkı sahiplerinin AI eğitimini engellemesini önleyecek ancak fikri mülkiyetlerinin kullanımı için onlara bir miktar tazminat sağlayacak zorunlu bir lisans rejimine yol açabilir. Bu telif hakkı sorunlarını çözmek, politika yapıcıların yoğun ilgi göstermesini gerektirecektir.

AB'nin AI Yasası ayrıca, riskli AI sistemlerinin, risklerin yeterince değerlendirildiğini ve makul hafifletme önlemlerinin benimsendiğini garanti etmeyi amaçlayan bir sertifikasyon sürecinden geçmesini gerektirir. Mevcut taslak, ChatGPT gibi temel modelleri sertifikasyona tabi riskli sistemler olarak ele alıyor; bu potansiyel bir yük, görünüşe göre Open AI başkanı Sam Altman'ın, ChatGPT'ye uymazsa Avrupa'dan ChatGPT'yi geri çekeceğini söylemesine neden oldu. O zamandan beri ayrılma planı olmadığını söyleyerek bu tehdidi geri aldı.

Yine de bir anlamı var. Üzerinde kafa yoracak somut bir konu arayan politika yapıcılar, risklerin çoğu yalnızca sistem pratikte uygulandığında ortaya çıkacakken, ChatGPT gibi genel amaçlı bir yapay zeka sisteminin nasıl "güvenli" olarak onaylanabileceğini kendilerine sormalıdır.

Bunlar, politika yapıcıları ilgilendirmesi gereken temel yapay zeka sorunlarından yalnızca birkaçıdır. Diğerleri, her zamankinden daha yetenekli AI sistemlerinin istihdam üzerindeki etkilerini, eğitim verileri kişisel bilgileri içerdiğinde mahremiyet zorluklarını, eğitim AI yazılımının muazzam maliyetleri ve ağ etkilerinin yarattığı konsantrasyon eğilimini, Bölüm 230 sorumluluk kurallarının uygulanmasını ve uygulanmasını içerir. AI uygunluk değerlendirmelerini yönlendirdiğinde borç verme, barınma ve istihdamda önyargıya karşı yasalar.

Politika yapıcılar, otonom yapay zeka programlarının kontrolden çıktığı ve insanların hayatta kalmasını tehdit ettiği puslu diyarlara dalmamalıdır ve gitmemelidir. Yapay zekanın gerçek dünyadaki birçok zorluğuyla yüzleşmek için yapacak çok işleri var.

Kaynak: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/