Senatörler Meta CEO'su Zuckerberg'i LLaMA Yapay Zeka Modeli "Sızıntı" Üzerine Sorguluyor

İki Senatör Cross, Zuckerberg'i LLaMA Yapay Zeka Modeli sızıntısı hakkında sorgular ve metayı güvenlik önlemlerine uymamakla suçlar. Meta, güvenlik politikaları ve önleyici tedbirleri hakkında sorgulandı.

“Sızıntı”dan Meta Sorumlu Olacak

Son zamanlarda, Meta'nın çığır açan büyük dil modeli LLaMA sızdırıldı ve bununla ilgili endişeler dile getirildi. Senato'nun Gizlilik, Teknoloji ve Hukuk Alt Komitesi başkanı Senatör Richard Blumenthal (D-CT) ve rütbeli üye Josh Hawley (R-MO), AI Modeli sızıntısına ilişkin soruları gündeme getiren bir mektup yazdı. 

Senatörler, bu sızıntının spam, dolandırıcılık, kötü amaçlı yazılım, mahremiyet ihlalleri, taciz ve diğer suçlar ve zararlar gibi çeşitli siber suçlara yol açabileceğinden korkuyor. Pek çok soru ortaya atılır ve iki politikacı Meta'nın güvenlik sistemiyle derinden ilgilenir. LLaMA'yı başlatmadan önce riski değerlendirmek için hangi prosedürün izlendiğini sordular. Modelin kullanılabilir durumdayken kötüye kullanılmasını önlemek için yürürlükte olan politikaları ve uygulamaları anlamaya çok istekli olduklarını söylediler.

Senatörler, Meta'nın sorularına verdiği yanıtlara dayanarak Meta'yı uygunsuz sansür uygulamakla ve model için yeterli güvenlik önlemi almamakla suçladı. Open AI'ın ChatGPT'si, etik kurallara ve yönergelere dayalı olarak bazı istekleri reddeder. Örneğin, ChatGPT'den birinin oğlu adına bir mektup yazması ve zor bir durumdan kurtulmak için biraz para istemesi istendiğinde, talebi reddedecektir. Öte yandan, LLaMA talebi yerine getirecek ve mektubu üretecektir. Ayrıca kendine zarar verme, suç ve antisemitizm içeren talepleri de tamamlayacaktır.

LLaMA'nın çeşitli ve benzersiz özelliklerini anlamak çok önemlidir. Yalnızca farklı değil, aynı zamanda bugüne kadarki en kapsamlı Büyük Dil modellerinden biridir. Bugün popüler olan hemen hemen her sansürsüz LLM, LLaMA'ya dayanmaktadır. Açık kaynaklı bir model için son derece karmaşık ve doğrudur. LLaMA tabanlı bazı LLM'lere örnek olarak Stanford's Alpaca, Vicuna vb. verilebilir. LLaMA, LLM'lerin bugünkü haline gelmesinde önemli bir rol oynamıştır. LLaMA, düşük yardımcı programlı sohbet robotlarının ince ayarlı modlara evriminden sorumludur.

LLaMA Şubat ayında yayınlandı. Senatörlere göre Meta, araştırmacıların modeli indirmesine izin verdi ancak merkezileştirme veya erişimi kısıtlama gibi güvenlik önlemleri almadı. Tartışma, LLaMA'nın tam modeli BitTorrent'te ortaya çıktığında ortaya çıktı. Bu, modeli herkes ve herkes için erişilebilir hale getirdi. Bu, AI modelinin kalitesinden ödün verilmesine yol açtı ve kötüye kullanılmasıyla ilgili sorunları gündeme getirdi. 

Senatörler ilk başta herhangi bir “sızıntı” olup olmadığından bile emin değillerdi. Ancak internet, yeni başlayanlar, kolektifler ve akademisyenler tarafından başlatılan yapay zeka geliştirmeleriyle dolup taştığında sorunlar ortaya çıktı. Mektup, Meta'nın LLaMA'nın olası kötüye kullanımından sorumlu tutulması ve yayınlanmadan önce minimum koruma önlemleri almış olması gerektiğinden bahsediyor.

Meta, LLaMA'nın ağırlıklarını araştırmacıların kullanımına sundu. Ne yazık ki, bu ağırlıklar sızdırıldı ve bu da ilk kez küresel erişimi sağladı.

Ritika Sharma'nın son gönderileri (tümünü Gör)

Kaynak: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/