Microsoft, Sahtekarları Engellemek için Yapay Zeka Chatbot Güvenliğini Geliştiriyor

Microsoft Corp, Azure AI Studio'ya, kullanıcılarının yapay zeka modellerini anormal veya uygunsuz davranmalarına neden olacak şekilde yapılandırma olasılığını zamanla azaltmaya devam etmesi gereken bir dizi güvenlik özelliğini Azure AI Studio'ya ekledi.Redmond merkezli çok uluslu teknoloji şirketi, Washington, bir blog gönderisinde gelişmelerin ana hatlarını çizerek yapay zeka etkileşimlerinin bütünlüğünü garanti altına almayı ve kullanıcı tabanındaki güveni artırmayı vurguladı.

Hızlı kalkanlar ve daha fazlası 

En önemli gelişmeler arasında, yapay zeka sohbet robotlarıyla konuşurken anlık enjeksiyonları bulup ortadan kaldırmak için tasarlanmış bir teknoloji olan "istem kalkanlarının" oluşturulması yer alıyor. Bunlar sözde jailbreak'lerdir ve temel olarak yapay zeka modellerinden istenmeyen bir yanıt alacak şekilde oluşturulacak şekilde kasıtlı olarak kullanıcılardan gelen girdilerdir.

Örneğin Microsoft, kötü emirlerin yerine getirilmesinin mümkün olduğu ve bunun gibi bir senaryonun veri hırsızlığı ve sistemin ele geçirilmesi gibi ciddi güvenlik sonuçlarına yol açabileceği durumlarda hızlı enjeksiyonlarla dolaylı olarak kendi rolünü oynuyor. Microsoft'un Sorumlu Yapay Zekadan Sorumlu Ürün Sorumlusu Sarah Bird'e göre mekanizmalar, bu türünün tek örneği olan tehditleri gerçek zamanlı olarak tespit etmek ve bunlara yanıt vermek için kilit öneme sahip.

Microsoft, yakında kullanıcının ekranında bir modelin yanlış veya yanıltıcı bilgi verme ihtimalinin yüksek olduğunu belirten ve daha fazla kullanıcı dostu olma ve güven sağlayan uyarılar olacağını ekliyor.

Yapay Zeka Araçlarına Güven Oluşturmak 

Microsoft'un çabası, bireysel tüketicileri ve kurumsal müşterileri hedef alan hizmetlerde yaygın olarak uygulanan, popülerliği giderek artan üretken yapay zeka konusunda insanlara güven vermeyi amaçlayan daha büyük bir girişimin parçası. Microsoft, bu tür durumlara maruz kaldıktan sonra, kullanıcıların Copilot sohbet robotunu tuhaf veya zararlı çıktılar üretmesi için kandırma olanağına sahip olduğu durumları ince ince değerlendirdi. Bu durum, yapay zeka teknolojileri ve popüler bilgiyle birlikte artması muhtemel olan söz konusu manipülatif taktiklere karşı güçlü savunmalara ihtiyaç duyulduğunu gösteren sonucu destekleyecektir. Tahmin etmek ve ardından hafifletmek, saldırganın sorgulamayı tekrarlaması veya rol oynama sırasında yönlendirme yapması gibi saldırı kalıplarının tanınmasıdır.

OpenAI'nin en büyük yatırımcısı ve stratejik ortağı olan Microsoft, sorumlu, güvenli, üretken yapay zeka teknolojilerinin nasıl birleştirileceği ve yaratılacağı konusunda sınırları zorluyor. Her ikisi de güvenlik önlemleri için Üretken Yapay Zekanın sorumlu dağıtımına ve temel modellerine kendini adamıştır. Ancak Bird, bu büyük dil modellerinin gelecekteki yapay zeka yeniliklerinin çoğunun temeli olarak görülmesine rağmen, manipülasyona dayanıklı olmadığını kabul etti.

Bu temellerin üzerine inşa etmek, modellere güvenmekten çok daha fazlasını gerektirecektir; Yapay zeka emniyeti ve güvenliğine yönelik kapsamlı bir yaklaşıma ihtiyaç duyacaktır.

Microsoft kısa süre önce, değişen AI tehdit ortamını korumak için atılan proaktif adımları göstermek ve garanti etmek amacıyla Azure AI Studio'ya yönelik güvenlik önlemlerinin güçlendirildiğini duyurdu.

Zamanında ekranlar ve uyarılar ekleyerek yapay zekanın kötüye kullanımını önlemeye ve yapay zeka etkileşiminin bütünlüğünü ve güvenilirliğini korumaya çalışır.

Yapay zeka teknolojisinin sürekli gelişmesi ve günlük yaşamın pek çok alanına dahil edilmesiyle birlikte, Microsoft ve yapay zeka topluluğunun geri kalanının çok dikkatli bir güvenlik duruşu sürdürmesinin zamanı gelmiş olacak.

Kaynak: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/