FBI, Yapay Zeka Deepfake Gasp Dolandırıcılığına Karşı Uyardı

Üretken yapay zekanın gerçeğe yakın görüntüler oluşturma yetenekleri etkileyici, ancak ABD Federal Soruşturma Bürosu suçluların kurbanları gasp için hedef almak için derin sahtekarlıklar kullandığını söylüyor.

Ajans Pazartesi günü bir PSA uyarısında, "FBI, fotoğrafları veya videoları müstehcen içeriğe dönüştürülen küçük çocuklar ve rıza göstermeyen yetişkinler de dahil olmak üzere kurbanlardan raporlar almaya devam ediyor" dedi.

FBI, kolluk kuvvetlerinin geçen yıl reşit olmayanları hedef alan çevrimiçi şantajla ilgili 7,000'den fazla rapor aldığını ve Nisan ayından bu yana deepfake kullanan sözde "gasp dolandırıcılığı" kurbanlarında artış olduğunu söyledi.

Deepfake, Midjourney 5.1 ve OpenAI'nin DALL-E 2 gibi üretken AI platformları sayesinde, sahte olarak ayırt edilmesi giderek zorlaşan yanlış olayları gösteren, yapay zeka ile oluşturulan, giderek yaygınlaşan bir video veya ses içeriği türüdür.

Mayıs ayında, Tesla ve Twitter CEO'su Elon Musk'ın kripto yatırımcılarını dolandırmak için yaptığı bir deepfake viral oldu. Sosyal medyada paylaşılan video, Musk'ın daha önceki röportajlardan dolandırıcılığa uyacak şekilde düzenlenmiş görüntülerini içeriyordu.

Deepfake'lerin hepsi kötü niyetli değil, Papa Francis'in beyaz bir Balenciaga ceketi giydiği bir deepfake bu yılın başlarında viral oldu ve son zamanlarda yapay zeka tarafından üretilen deepfake'ler de cinayet kurbanlarını hayata döndürmek için kullanıldı.

FBI tavsiyelerinde herhangi bir fidye ödememesi konusunda uyardı çünkü bunu yapmak suçluların zaten deepfake yayınlamayacağını garanti etmez.

FBI ayrıca kişisel bilgileri ve içeriği çevrimiçi paylaşırken, hesapları gizli yapma, çocukların çevrimiçi etkinliklerini izleme ve geçmişte etkileşimde bulunduğunuz kişilerin olağandışı davranışlarını izleme gibi gizlilik özelliklerini kullanırken dikkatli olunmasını tavsiye eder. Ajans ayrıca, çevrimiçi olarak kişisel ve aile üyesi bilgileri için sık sık arama yapılmasını önerir.

Alarm çalan diğer kurumlar arasında, suçluların, kaçırıldıklarını söyleyen bir arkadaş veya aile üyesinin sesli bir deepfake'ini oluşturduktan sonra, şüphelenmeyen kurbanları para göndermeleri için kandırmak için deepfake kullandıkları konusunda uyarıda bulunan ABD Federal Ticaret Komisyonu yer alıyor.

“Yapay zeka artık bir bilimkurgu filminden fırlamış bir fikir değil. Bununla yaşıyoruz, burada ve şimdi. FTC Mart ayında yaptığı bir tüketici uyarısında, bir dolandırıcı yapay zekayı sevdiği kişinin sesini klonlamak için kullanabilir," dedi ve tüm suç ihtiyaçlarının, kaydı gerçek kılmak için bir aile üyesinin sesinin kısa bir ses klibi olduğunu ekledi.

FBI henüz yanıt vermedi azalmak en yorum isteği.

Kripto haberlerinden haberdar olun, gelen kutunuzda günlük güncellemeler alın.

Kaynak: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams