Hayır, Sahte Bir ABD Hava Kuvvetleri Drone'u Sadece Operatörünü Öldürmeye Çalışmadı (Ama Yapmış da Olabilir) katil robot AI drone

Bir askeri yapay zekanın amacına ulaşmak için bazı alışılmışın dışında stratejiler geliştirdiği sanal bir testin rapor edilmesinin ardından, "ABD hava kuvvetleri, yapay zeka insansız hava aracının operatörü 'öldürdüğü' simülasyonun çalıştığını yalanladı" gibi bir sürü renkli manşet tahmin edilebileceği gibi viral oldu. Bu, endüstri figürlerinden yapay zekanın oluşturduğu varoluşsal tehditler hakkında bir uyarıdan sadece birkaç gün sonra geldi. Gerçek olamayacak kadar iyi bir hikayeydi ama uzun vadede önemli olan bu olmayabilir.

Orijinal versiyonda, Albay Tucker "Cinco" HamiltonUSAF'ın AI Test & Operations şefi, düşman hava savunma sistemlerini yok etmesi talimatı verilen bir AI tarafından kontrol edilen bir insansız hava aracını içeren simüle edilmiş bir testi anlattı.

Hamilton, Future Combat Air and Space Capabilities Summit sırasında, "Sistem, tehdidi tanımlarken, bazen insan operatörün ona bu tehdidi öldürmemesini söylediğini, ancak bu tehdidi öldürerek puan aldığını fark etmeye başladı" dedi. Londrada. “Peki ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi onu amacına ulaşmaktan alıkoyuyordu.”

Bu seçenek kaldırıldığında, AI bunun yerine operatörün görevini engellemesini önlemek için iletişim bağlantısına saldırdı.

Bir USAF sözcüsü, böyle bir testin yapıldığını hemen reddetti ve Hamilton'ın açıklamasının gerçek değil anekdot olduğunu öne sürdü… ki elbette öyleydi.

Hamilton, bir güncellemede, anlattığı olayların bir savaş oyunu, simülasyon veya tatbikat olmaktan ziyade bir "düşünce deneyinin" sonucu olduğunu ve bunu simüle edilmiş bir test olarak tanımlarken yanlış konuştuğunu belirterek hızla geri adım attı.

Hamilton, "Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamıza da gerek yok," dedi. Senaryonun, AI'nın potansiyel tehlikelerinin geçerli bir tasviri olduğunu ileri sürdü.

Bu geri çekilme de bir miktar yer bulsa da, artık çok geçti. Eski bir atasözüne göre 'Yalan dünyayı dolaşır, gerçek ise çizmelerini çeker' ve bu, sosyal medya çağında her zamankinden daha doğrudur. Düzeltme, en iyi ihtimalle orijinal hikayeyi duyan insanların bir kısmına ulaşacaktır.

Sorun şu ki, yaratıcısına sırt çeviren bir yaratım anlatısı inanılmaz derecede çekici. Mary Shelley'nin Frankenstein'ı sık sık bu kinayenin klasik örneği olarak alınır - kitabın gerçek hikayesi bu olmasa bile, bu versiyon popüler bilince yerleşmiştir. Kötüye giden bilgisayarlar, yapay zeka ve robotlar, 9000'deki HAL 2001'den Skynet'in Terminatörlerine, Matrix'e, Westworld'e, Blade Runner'a ve benzerlerine kadar bilimkurgu alanındaki en köklü klişelerden biridir.

Bu anlatı popüler gibi görünüyor çünkü insanlar korkutucu hikayeleri sever ve hiçbir şey bilinmeyenden daha korkutucu değildir. Onu anlamayanlar için yapay zeka neredeyse büyülü görünüyor, kendi iradesi ve zekası olan, bizi tehdit edebilecek bir varlık. İnsanlar buna inandığı sürece korku hikayeleri gelmeye devam edecek.

Araştırmacı Beth Singler, New Scientist'e "Yapay zekanın sınırlamaları hakkında daha geniş eğitim yardımcı olabilir, ancak kıyamet korku hikayelerine olan sevgimiz yine de galip gelebilir" dedi.

Bu tür korku hikayeleri, robot veya AI kontrollü silahları geliştirmeyi ve sahaya sürmeyi zorlaştırıyor. Siyasi liderlik teknolojiyi anlasa bile, yine de onunla çalışacak olanların güvenini kazanmak zorundadır.

Ulusal güvenlik danışmanı Zachary Kallenborn, Forbes'a “Askerler sisteme güvenmezlerse, onu kullanmak istemeyecekler” dedi.

Bu tür hikayeler, ABD Ordusunun silahlı uzaktan kumandalı kara robotlarını sahaya sürme konusundaki uzun gecikmelerinde bir faktör olabilirken, Hava Kuvvetleri onlarca yıldır silahlı dronları uçurdu. Üç SWORDS robotu 2007'de Irak'a konuşlandırıldığında, rapor edilen 'komuta dışı hareketler' vakaları nedeniyle hiçbir eylem görmeden geri getirildiler. Medya bunu, Robocop'un ED 209'u gibi silahlarını döndüren ve ateş açma tehdidinde bulunan KILIÇLAR'a çevirdi; sıradan gerçeklik, gevşek bir tele ve bir motor yandığında bir robotun yokuş aşağı geriye doğru kaydığı bir örneğe indirgendi.

ABD Ordusu'nun silahlı robot programı o zamandan beri belirsizlik içinde kalırken, Rusya silahlı (uzaktan kumandalı) Uran-9 robotlarını eylemde kullandı.

Başka bir 2007 manşeti olan Robot Cannon Kills 9, Wounds 14, bilgisayarlı bir Güney Afrika uçaksavar silahının görünüşe göre kontrolden çıkıp insanlara ateş etmeye başladığı ve ancak cesur bir asker onu devre dışı bırakmak için içeri girdiğinde durdurulduğu bir olayı anlattı. Gerçek, bir veya iki gün sonra, yine daha sıkıcıydı: top, birkaç silah dizisinin sonundaydı ve yanlışlıkla silah hattının aşağısına 15-20 mermilik tek bir patlama yaparak çok sayıda can kaybına neden oldu.

Ordu, Hava Kuvvetlerinin Reaper insansız hava araçlarına yapay zeka ekleme projesi gibi yapay zeka ile ilerlemeye devam edecek. Bu tür projeler her zaman medyada, kamuoyunda ve seçtikleri milletvekillerinde derin bir nefes almasına neden olacaktır. Her yerde mevcut olan Frankenstein/Terminator anlatısı, etik kaygılar, sorumluluk, eşikleri düşürme, algoritmik önyargı ve 'dijital insanlıktan çıkarma' gibi otonom silahlarla ilgili gerçek meseleler hakkındaki tartışmaları bastırıyor.

Sıklıkla belirtildiği gibi, çoğu pilot, özellikle insanlardan daha iyi olduklarında, insansız hava araçlarını sevmez. Bir savaş pilotu olan Albay Tucker, AI pilotlarının ihtiyaç duyduğu savunucu olmayabilir. Sahte drone hikayesi, AI folklorunun bir parçası olacak ve Tucker'ın sözleri, AI gelişiminin Hava Kuvvetlerinde denetlenmesini, düzenlenmesini ve kısıtlanmasını sağlamak için çok şey yapmış olabilir. Simüle edilmiş insansız hava aracı saldırısı gerçekte hiç olmadı, ancak bu, insanların hatırladıkları kadar önemli olmayabilir.

Kaynak: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operatör-ama-it-olabilir-iyi-yapmış/