Pentagon'un Katil Robotlara İlişkin Güncellenmiş Politikası Nedir?

Pentagon bir açıklama yayınladı. Direktifi 3000.09'a güncelleme, onların terimlerini kapsayan Silah Sistemlerinde Özerklik ve diğerleri 'katil robotlar.' Hava Kuvvetleri ve CIA gibi güncel dronlar MQ-9 Biçerdöverler uzaktan kumanda ile çalıştırılır: bir insan bir video ekranının önünde oturmak binlerce mil ötedeki hedefleri tespit eder, onları nişangahın içine yerleştirir ve bir cehennem ateşi füzesi veya başka bir silah. Otonom silahlar farklıdır: herhangi bir insan müdahalesi olmadan kendi hedeflerini seçerler. Ne zaman ve nasıl kullanılabilecekleri konusunda net kurallara ihtiyaç vardır ve yeni direktif onları bir adım daha yaklaştırmaktadır.

On yıl önce 3000.09'un ilk versiyonu yayınlandığında, otonom silahlar bilim kurgu gibi görünüyordu. Şimdi çok gerçekler. BM iddia etti Türk tedarikli insansız hava araçları otonom olarak hedeflere saldırdı 2020'de Libya'da ve Rusya şimdi Ukrayna'da aylak aylak mühimmat konuşlandırıyor. otonom yetenek.

gibi pek çok aktivist Katil Robotları Durdurma Kampanyası, herhangi bir uzak silahın denetim altında kalması konusunda ısrar ederek, otonom silahların tamamen yasaklanmasını istiyor anlamlı insan kontrolü her zaman. BM nasıl yapılacağını tartışıyor bu tür silahları yıllarca kontrol.

Ancak yeni direktifin açıkça ortaya koyduğu gibi Pentagon farklı bir çizgide ilerliyor.

"Savunma Bakanlığı, hem otonom sistemler hem de yapay zeka sistemleri söz konusu olduğunda, 'anlamlı insan kontrolü' politika standardına sürekli olarak karşı çıktı." Gregory Allen, Yapay Zeka Yönetişimi Projesi direktörü Stratejik ve Uluslararası Çalışmalar Merkezi, bana söyle. "DoD'un tercih edilen sanat terimi, 'uygun insan muhakemesi seviyeleri' dir; bu, bazı durumlarda - örneğin otonom gözetleme uçakları ve bazı otonom siber silahlar - uygun insan kontrolü seviyesinin çok az olabileceği veya hiç olmadığı gerçeğini yansıtır. ”

Hangi koşullar altında hangi otonom silahlara izin verilecek? Allen, direktifin önceki versiyonunun o kadar belirsiz olduğuna ve bu alandaki herhangi bir gelişmeyi engellediğine inanıyor.

Allen, "DoD'un bazı üst düzey liderleri de dahil olmak üzere kafa karışıklığı o kadar yaygındı ki, yetkililer yalnızca politika tarafından izin verilmeyen, aynı zamanda üst düzey inceleme gerekliliğinden açıkça muaf tutulan bazı sistemler geliştirmekten kaçınıyorlardı" diyor.

Yayınlanmasından bu yana geçen on yıl içinde orijinal 3000.09'da belirtilen otonom silahlar için inceleme sürecine tek bir silah bile sunulmadı.

Allen yazdı bu konuda deneme geçen yılki CSIS için, üzerinde çalışılması gereken dört alanı açıklayarak - otonom silah sistemlerini resmi olarak tanımlayarak, "AI özellikli"nin politika için ne anlama geldiğini, inceleme sürecinin makine öğrenimi modellerini yeniden eğitmeyi nasıl ele alacağını ve ne tür silahların gerekli olduğunu açıklığa kavuşturarak zorlu inceleme sürecinden geçin.

Allen, "DoD hepsini uyguladı" diyor.

Prensip olarak bu, DoD'un "otonom sistemlerin askeri kullanımına ilişkin sorumlu politikalar oluşturmada şeffaf bir küresel lider olmaya yönelik güçlü ve sürekli taahhüdünü" sağlamalıdır.

Bununla birlikte, insanları hedeflemeyen ("anti-materyal silahlar") ve ancak füzeleri, diğer insansız hava araçlarını hedeflemesine izin verilecek olan insansız hava araçlarını savunan otonom silahlar için üst düzey incelemeden muafiyet gibi boşluk olarak görülebilecek bazı eklemeler vardır. ve potansiyel olarak diğer sistemler.

"'Savunma' kelimesi çok iş yapıyor" Zak KallenbornGeorge Mason Üniversitesi'ndeki Schar Politika ve Hükümet Okulu'ndan bir politika görevlisi bana söyledi. "Düşman bölgesinde bir insansız hava aracı çalışıyorsa, hemen hemen her silah platformu 'savunma' olarak yorumlanabilir."

Kallenborn ayrıca, kara mayınları gibi etkili otonom silahlar bir yüzyıldan fazla bir süredir kullanımda olmasına rağmen, yapay zeka ve özellikle makine öğrenimindeki gelişmeler nedeniyle manzaranın hızla değiştiğini belirtiyor. Bunlar çok yetenekli sistemlerin ortaya çıkmasına neden oldu, ancak teknik olarak kırılgan – başarısız olduklarında, örneğin hiçbir insanın yapmayacağı şekillerde muhteşem bir şekilde başarısız olurlar. kaplumbağayı tüfek sanmak.

Kallenborn, "Yapay zeka yoluyla özerklik, şu anda hakim olan yaklaşımların kırılganlığı ve açıklanamazlığı göz önüne alındığında, kesinlikle daha fazla endişeyi hak ediyor" diyor.

Güncelleme büyük bir güncelleme değil. Ancak Pentagon'un etkili otonom silahlar geliştirmeye yönelik devam eden taahhüdünü ve uyum sağlayabileceklerine olan inancını gösteriyor. Uluslararası İnsancıl Hukuk - sivilleri askeri personelden ayırmak, sivillere zarar vermekten kaçınmaya çalışmak ve yalnızca orantılı ve gerekli gücü kullanmak.

Kampanyacılar, yapay zekanın savaş zamanında ahlaki yargılarda bulunmak için gerekli anlayışa sahip olmayacağına ve savaşın otomatikleştiği ve insanların artık kontrolün elinde olmadığı bir dünya yaratma riskinin olduğuna inanıyor. Diğerleri ABD ordusunun olacağına inanıyor otonom silahlara sahip rakipler tarafından geride bırakıldı AI taktik düzeyde dahil edilmediği ve çok fazla insan katılımı olmadığı sürece askeri robotları yavaşlatır.

Otonom silahlar ortaya çıkmaya başlasa bile tartışma muhtemelen devam edecek ve sonuçlar yakından takip edilecek. Her iki durumda da, katil robotlar geliyor gibi görünüyor.

Kaynak: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/