“Katil robotların” ilerleyişi neden durdurulamaz görünüyor?

Savaşta üçüncü devrim: Otonom silahlar

Uluslararası örgütlerden ve sivil toplumdan temsilcileri Avusturya Dış İşleri Bakanlığı’nın davetlisi olarak “İnsanlık Yol Ayrımında -Otonom Silah Sistemleri ve Düzenleme Zorluğu” başlığı altında olan konferansta görüş alışverişinde bulundular.   Araştırmacılar ve aktivistler otonom silahların bu gelişimini, kara barut ve nükleer silahların icadından sonra savaşta üçüncü devrim olarak görüyorlar.

Viyana merkezli Yeni Vatan Gazetesi hiç bir Türkçe yayının katılmadığı bu önemli konferansa katılanların değişik dillerde yayınlanan yorum ve görüşlerini  yayınlamaya devam ediyor. Konferansa katılan Armin Arbeiter’in Kurier’de  Almanca yayınlanan  analizini Yeni Vatan Gazetesi sizler için toparladı.

Dünya  otonom katil robotlarla zor bir döneme giriyor

Araştırmacılar otonom silahların geliştirilmesini, kara barut ve nükleer silahların icadından sonra savaşta üçüncü devri olarak görüyor. Avusturya düzenlemeden yana.

26 Eylül 1983’te dünya çöküşün eşiğinde, insanlık belki de yok oluşun eşiğinde: Yarbay Stanislav Petrov’un alarmı çalıyor – bilgisayar kontrollü Sovyet erken uyarı sistemi bir ABD nükleer füzesinin fırlatıldığını gösteriyor. Protokol, nükleer silahlarla derhal karşı saldırı yapılmasını öngörmektedir. Petrov tepki vermez. Bilgisayar dört füze daha fırlatıldığını bildirir. Petrov kararlılığını sürdürür ve emin olmadan yanlış alarm olduğunu bildirir. Petrov 23 yıl sonra Birleşmiş Milletler’e verdiği demeçte, “O gecenin en kötü yanı, verdiğim kararın doğru olup olmadığı konusunda büyük şüphelerim olmasıydı” dedi. Ama haklı olduğu kanıtlandı. Gözetleme sistemi güneş ışınlarından gelen yansımaları yanlış yorumlamıştı. Petrow’un makineye güvenmeme kararı insanlığı kurtardı.

Ancak günümüzde, makineler yakında insanların yaşamlarına ve ölümlerine karar veriyor olabilir.

Şapka takan herkese otomatik olarak ateş eden bir tank, insan müdahalesi olmadan herhangi bir silahlı kişiye ateş eden bir drone – medyada genellikle “katil robotlar” olarak anılan otonom silah sistemleri (LAWS) alanında son yıllarda hızlı ve endişe verici gelişmeler yaşandı. Özellikle de Ukrayna’daki savaşta. Havadaki, karadaki ve denizdeki insansız hava araçları savaşta giderek daha sık kullanılıyor. Birkaç hafta önce Rus kara insansız hava araçları Ukrayna mevzilerine saldırarak top ateşi açmış ve Ukrayna FPV insansız hava araçları tarafından imha edilmişti.

Bunların hiçbiri tamamen otonom olarak gerçekleşmedi. Bu cihazların “komutası” hala insanlardaydı. Ancak iki taraf arasında giderek yapay zekaya sahip insansız hava araçlarına doğru ilerleyen bir yarış yaşanıyor: Hedefi vurmadan önceki son birkaç saniyede insansız hava aracıyla bağlantı sıklıkla kopuyor ve son birkaç metrede hedefi ıskalayabiliyor. Her iki tarafta da geliştirilen yapay zeka programları, otomatik hedef tespiti yoluyla bunu önlemek üzere tasarlanmıştır.

Screenshot

Keşif ve düşman tespiti söz konusu olduğunda da “trend” yapay zeka yönünde ilerliyor. Bu gelişme devam ederse, drone operatörleri olarak insanlar gereksiz hale gelebilir ve dronlar otomatik olarak havalanabilir ve belirlenen parametrelere göre hedeflerini seçebilir ve sonunda onlara saldırabilir. Bu da savaş alanında ölümcül bir adım olacaktır. Hem Gazze’de hem de diğer savaşlarda yapay zeka hataya eğilimli olduğunu zaten göstermiştir – sivil araçları askeri araçlardan her zaman ayırt edemez.

Peki bu ölümcül adım nasıl durdurulabilir?

“Bu anın geçmesine izin vermemeliyiz”

“Harekete geçmek için küçük bir pencere var. Bu anın geçmesine izin vermemeliyiz” diyen Dışişleri Bakanı Alexander Schallenberg (ÖVP), Salı günü sona eren otonom silah sistemlerinin düzenlenmesine ilişkin uluslararası konferansın açılışında konuştu. Schallenberg, “Teknoloji baş döndürücü bir hızla gelişiyor ve siyaset bunun gerisinde kalıyor” dedi. Avusturya 2018’den bu yana tamamen otonom silahların yasaklanması çağrısında bulunuyor. Bu konudaki diplomatik görüşmeler 2014 yılından bu yana Cenevre’deki BM Silah Konvansiyonu kapsamında yürütülüyor. Ancak burada konsensüs ilkesi geçerli ve giderek daha “akıllı” hale gelen silah sistemleri üzerinde son hızla çalışan devletler de bu sürece dahil. Bununla birlikte, yasak lehine bir fikir birliğine varmak muhtemelen zor olacaktır.

(c) BMEIA/MICHAEL GRUBER

Karar kaybolup gitti

En önemli şey, yaşam ve ölüm kararının makinelere değil insanlara ait olmasıdır. Schallenberg, “Şimdi uluslararası kurallarla insan kontrolünü sağlamanın zamanıdır. Mevcut askeri çatışmalarda geri adım atmak zordur. Ancak Viyana konferansı tam da bunun için, “stratejik bir bakış” için düzenleniyor.“ dedi.

Avusturya bir süredir otonom silah sistemlerine kısıtlamalar getirilmesi için çaba sarf ediyor. 2023 yılında BM Genel Kurulu’na sunulan bir karar tasarısı büyük bir çoğunlukla kabul edildi. Ancak o tarihten bu yana pek bir şey olmadı. Özellikle süper güçler bu konuda bir düzenleme yapılmasını pek istemiyorlar.
Tarihteki her silah sisteminde olduğu gibi, dünya güçleri arasında bir silahlanma yarışı ve hepsinden önemlisi karşılıklı güvensizlik var. Yapay zekanın insanlardan daha hızlı karar verebilmesi, insan “sınırlamaları” olmadan savaş durumunda avantajlı olacağınız anlamına geliyor.

The War Zone’ adlı çevrimiçi mecranın genel yayın yönetmeni Tyler Rogoway şu dikkat çekici bilgileri yazdı : „Ya da etik sınırlar korunursa rakibin bir avantajı olacaktır. Dolayısıyla, henüz anlamadığımız bir teknolojiyle çok tehlikeli bir döneme giriyoruz. Aynı zamanda, potansiyelini tek taraflı olarak sınırlamak bizi büyük bir dezavantaja sokabilir. Küresel bir topluluk olarak bununla savaş alanında değil, önleyici bir şekilde başa çıkmaya çalışmamız için daha fazla neden var.”( yenivatan.at )

Relevante Artikel

Back to top button
Cookie Consent mit Real Cookie Banner