Af Örgütü: “Katil robotlar artık bilim kurgu değil”

BM üyesi 75 ülkenin temsilcisi 31 Ağustos’a kadar öldürücü silah ve robot sistemlerindeki güncel durumu masaya yatırıyor. Gelinen noktada otonom silahların öldürme kararını hangi hukuki kriterlere ve etik ölçütlere göre vereceği tartışılıyor.

Katil robotlar artık bilim kurgu değil

29/08/2018
Kamuoyunda “katil robotlar” olarak bilinen otonom silahların teknolojik altyapısında önemli ilerlemeler kaydedildi. Gelinen noktada otonom silahların öldürme kararını hangi hukuki kriterlere ve etik ölçütlere göre vereceği tartışılıyor.

Cenevre’de bir araya gelen “Belirli Konvansiyonel Silahlar Sözleşmesi Ölümcül Otonom Silah Sistemlerine Yönelik Hükümet Uzmanları Grubu” (CCW/GGE) 31 Ağustos’a kadar öldürücü silah ve robot sistemlerindeki güncel durumu masaya yatırıyor. Görüşmeler kapsamında BM üyesi 75 ülkenin temsilcisi tam otonom silah sistemlerinin oluşturduğu etik sorunları ve güvenlik açmazlarını ele alacak.

Af Örgütü: “Katil robotlar artık bilim kurgu değil”

Diğer yandan da Birleşmiş Milletler öldürme özelliğine sahip olan otonom silahların yasaklanmasını gündemde tutmaya devam ediyor. “Katil askeri robotlara” öldürme izni verilmesi durumunda bunun bir felaket senaryosunun hayata geçirilmesi anlamına geleceğine dikkat çeken Uluslararası Af Örgütü ise BM’den bu teknolojinin yasaklamasını istiyor.

Af Örgütü’nün yapay zeka ve insan hakları danışmanı Rasha Abdul Rahim bu kapsamda yaptığı uyarıda, “Katil robotlar artık bilim kurguların bir parçası değil. Yapay zekayla çalışan dronelardan kendi hedeflerini seçebilen otomatik silahlara varıncaya kadar ortaya çıkan bütün teknolojik gelişmeler uluslararası hukuku geride bıraktı.” ifadelerini kullandı.

Otonom silah sistemi nedir?

Uluslararası Kızılhaç Komitesi “otonom silah sistemlerini” hedefini özerk olarak arayan ve kendi başına belirlediği hedefe saldırıp tahrip edebilen sistemler olarak tanımlıyor. Buradaki “özerklik” ifadesi söz konusu öldürücü sistemin insan müdahalesi olmadan işlemesi anlamına geliyor.

İşte tam bu noktada etik alan ile teknolojik alan arasında devasa bir açmaz ortaya çıkıyor. Zira şu sorunun yanıtı henüz tam olarak verilemiyor: “Otonom silahlar eğer düşmanı yok etmek yerine sivilleri öldürürse ne olacak?”

Robotlara “insan hakları çipi” mi takılacak?

Bu sorunun yanıtı kolayca verilemiyor. Zira robotların “uluslararası sözleşmeler çipi”, “devletler arası hukuk çipi” ya da “insan hakları çipi” bulunmadığı gibi, bu alana ait verileri yazılıma dayalı bir algoritmayla ve “makine öğrenmesi” süreçleriyle söz konusu silah sistemlerine edindirmenin bir yolu olup olmadığı da henüz bilinmiyor.

Yapay zeka ve robotik kodlamada kaydedilen olağan üstü gelişmeler sayesinde otonom silah sistemlerine dikkate değer oranda özerklik yeteneği kazandırıldı. Öğrenebilen makineler tıpkı insan beynindeki nöronlar arası iletişim ağına benzer bir alt yapıyla kendi deneyimlerini analiz ederek, nöral ağ algoritması tabanında taktik ve strateji geliştirebiliyor.

Asıl tehlike hangi sistemden kaynaklanıyor?

Silah sanayisinin halihazırdaki otonom silah altyapısından istifade ederek daha hızlı ve etkin sistemler geliştirmesi sayesinde askerlerin savaş durumunda karşı karşıya kaldığı ölümcül riskler en aza indirgenmiş oluyor. Pek çok ülkenin ordusu da bu hedefe bir an önce varılmasını bekliyor.

Hukuk ve etik uzmanları da zaten kendi başına mayın araması yapıp tahrip eden robotları değil, bilakis hedefini kendi başına tespit ederek insan öldürebilecek kabiliyete sahip robotları hedef alıyor.

Katil robotlar son dört yıldır BM gündeminde yer alıyor

Birleşmiş Milletler, otonom silahlar konusunu 2014 yılından bu yana düzenli olarak görüşüyor. “Belirli Konvansiyonel Silahlar Sözleşmesi” (CCV) kapsamında yürütülen görüşmelere 75 ülkenin temsilcileri haricinde bilim insanları ve sivil toplum kuruluşu temsilcileri katılıyor.

“Ölümcül Otonom Silah Sistemleri” bu yıl da gündemin başlıca maddesi olarak öne çıkıyor. Şimdilik senaristlerin filmlerde işlediği “katil drone” konusunun yakın gelecekte gündemin ana maddelerinden biri olması bekleniyor.

Dünya üçe bölündü, İsrail önden yürüyor

Öte yandan özerk silah teknolojilerinin dünyayı üç ayrı cepheye böldüğünü de hatırlatmak gerekiyor. Bazı kesimler bu silahların her türüne karşı çıkarken, diğer kesimdekiler otonom silahları sorgusuz sualsiz onaylıyor. Bir de Almanya ve Fransa başta gelmek üzere “orta yolu tercih eden” ülkeler bulunuyor.

Amerika Birleşik Devletleri, Rusya, İsrail ve İngiltere özerk silahların yasaklanmasına kesin bir dille karşı çıkıyor. Örneğin son dönemde Gazze’deki protestoculara göz yaşartıcı gaz atmak için yarı otonom dronelar kullanan İsrail de dahil olmak üzere bazı ülkeler şimdiden yapay zeka destekli silah sistemlerini kullanıyor. Bu ülkeler aynı zamanda yapay zekanın askeri amaçlar doğrultusunda kullanılmasına büyük kaynak ayıran ülkelerin başında yer alıyor.

Hangi ülkeler otonom silahlara karşı çıkıyor?

Dünya genelinde 26 ülke ve 230 uluslararası kuruluş otonom silahlara karşı çıkarken, ABD merkezli Future of Life Enstitüsü tarafından başlatılan kampanyaya destek veren ünlülerin sayısı üç bini geçti.

Aralarında Tesla’nın kurucusu Elon Musk, Skype’nin kurucu ortağı Jaan Tallinn ve yapay zeka araştırmacısı Stuart Russell gibi ünlü isimlerin yer aldığı binlerce teknoloji öncüsü, ölümcül otonom silahların kullanılmasına ve geliştirilmesine karşı hükümetlere uyarıda bulundu.

Cenevre görüşmeleri sonuçsuz kalırsa ne olacak?

Bu hafta cuma gününe kadar sürecek olan Cenevre görüşmelerinde ilerleme sağlanamazsa, geriye tek çıkar yol olarak kamuoyu baskısı oluşturulması kalıyor.

Daha önce kara mayınlarıyla ilgili tartışmalarda olduğu gibi otonom silahlara karşı da uluslararası bir kampanya yürütülerek, Birleşmiş Milletler bünyesi dışında bir yasaklama anlaşmasına varılmasına mümkün gözüyle bakılıyor.

Kaynak: tr.euronews.com

PAYLAŞ.
VicdaniRet.org