Modern silah sistemleri, “müşteri isterse” zaten insan denetimi olmadan çalışabilir – Araştırmacı Catherine Connolly, katil robotların yasaklanmasının yalnızca zaman meselesi olduğuna inanıyor ve umuyor
Büyük güçler tamamen otonom silahları yasaklayan bir anlaşmanın müzakerelerine başlamak istemiyorlar çünkü bu silahları kendileri geliştiriyorlar. “Katil robotların” yasaklanması için baskı yapan araştırmacı Catherine Connolly, öldürme kararının asla bir makineye verilmemesi gerektiğini söylüyor. Yasaklama anlaşmasına yönelik ilk adım olan BM görüşmelerinde bu hafta başlayacak prensipte bir karara varılacağına inanıyor.
3 Ekim 2023
2020 baharında Libya’da muhtemelen askeri tarih yazıldı. BM Güvenlik Konseyi’ne sunulan bir rapora göre , Türk Kargu-2 İHA’ları ülkedeki iç savaşta geri çekilen askerleri otonom olarak, yani insan denetimi olmadan kovalamak için kullanıldı.
İrlandalı araştırmacı Catherine Connolly vakayı duymuş ve endişeleniyor. Uluslararası hukuk ve güvenlik doktoru, kuruluşların Katil Robotları Durdur kampanyasının araştırma grubuna liderlik ediyor ve Kargu gibi uluslararası anlaşmalarla yasaklanacak silahların geliştirilmesi ve kullanılması için savunuculuk çalışmaları yapıyor.
Bunun için fırsatlar var çünkü BM Genel Kurulu’nun ilk komitesinin oturumu bu hafta başladı. Orada, BM Genel Sekreteri António Guterres’e ülkelerin yasak anlaşmasına ilişkin pozisyonlarını netleştirme yetkisi verecek bir kararın oylanması planlanıyor . Bu, katil robotları yasaklayan bir anlaşmaya doğru atılan ilk adım olabilir.
“Özellikle uluslararası kurallara olan ihtiyacın büyük olduğu bir noktadayız. Eyaletlerin mümkün olan en kısa sürede müzakerelere başlaması, şu anda geliştirilmekte olan sistemleri ve bunlarla neler yapılabileceğini etkileyecektir” diyor Connolly.
Makine kuralları bilmiyor
Katil robotların gerçek bir durumda kullanıldığına dair Libya’daki olaylardan daha net bir kanıt yok. Ancak Connolly’ye göre bu yakın.
“Silah sistemlerinin insanlar olmadan çalışabilmesi için yalnızca bir yazılım değişikliği yeterli olacaktır. Savunma sanayii temsilcileri bizzat kendileri, müşterilerin yani devletlerin istemesi durumunda bunun yapılabileceğini ifade ettiler” diyor.
Öldürücü robotlar konuşlandırıldıktan sonra bilgi toplayabilir, hedeflerini seçebilir ve onlara bağımsız olarak saldırabilir. Bunlar, örneğin yüz tanıma teknolojisini veya diğer yapay zeka uygulamalarını kullanabilen ve hedeflerini sürüler halinde “takip edebilen” Kargu gibi dronlar olabilir.
Ayrıca, örneğin ABD tarafından geliştirilen Switchblade drone’da şu anda bir kişinin video yoluyla bir hedef seçmesi gerekiyor, ancak AP haber ajansının bildirdiğine göre, üretici AeroVironment’e göre bir kişiyi karar alma sürecinden çıkarmak yalnızca üç yıl sürecek . Yılın başında.
Konu uzun zamandır endişe kaynağıydı ve birçok yetkili taraf yasaklama anlaşmasını destekliyor. BM Genel Sekreteri Guterres 2026 yılına kadar bir yasak anlaşması istiyor. Ayrıca örneğin Uluslararası Kızılhaç Komitesi, sivil toplum kuruluşları, binlerce teknoloji ve yapay zeka araştırmacısı ve Stop Killer Robots’a göre yüze yakın ülke yasak anlaşmasını destekliyor.
Sebepler etiktir: Bir makineye, prensip uğruna bile olsa, bir kişinin yaşamına ve ölümüne karar verme yetkisini vermek istemezsiniz.
Ayrıca otonom silahlar, en azından uluslararası insancıl hukuk açısından da zorlu bir konudur. Örneğin savaş kurallarına göre sivillerle askerlerin birbirinden ayırt edilebilmesi, sivil hedeflere saldırılmaması ve savaş esirlerinin öldürülmemesi gerekiyor.
Katil robotlar bu kuralları bilmiyor ve hatalardan onları sorumlu tutmak zor olacaktır.
“Bununla ilgili hedef profilinin ne olduğu, silah sisteminin hangi verilerle eğitildiği, sınıflandırmaların kim tarafından yapıldığı gibi büyük sorular var. Eğer bir makine bir tüfeği tanıyacak şekilde eğitilmişse, onun tüfek taşıyan bir kişiyi, örneğin koltuk değneği veya baston kullanan bir kişiden ayırt edebildiğini nasıl bileceğiz?” Connolly soruyor.
Anlaşma hâlâ çok uzakta
Ancak bir yasaklama anlaşmasının imzalanması uzun zaman aldı. BM’nin konvansiyonel silahlara ilişkin sözleşmesi çerçevesinde konu üzerinde on yılı aşkın bir süredir tartışmalar yaşanıyor. Ancak resmi müzakerelere ilerlemek için uzlaşma gerekiyor ve henüz bu noktaya ulaşılamadı.
Stop Killer Robots’a göre on ülke müzakerelere karşı çıkıyor: Avustralya, Estonya, Hindistan, İsrail, Japonya, Polonya, Güney Kore, Rusya, İngiltere ve ABD. ABD, Rusya ve İsrail gibi bazıları öldürücü robotları kendileri geliştiriyor. Bu yıl da Rusya’nın muhalefeti nedeniyle tartışmalar yine çıkmaza girdi. Bu hafta başlayan BM toplantısı bir nevi B seçeneği.
Birçok ülke hala tutumunu sürdürüyor. Bazıları, hâlihazırda öldürücü robotlar geliştiren büyük güçlerin anlaşmaya uymayacağını söyleyerek anlaşmaya karşı muhalefetlerini haklı çıkarıyor.
Dış Politika Enstitüsü’nden güvenlik araştırmacısı Edward Hunter Christie, bir anlaşmanın yaratılmasının olası olmadığını düşünüyor.
“Uluslararası sistem birbirine güvenmeyen, bazen birbiriyle savaşan devletler üzerine kurulu. Özellikle büyük ülkeler bu silahları geliştirme fırsatını elinde tutmak istiyor. Aynı açıklama devletlerin ilk etapta neden silahlandığı konusunda da geçerli” diyor.
Finlandiya da anlaşmayı desteklediğini doğrudan açıklamadı. Dışişleri Bakanlığı silah kontrol birimi başkanı Outi Hyvärinen e-posta yanıtında Finlandiya’nın “siyasi veya yol gösterici bir belge” ve uzun vadede yasal olarak bağlayıcı bir anlaşma oluşturulmasını desteklediğini söyledi . Taahhütlerin etkili olabilmesi için büyük silah üreten ve ihraç eden ülkelerin katılımının önemli olduğunu vurguluyor.
Ancak Connolly, tüm devletlerin dahil olup olmamasına bakılmaksızın bağlayıcı bir anlaşmanın önemli olduğuna inanıyor. Standartların belirlenmesinin aynı zamanda büyük güçler yönünde baskı yarattığına da dikkat çekiyor.
Muhalifler ayrıca anlaşmanın gereksizliğini, insani hukuk kurallarının her durumda geçerli olması gerçeğiyle gerekçelendiriyor.
“Devletler, 2019’daki BM tartışmalarında, uluslararası insancıl hukukun otonom silahlar için de geçerli olduğunu ve tüm ihlallerden her zaman insanların sorumlu olduğunu resmen doğruladı. Bu ileriye doğru atılmış önemli bir adımdı” diyor Christie.
Bazı güvenlik uzmanları ve araştırmacılar da otonom sistemlerin bir anlamda daha “insani” olabileceğine dikkat çekti. İntikam ve acı gibi duygulara sahip değillerdir ve en iyi ihtimalle bir insandan daha doğrudurlar.
“Savaş hiçbir zaman insani değildir. Peki doğruluk nedir? Bir uçak amaçlanan hedefi vurabilir ancak bu, hedefin ilk etapta vurulması gerektiği anlamına gelmez” diye belirtiyor Connolly.
Sivil taraf için de otonom uygulamalar var mı?
Müzakere sürecindeki sorunlar aynı zamanda özerkliğin prensipte tanımlanmasının zor olmasından da kaynaklanmaktadır. Yapay zeka ve makine öğreniminin yanı sıra farklı özerklik düzeyleri de savaşlarda halihazırda yaygın olarak kullanılıyor. Örneğin, makinenin hedefi tanıması ve bir kişinin saldırı izni vermesi için uzun süredir drone saldırıları yapılıyor.
Ancak bu aşamada, Connolly’ye göre yapay zekanın düzenlenmesi önemli olsa da Stop Killer Robots’un amacı yalnızca tam özerklikle uğraşmak.
Amaç, anlaşmanın özellikle insanlara karşı kullanılabilecek tüm bu özellikleri yasaklamasıdır. Mesela yüz tanıma sistemlerinin silah sistemlerine dönüştürülmemesi gerekiyor. Ayrıca ciddi bir insan kontrolü olmadan çalışan silah sistemleri yasaklanmalı, tüm sistemlerin öngörülebilir ve anlaşılır şekilde çalışması, bunlara zamansal ve coğrafi kısıtlamalar getirilmesi sağlanmalıdır.
Connolly, otonom silahlara düzenleme getirilmediği takdirde bunların daha yaygın hale geleceği ve işlevlerinin polis ve sınır kontrolü gibi amaçlarla sivil tarafa da devredilebileceği konusunda uyarıyor.
Ancak şimdilik yasağın uygulanacağı konusunda iyimser.
“Mesele olup olmayacağı değil, ne zaman olacağı meselesi.”
Kaynak: maailma.net