• Sonuç bulunamadı

2. YAPAY ZEKÂNIN ASKERİ SAHADAKİ YANSIMALARI

3.2. Etik ve Hukuki Sorunlar Ekseninde Askeri Dönüşüm

3.2.1. İnsan-Yapay Zekâ İkiliğinde Savaş Alanı

67

farklı olarak yazılım temelli ve kolay erişilebilen yeni teknolojilerin devlet dışı aktörler tarafından benimsenmesiyle ulus devletler arası çatışmalar kadar asimetrik savaşlarda da yaşanabilecek dönüşümler, aktörlere sağladığı taktiksel üstünlüğün yanında insan hayatını tehlikeye atan, etik ve hukuki olarak düzenleme ihtiyacının benimsendiği önemli riskleri ve sorunları da beraberinde getirmektedir.

68

teslim olduğunu anlayamayan, saldırı için gerekli olan oran değerlendirmesini gerçekleştiremeyen ve askeri zaruret kararını veremeyen silahlar olarak değerlendirilmeyen otonom silah sistemlerinin çok sayıda sivile zarar verebileceği düşünülmektedir.147 Yapay zekâ sisteminin “ateş edildiği takdirde karşı tarafa ateş aç”

gibi basit bir algoritmayla programlandığı bir durum bile karmaşık bir savaş ortamında dost ateşine neden olma ihtimalini beraberinde getirmektedir.148 2003 yılında ABD’nin Patriot füzelerinin Irak hava sahasındaki ABD F-18’ini düşürmesi149 ve anılan dönemde benzer olayların art arda yaşanmasının ABD Kara Kuvvetleri’nin Patriot hava savunma sistemini denetimli otonom modda çalıştırması ile yakından ilgili olduğu düşünülmektedir. Sistemin algılama ve anlamlandırma sürecinin yanlış bir şekilde ilerlemesi kayıplara neden olmuştur.

Yapay zekâ teknolojisinin ve derin öğrenmenin neden olduğu sorunlar hizmet sektöründe ve akıllı ürünlerde basitçe çözülebilecek zararsız sorunlara neden olurken savaş alanında benzer bir durumun yaşanması büyük sorunlara neden olabilecektir. Örnek vermek gerekirse, yapay zekânın en gelişmiş olduğu alanlardan biri olan görsel algılama ve işlemede herhangi bir yanılmanın söz konusu olması durumunda planlanmayan bir saldırı gerçekleşebilecek ve yaşanan yıkımın boyutlarının sınırlanamaması büyük sorunlara neden olacaktır. Sistemin görseli yanlış algılaması ve değerlendirmesinin yanı sıra, güvenlik açıklarına sahip nöral ağlar, düşman hedefleri yerine başka hedeflere angaje olacak şekilde manipüle edilebilecektir.150 Bu durum, siber ve fiziksel güvenliğin iç içe geçerek savaş alanında halihazırda yüksek olan riskin daha da artmasını beraberinde getirmektedir.

147 Scharre, op. cit. , s. 331.

148 Ibid, s. 334.

149Rory McCarthy ve Oliver Burkeman, “Patriot in new 'friendly fire' incident”, The Guardian, 4 Nisan 2003,https://www.theguardian.com/world/2003/apr/04/iraq.rorymccarthy4#:~:text=Military%20officials

%20last%20night%20 said,down%20incoming%20missiles%2C%20especially%20Scuds (erişim tarihi:

01.05.2021).

150 James Vincent, “Google’s AI thinks this turtle looks like a gun, which is a problem”, The Verge, 2 Kasım 2017, https://www.theverge.com/2017/11/2/16597276/google-ai-image-attacks-adversarial-turtle-rifle-3d-printed (erişim tarihi: 02.05.2021).

69

Verilmek istenen askeri zararla karşılaşılabilecek sivil kayıp arasında yapılması gereken değerlendirme sonucu saldırı kararının alınması sorunlu hale gelen bir başka boyutu oluşturmaktadır. Muhariplerin savaş alanında gereksiz acıyı önlemek için kabul ettikleri kararlar sübjektif olabilse de en azından uzlaşı sağlanmış bir standart belirlenmekte ve savaş alanında bile sınırlamaları mümkün hale getirmektedir. Ancak otonom sistemlerin hedef kararıyla değil hasar mekanizmasıyla ilgilenmeleri, savaşın seyrine göre bir muhakeme ve karar alma sürecini engellemektedir.151

Yapay zekâ teknolojilerinin çatışmalarda ve savaş alanında kullanılması sonucu savaşlar askerlerin savaş alanında eylemlerinin sonuçlarını yakından gördükleri ve deneyimledikleri bir savaş alanından bir nevi bilgisayar oyunlarına dönüştürülmekte;

simülasyonlar, dijital ikizler ve elektronik test etme yöntemleri nedeniyle kazanılan alışkanlıklar, savaş alanındaki farkındalığın aşınmasına neden olmaktadır. Askeri alanda yapay zekâ kullanımına ilişkin çalışmalar yürüten önde gelen isimlerden olan ve bu çalışmalarda, ABD Savunma Bakanlığı’nda görev aldığı süredeki deneyimlerinden faydalanarak saha tecrübesine de sahip bulunan analist Paul Scharre’in ifadesiyle “10 metre mesafe uzaklıktan baba, kardeş, oğul kısacası insan olarak gözüken biri 300 metreden sadece karanlık bir siluet olarak görünmektedir.152 Otonom silahlar öldürmeyi kişiliksizleştirerek insan duygularını eylemden daha da uzaklaştırmaktadır.153

Askeri sahada yapay zekâ kullanımı, askeri teknolojilere sahip olan devletler ve diğer devletler arasındaki mevcut eşitsizliği daha da derinleştirmekte ve askeri kapasiteler arasındaki farkın açılmasına neden olmaktadır. Devlet dışı aktörlerin sürecin daha etkin bir parçası haline gelmesi, herhangi bir karar alınabilecek veya analizde bulunulabilecek bir senaryodan çok daha hızlı bir şekilde gerçekleşme potansiyelini barındırdığı için devletler arası savaşların yanı sıra asimetrik savaşlarda da güç kullanımının doğasında

151 Scharre, op. cit., s. 337.

152 Ibid, s. 359.

153 Ibid, s. 384.

70

yaşanmakta olan değişimin etkilerini gösterebileceği düşünülmektedir. Özellikle, aktörlerin eşit teknolojik imkânlara sahip olması durumunda bile insani muhakeme süreçlerinin otomasyon ile ikame edildiği durumlarda gereğinden fazla güç kullanımı uygulamalarının çatışmaların neredeyse doğal bir parçası haline gelmesi önemli bir husus olarak ortaya çıkmaktadır.

Karar alma süreçlerinde kural temelli sistemlerden faydalanılması, uluslararası siyaset için yeni değildir. 1980’li yılların sonunda ve 1990’lı yılların başında, bilgisayar teknolojilerindeki gelişmeler ve yapay zekâ, dış politika analizinde insan davranışları için bir koşul doğrultusunda gerçekleşen sonuçlar olarak kurallar belirlenebileceği varsayımının güçlenmesini beraberinde getirmiştir. Herhangi iki değişken arasında spesifik bir bağlantı kurulabilmesi durumunda kural temelli bir sistem oluşturulabileceği, bilgisayar programlaması ile de bu sistemin simülasyonunun sağlanarak test edilebileceği dile getirilmiştir.154Ancak yapay zekânın karar alma süreçlerinde insani muhakemenin yanı sıra bir değişken olarak ortaya çıkması ve tam otonomi tartışmalarında insanı karar alma döngüsünün dışında bırakarak tek karar verici haline gelmesi, ulusal ve uluslararası siyasetin özünü oluşturan karar verme süreçlerinde neden olduğu değişim nedeniyle siyasetin doğasına içkin bir tartışmayı da beraberinde getirmektedir. İnsani muhakemenin yerini alabilecek olan algoritmik karar verme süreçleri doğrultusunda geliştirilen veri temelli politikalar, her ne kadar karar alma süreçlerinde olabildiğince fazla değişkenin daha kısa sürede ele alınmasına imkân verse de gizlilik ve güvenliğe ilişkin sorunları beraberinde getirmektedir.

Küresel alanda dijitalleşme özellikle gözetimin derinleştirilmesi için ulusal alanda birçok devlet tarafından aktif şekilde kullanılmakta, yeni dijital teknolojiler denetim ve gözetim toplumunu derinleştirmekte, devletler yüz tanıma sistemleri ve burada toplanan

154 Valerie M. Hudson ve Benjamin S. Day, Foreing Policy Analysis: Classic and Contemporary Theory, Üçüncü Baskı, Londra, Rowman & Littlefield, 2020, s. 200.

71

verilerin büyük veri analizi ile incelenmesiyle yalnızca kendi toplumları hakkında değil tüm insan toplulukları hakkında şimdiye dek hiç olmadığı kadar fazla bilgi elde etmektedir. Bu doğrultuda, güvenliğin sağlanması için teknolojik gelişmelerden faydalanılan önemli alanlardan birini sınır bölgeleri oluşturmaktadır. Sınır bölgelerindeki kontrol noktaları dijitalleşmekte, kameralar ve yüz tanıma sistemleri aracılığıyla fiziki duvarların yerini sanal duvarlar almaktadır. Anılan kontrol mekanizmaları derinleşirken askeri robotlar ve otonom silah sistemlerinin buradaki güvenliği sağlama amacıyla halihazırda kullanılmaya başlandığı gözlemlenmektedir. Özellikle bir yandan hareketliliğin diğer yandan ise göç karşıtı ve korumacı politikaların yükseldiği bir dönemde, sınır bölgelerinde kendi hedefini ve yöntemini belirleyen yapay zekâ sistemleri geniş topluluklara zarar verebilecektir. Örnek vermek gerekirse, bir yapay zekâ sisteminin herhangi bir kalabalığın sınır güvenliği için bir tehdit oluşturduğu ile ilgili bir algoritma ile beslenmesi sonucunda, tam otonom bir sistem her topluluğu otomatik olarak güvenlik tehdidi olarak algılayarak harekete geçebilecektir.