• Sonuç bulunamadı

2. YAPAY ZEKÂNIN ASKERİ SAHADAKİ YANSIMALARI

3.2. Etik ve Hukuki Sorunlar Ekseninde Askeri Dönüşüm

3.2.2. Etik Sorunlar

71

verilerin büyük veri analizi ile incelenmesiyle yalnızca kendi toplumları hakkında değil tüm insan toplulukları hakkında şimdiye dek hiç olmadığı kadar fazla bilgi elde etmektedir. Bu doğrultuda, güvenliğin sağlanması için teknolojik gelişmelerden faydalanılan önemli alanlardan birini sınır bölgeleri oluşturmaktadır. Sınır bölgelerindeki kontrol noktaları dijitalleşmekte, kameralar ve yüz tanıma sistemleri aracılığıyla fiziki duvarların yerini sanal duvarlar almaktadır. Anılan kontrol mekanizmaları derinleşirken askeri robotlar ve otonom silah sistemlerinin buradaki güvenliği sağlama amacıyla halihazırda kullanılmaya başlandığı gözlemlenmektedir. Özellikle bir yandan hareketliliğin diğer yandan ise göç karşıtı ve korumacı politikaların yükseldiği bir dönemde, sınır bölgelerinde kendi hedefini ve yöntemini belirleyen yapay zekâ sistemleri geniş topluluklara zarar verebilecektir. Örnek vermek gerekirse, bir yapay zekâ sisteminin herhangi bir kalabalığın sınır güvenliği için bir tehdit oluşturduğu ile ilgili bir algoritma ile beslenmesi sonucunda, tam otonom bir sistem her topluluğu otomatik olarak güvenlik tehdidi olarak algılayarak harekete geçebilecektir.

72

sahip olunmakta ancak sistemin neden bu kararı aldığı ya da yöntem tercihinin sebebi öğrenilememektedir.156 Kara kutu sorunu olarak adlandırılan ve karar alma süreçlerinin tam anlamıyla analiz edilebilmesini engelleyen bu durum, etik sorunu için başlı başına bir temel yaratmaktadır.

Bir diğer önemli nokta ise, etik kuralları ile ilgili genel bir tartışma olan sonuçların mı süreç içerisinde uygulanan kuralların mı uygunluğunun denetlenebileceği tartışmasının tam otonom sistemlerde daha derin bir soruna yol açmasıdır. Askeri alanda bu durum, savaşta her şeyin mübah olduğu anlayışı ile savaş hukuku kuralları arasında bir ikilem yaratmaktadır. Yapay zekânın bir noktadan sonra içinde bulunduğu ortamdan ve faaliyetlerinden öğrenerek kendi örüntüsünü oluşturarak ilerlemesi durumunda hangisini seçeceği ve hangi sebeple bu tercihi yaptığını anlamak mümkün olmayacaktır.

Öte yandan, yapay zekâ derin öğrenme süreci ile değil kod temelli işlemeye devam etse bile, uygulamada her devletin etik anlayışı farklılaşmakta ve evrensel etik kuralları olduğu yalnızca söylemde kabul edilmektedir. Bu noktada karşımıza yapay zekânın hangi etik kurallarını içeren algoritmalarla beslenebileceği sorusu çıkmaktadır.

İnsanların yüzyıllardır eylem birliği sağlayamadığı etik kuralları konusunda, makinelerin nasıl bir yol izleyeceği tahmin edilemeyen bir süreç teşkil etmektedir.

Yapay zekâ etiği her ne kadar uluslararası gündemde yer alan ve üzerine çalışmalar gerçekleştirilen bir alan gibi görülse de aslen hedeflenen sonuçlara nasıl ulaşılacağına odaklanan teknik bir tartışma ile sınırlı kaldığı gözlemlenmektedir.

Paydaşlar tarafından geliştirilen savlar, kamusal desteğin sağlanabileceği kalıplaşmış ifadelerle sınırlı kalmakta ve hangi koşullar altında hangi eylemlere izin verilebileceğinden ziyade ne kast edildiği tam olarak belirtilmeyen basmakalıp söylemlere yer verilmektedir.157 Örnek vermek gerekirse, tam otonom silah sistemlerinin

156 Scharre, op. cit., s. 340.

157 Vincent C. Müller, “Ethics of Artificial Intelligence and Robotics”, The Stanford Encyclopedia of Philosophy (2020 Kış), https://plato.stanford.edu/archives/win2020/entries/ethics-ai/ (erişim tarihi:

25.05.2021).

73

“anlamlı bir düzeyde insan kontrolünde” çalıştırılması gerektiği sıklıkla ifade edilmekte ancak insan kontrolünün hangi boyutunun anlamlı olduğuna yönelik herhangi bir gösterge veya açıklama geliştirilmemektedir.

Kamusal alanda yapay zekâ sistemlerine yönelik bilgi eksikliği nedeniyle toplumların manipülasyonu son derece kolay hale gelmektedir. Bilgi sahibi olmayan topluluklara istenilen cevapları almayı mümkün hale getirir şekilde otonom silahlar hakkında bilgi verilerek gerçekleştirilen birçok kamuoyu yoklamasında ve anket çalışmasında, bireylerin cevaplarının kendilerine verilen bilgi ışığında büyük farklılıklar gösterdiği gözlemlenmektedir. Örnek vermek gerekirse, toplumların kendi devletlerinin bu tip silahlara sahip olmaları konusunda daha ılımlı davranırken diplomatik ilişkilerinin sorunlu olduğu devletlerin sahipliğine karşı çıktıkları ve otonom sistemlerin savunma amaçlı kullanımına saldırıdan daha sıcak yaklaştıkları gözlemlenmektedir.158 Günümüzdeki demokratik yapıların yeterince hızlı veri toplama ve işleme kabiliyetine sahip olmaması bir yana, çoğu seçmen biyoloji ve sibernetik alanlarında fikir üretebilecek bilgiye sahip değil. Bu yüzden geleneksel demokratik siyaset, olaylar üzerindeki kontrolünü kaybediyor ve geleceğe dair anlamlı planlar yapamıyor

Etik sorunlar ele alındığında, öne çıkan kavramlardan birini insanlık “onuru”

(dignity) oluşturmaktadır. 10 Aralık 1948 tarihinde Birleşmiş Milletler Genel Kurulu’nda kabul edilen İnsan Hakları Evrensel Bildirisi’nin Başlangıç kısmında “İnsanlık ailesinin bütün üyelerinde bulunan onurun ve onların eşit ve vazgeçilmez haklarının tanınmasının dünyada özgürlük, adalet ve barışın temeli olmasına” ifadesi yer almaktadır.159 Alınan kararın doğru veya yanlış olmasından bağımsız olarak, yalnızca etik yargılamalarda bulunabilen ve insanlık onuruna sahip insanların diğer insanların beden bütünlüğüne zarar verebileceği görüşü öne sürülmektedir. Bu kapsamda, eylemlerini anlamlandırmak için

158 Michael C. Horowitz., “Public opinion and the politics of the killer robots debate”, Research&Politics C. III No. 1 (Ocak-Mart 2016), s. 3.

159 Rona Aybay, Açıklamalı İnsan Hakları Evrensel Bildirisi, Türkiye Barolar Birliği Yayınları, Birinci Baskı, Ankara, 2006, s. 25.

74

gerekli etik yeterliliklere sahip olmayan insansız sistemlerin insanların beden bütünlüğüne yönelik önemli kararlar alamayacağı vurgulanmaktadır.160 Savaş alanında insani duyguların ahlaki öneminin daha da belirginleşmesi, bu konudaki tartışmaların bir diğer boyutunu oluşturmaktadır. Öfke veya korku gibi duygular her ne kadar bazı durumlarda insanların yanlış kararlar almasına neden olabilecekse de özellikle sivillere zarar verilmemesi ve orantılılık noktasında duyguların, akıl dışı etkenler olarak görülmek yerine merkezi olarak ele alınmasının şiddeti azaltacağı düşünülmektedir. Bu doğrultuda, duygulara sahip olmayan sistemlerin savaş alanı için zorunlu olarak görülen temel insani özelliklerinin bulunmadığı dile getirilmektedir.161

Askeri alanda yapay zekâ kullanımının neden olduğu etik sorunlar, yalnızca insani bir bakış açısından önem arz eden hususlar olarak değerlendirilmemelidir. Devletler bu konudaki sorunları ele alarak askeri kuvvetlerinin yapay zekâyı nasıl kullanacağına dair düzenlemelerde bulunmalı ve kamusal ve özel paydaşlarının güvenini sağlamalıdır.162 Mevcut durum incelendiğinde ise, yapay zekâ etiğine yönelik çalışmaların belirlenen hedeflere ulaşmada engel oluşturmayacak şekilde bir etik çerçeve benimsenmesine şeklinde sınırlı kaldığı gözlemlenmektedir.