• Sonuç bulunamadı

YAPAY ZEKÂNIN YARGI SİSTEMLERİNDE KULLANILMASINA İLİŞKİN AVRUPA ETİK ŞARTI *

N/A
N/A
Protected

Academic year: 2022

Share "YAPAY ZEKÂNIN YARGI SİSTEMLERİNDE KULLANILMASINA İLİŞKİN AVRUPA ETİK ŞARTI *"

Copied!
29
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

YAPAY ZEKÂNIN YARGI SİSTEMLERİNDE KULLANILMASINA İLİŞKİN AVRUPA ETİK ŞARTI*

Gizem YILMAZ**

Öz

Yapay zekâ, bugün kullandığımız pek çok teknolojinin içinde bulunmakla birlikte verilerin analizi ve saklanması ile sistemler arası kurduğu bağlantılar sayesinde yargı organlarının işini de kolaylaştırarak adalet sistemine hizmet etmektedir. Özellikle Amerika Birleşik Devletleri'nde ve Çin'de, avukat robotlar ile hukukî danışmanlık hizmeti verildiği ve karar verme yetisine sahip yapay zekâ yazılımlarının geliştirildiği görülmektedir. Yapay zekânın yetkilerinin artırılması ve kullanımının bu kadar yaygınlaşması ise beraberinde güvenilirliğinin sorgulanmasına ve taşıdığı risklerin tartışılmasına yol açmaktadır. Öyle ki, yapay zekâ yazılımlarının yol açacağı zararların tazmini bakımından sorumluluğun kime veya neye ait olacağı konusu bile tek başına hukuk sistemlerinde yeni kabuller gerektirmektedir. Yapay zekânın hayatımıza dâhil olduğu bu yeni toplum modeline yön verecek hukuk kurallarının hangi eksende düzenlenmesi gerektiği ise benimsenecek etik kurallar çerçevesinde belirlenecektir. Avrupa Birliği, yapay zekâ ile insan hakları arasındaki etik prensiplerin oluşturulması ve yapay zekânın yargı sistemlerinde kullanılması için önemli bir adım atmıştır. Bu anlamda, önce yapay zekâ teknolojilerinin hukuk dünyasında yargılamaya hizmet ederken tâbi olacağı kuralları belirlemek üzere bir İşbirliği Bildirgesi oluşturmuş, sonra ise "insan odaklı etik" anlayışıyla Yapay Zekâ Etik Şartı’nı yayımlamıştır. Bu iki temel metin, Avrupa Birliği'nde bundan sonraki yapay zekâ çalışmalarına ışık tutacak nitelikte olduğundan özel bir öneme sahiptir.

Anahtar Kelimeler: Avrupa Birliği Etik Şartı, Avrupa Yapay Zekâ Bildirgesi, Güvenilir Yapay Zekâ, Yargıda Yapay Zekâ, Robot Etik Kuralları.

* Bu makale, 7-8 Şubat 2020 tarihinde gerçekleştirilen “Avrupayı Tartışmak: Dünü, Bugünü

ve Yarını” konulu Marmara Avrupa Çalışmaları Konferansı’nda (MCES-2020) tebliğ olarak sunulmuştur.

** Doktora Öğrencisi, Marmara Üniversitesi, Hukuk Fakültesi, Özel Hukuk Anabilim Dalı, İstanbul Barosuna kayıtlı Avukat (LLM), e-posta: av.gizemy@gmail.com.

(2)

THE EUROPEAN CODE OF ETHICS ON THE USE OF ARTIFICIAL INTELLIGENCE IN JURISDICTIONS Abstract

Artificial intelligence, which is included in many technologies we use today, serves the justice system by facilitating the work of the judicial organs thanks to the analysis, storage and connections between the systems. Especially in the United States and China, it is seen that legal counseling services are provided with lawyer robots and artificial intelligence software with the ability to make decisions is developed. Increasing the powers of artificial intelligence and the widespread use of it also lead to questioning its reliability and discussing the risks it carries. So that, even the issue of who/what will be the responsibility for the compensation of damages caused by artificial intelligence software requires new acceptance in legal systems alone. In this new society model in which artificial intelligence is included in our lives, legal rules will be regulated within the framework of ethical rules to be adopted. In this sense, the European Union, which has taken an important step to establish ethical principles between artificial intelligence and human rights and to use artificial intelligence in judicial systems, has first created a Declaration of Cooperation to determine the rules that artificial intelligence technologies will follow while serving the judiciary in the legal world and then "human-oriented ethics" with the understanding of Artificial Intelligence has published the Ethical Charter.

These two basic texts are of particular importance, as they will shed light on future artificial intelligence studies in the European Union.

Keywords: Ethical Charter on Artificial Intelligence, Robot Ethics Rules, Artificial Intelligence in Judiciary, European Declaration of Cooperation on Artificial Intelligence, Trustworthy AI.

Giriş

Yapay zekâ ve robotlar, bugüne kadar çeşitli felaket senaryolarına konu edilmiş olsa da aslında bugün kullandığımız pek çok teknolojinin içinde bulunmaktadır ve biz farkında olmadan günlük hayatımızın içine yerleşmiş durumdadır. Akıllı saat, akıllı telefon gibi kendi kendine öğrenebilen pek çok akıllı sistem hâlihazırda hayatımızdadır ve bugün pek çoğumuzun, bilgisayarlarımız ya da akıllı telefonlarımız olmadan işlerimizi yetiştirmekte zorluk çekeceği muhakkaktır. Yapay zekâ, bu anlamda zamandan ve iş gücünden tasarruf ederek daha kısa sürede daha kaliteli işler yapmamızı ve tabiidir ki daha çok üretmemizi sağlar. İş hayatında sağladığı faydaların yanı sıra, tıp tedavilerinden bilimsel araştırmalara kadar her alanda insanlığa hizmet eden yapay zekâ uygulamaları, verilerin analizi ve saklanması ile sistemler arası kurduğu bağlantılar sayesinde mahkemelerin, avukatların ve bilirkişilerin işini de kolaylaştırarak adalet sisteminde hukukçulara hizmet etmektedir. Bunun bir adım ötesi ise; ister kabul edelim ister etmeyelim, karar verme mekanizmasına ve yetisine sahip yapay zekâ yazılımlarının kullanılacak olmasıdır. Bu noktada,

(3)

hayatımızın her alanına nüfuz eden bir aktör haline gelen yapay zekâ uygulamalarının birtakım kurallarla sınırlandırılması gerekip gerekmediği sorunu ortaya çıkmaktadır.

Nasıl ki insanların toplum halinde bir arada uyum içinde yaşayabilmesi için kamu düzeni kavramı etrafında etik kurallar kabul edilmişse, yapay zekâ ve robotların da bu toplum düzenine uyum sağlayabilmesi için birtakım kurallara bağlı kılınması gerekir. Yapay zekâ teknolojilerinin kime ne şekilde hizmet edeceği konusu ile sınırlarının belirlenmesi ve kullanım alanlarının geliştirilmesi önemlidir. Anılan hususta farklı yaklaşımlar bulunmaktaysa da en genel ifadeyle yapay zekâ yanlıları ve yapay zekâ karşıtları olarak bir belirleme yapılabilir. Yapay zekâ karşıtları, yapay zekânın insanoğlundan daha zeki bir varlık olarak ortaya çıkacağı yönünde korkularını dile getirmekteyken1; yapay zekâ yanlıları, yapay zekânın insanoğlunun yardımcısı pozisyonunda yer alarak gereksiz tüketimin önlenmesini, çevre kirliliğinin azaltılmasını, küresel ısınmanın kontrol altına alınmasını sağlayacağını savunmaktadır. Hatta bu iyimser yönde görüş bildiren gruba göre, yapay zekânın geliştirilmesiyle yeni mesleklerin ortaya çıkması, böylece farklı alanlarda iş sahası açılması, yapay zekâya dayalı uygulamalar ile insanın kas gücüne duyulan ihtiyacın en aza indirilmesi ve insanların daha az enerji sarf ederek daha verimli olabilecekleri alanlarda çalışması, dolayısıyla yaşam kalitesinin de artması sağlanabilir.

Yapay zekâ taraftarı olan bir başka grup ise; yapay zekâ teknolojilerine dünyadaki olumsuzlukları minimize edecek bir kurtarıcı olarak bakmakta2 (BBC News, 2019; South China Morning Post 2016) ve bu teknolojilerin geliştirilmesi ve kontrollü bir şekilde kullanılması sayesinde Dünya'daki yaşam süresinin uzayacağı beklentisini taşımaktadır3.

Varoluşumuzun yapay zekâ ile birlikte ne şekilde sürdürülebileceği hakkındaki araştırma ve gelişmeleri yakından takip eden Avrupa Birliği (AB), bu teknolojinin etik kullanımı için çalışmalar yürütmeye başlamış ve insanlığın hayatını kolaylaştırması bakımından kullanımının kaçınılmaz olduğu anlaşılan yapay zekâ yazılımlarının hangi kurallar ve şartlar dâhilinde kontrol altında

1 BBC News Technology, 2014; Future of Life Institute, 2015; SCI POL, 2017.

2 Avrupa Birliği de bu görüşü savunanlar arasında yer almaktadır. Birliğe göre, yapay zekânın büyük miktarda veriyi anında işleyebilmesi, sağlık, enerji, tarım, eğitim ve çevre koruma gibi birçok alanda verimliliği önemli ölçüde artırma potansiyeline sahiptir. Örneğin, araştırmacılar şu anda hasattan birkaç ay önce mahsul verimlerini tahmin etmek için tarım sektöründe yapay zekâ kullanarak çiftçilerin verimliliği artırmasına, bilinçli ekim kararları vermesine ve sonuçta gıda güvenliğini artırmasına yardımcı olduğunu ortaya koymaya çalışmaktadır.

3 Avrupa Birliği’nin 10.04.2018 tarihli Yapay Zekâ Bildirgesi’nde bu görüş açıkça ifade edilerek yapay zekânın, sürdürülebilir sağlık hizmetlerinden iklim değişikliğine ve siber güvenlikten sürdürülebilir göçe kadar önemli toplumsal zorlukları da çözebileceği ve teknolojinin, toplum ve ekonomik büyüme için kilit bir itici güç haline geldiği belirtilmiştir.

(4)

tutulması gerektiğine yönelik bir çerçeve sözleşme kabul etmiştir. Bu yönde, öncelikle bir İşbirliği Deklarasyonu (bildirgesi) oluşturulmuş, daha sonra Etik Şart yayımlanmıştır. Böylece yapay zekâ etik kuralları, Etik Şart' a taraf olan ülkelerin iç hukuk sistemlerinde doğrudan uygulama alanı bulmuştur.

Hayatımıza yeni bir aktör olarak giren ve yakın gelecekteki rolü yadsınamaz olan yapay zekânın yargıda kullanılması meselesi, üzerinde çokça çalışılması gereken hukukî bir alandır. Bu nedenle makalede, yapay zekânın tâbi olması gereken etik kurallara dair AB mevzuat çalışmalarına yer verildikten sonra, yapay zekânın yargı sistemlerinde kullanılmasına dair örnekler ve yapay zekânın yargıda alabileceği rollere dair beklentiler ele alınacaktır. Yapay zekâ ve robot hukuku ise genel olarak kapsamlı bir çalışma alanı olup üzerinde çokça bilimsel inceleme yapılmış olduğundan bu makalenin konusu dışında bırakılmıştır4.

Avrupa Birliği Yapay Zekâ Etik Şartı Etik Şart Öncesi Çalışmalar

İnsanlığın ulaşması gereken erdemin ne olduğu sorusuna filozoflarca çağlar boyu cevap aranmış ve iyilik, doğruluk, hakikat ve güzellik kavramları üzerinde tartışılmışsa da ortak bir sonuç üzerinde fikir birliğine varılamamıştır. Bu nedenle, sıfırdan ortak bir etik üretme çabası yerine, ahlaklı olma erdemi (Tuncay, 2015: 61) gibi genel bir etik kabul edilmiş ve bazı temel etik ilkeler belirlenerek daha iyi bir dünya modeline ulaşmak hedeflenmiştir (Tegmark, 2019: 345-347).

Hukukî etik, tüm insanları bağlayıcı ve evrensel nitelikte olup kendisine saygı gösterilmesini ve kurallarına uyulmasını bekleme gibi özellikler gösterir (Tuncay, 2015: 21-22). Bu özelliklerin yapay zekâ ve robotlar üzerinde uygulanıp uygulanamayacağı ise tartışmalıdır (Ersoy, 2017: 146). Bazı düşünürler, insanlara özgü ahlaki değerlerin kodlanabilecek şeyler olmadığını ve roboetik kavramının savunulamayacağını ileri sürerken (Asaro, 2006: 10-11;

Ruffo, 2012: 90). Yasalara uygun davranan robotlara yasal robot denebileceği, ancak bunun o robotu etik robot haline getirmeyeceği hakkında bkz. Ruffo, 2012: 4), buna karşın bazı düşünürler ise robotların insanlardaki fiziksel ve duygusal nedenlerden kaynaklanan muhakeme bozukluklarından arındırılmış olması nedeniyle ahlaki değerlendirmeleri daha tutarlı yapabileceğini

4 Literatürde, yapay zekâ ve robotlar üzerine özellikle kişisel verilerin korunması kapsamında yazılmış çeşitli eserler bulunmasına rağmen, bu makalede işlenen konuya temas edilmemiş olması nedeniyle ilgili eserlerin burada kaynak olarak kullanılmasına gerek duyulmamıştır.

Huzurdaki makale spesifik bir incelemeye dayalı olarak kaleme alınmış olduğundan, yapay zekâ ve robot hukukuna ilişkin çalışmalar makale ile yakından ilişkili değildir. Bu nedenle, daha çok doğrudan kaynaklar tercih edilerek Avrupa Birliği metinleri üzerinden bir araştırma makalesi oluşturulmuştur.

(5)

savunmakta ve hatta robohâkimleri buna örnek göstermektedir (Tegmark, 2019:

142-144)5.

Yapay zekâ ve robotlar, etik kuralları uygulamaya elverişli olsa da olmasa da ortada bir gerçek vardır ki, o da makinelerin artık ne yaptıklarının bilgisine sahip olabilecek kadar zeki olduklarıdır. Bu sefer insanoğlunun ürettiği bir makine, öncekilerden farklı olarak kendi kendine öğrenebilme yetisine sahiptir (Koç ve Kasap, 2019: 36). Bu nedenle, artık onlara da sınırlarını öğretme zamanının geldiği belirtilebilir. Fakat burada mesele, kendi etiğimizi, bizden çok daha akıllı olacak varlıklara empoze etmenin (Tegmark, 2019: 351) işe yarayıp yaramayacağı sorunundan ortaya çıkmaktadır. Nitekim etik kavramının içinde bulundurduğu ilkeler; adalet, eşitlik, dürüstlük, tarafsızlık, sorumluluk, insan hakları, hukukun üstünlüğü, laiklik, demokrasi, insana ve emeğe saygı şeklinde kendini göstermektedir (Tuncay, 2015: 50). İnsanlar için uygulanan etik ilkelerin, yapay zekâ ve robotlarda aynı duygu-biliş sistemi ve onlara özgü ayrı bir hak mekanizması bulunmadığından en azından şimdilik işe yaramayacağı düşünülmektedir.

Genel kabul gören etik ilkeleri, geleceğin yapay zekâsına uygun bir formda tamamıyla kodlamak oldukça zordur, ancak bir yerden başlamak gerektiği de açıktır. Bu kapsamda, “anaokulu etiği” şeklinde ifade edilen temel etik kuralların yapay zekâ teknolojilerine yüklenmesi gerektiği konusunda tereddüt bulunmamaktadır. Yapay zekâ etiği ile insanlar ve robotlar arasındaki kuralları belirlemek kastedildiğinden, etik kuralların temelinde Isaac Asimov'un ileri sürdüğü Üç Robot Yasası’nda6 olduğu gibi insanın korunması öncelikli olarak yer almaktadır7. Bu nedenle, yapay zekâ etik kurallarının, “insan odaklı etik”

kapsamında şekillendiği söylenebilir. Buna göre, yapay zekâ yazılımlarının amacı, insanın yeteneklerini ve potansiyelini artırmak olmalıdır (Koç ve Kasap, 2019: 109 vd.). Aksi halde, dikkatli olunmaz ise yapay zekâ sistemleri de girilen verilerden elde ettiği öğrenmeler neticesinde tıpkı insanlardaki

5 Amerika’da yapılan bir gözlemde, kahvaltıdan sonra karnı tok olan hakimlerin şartlı tahliye verme oranlarının %80’in üzerinde olduğunu, buna karşılık öğle yemeği saati yaklaştığında gelişen açlıkla birlikte şartlı tahliye verme oranlarının %30’lara düşerek daha sert bir tutum içine girdikleri ortaya konmuştur (Arkın, 2000: 260. Anderson and Waxman, 2012: 11).

6 Asimov'un Üç Robot Yasası şöyledir:

1) Bir robot bir insana zarar veremez ya da hareketsiz kalarak bir insanın zarara uğramasına izin veremez.

2) Bir robot ilk yasayla çelişmediği takdirde insanlar tarafından verilen emirlere uymak zorundadır.

3) Bir robot ilk ve ikinci yasayla çelişmediği sürece kendi varlığını korumak zorundadır.

7 Örneğin; duran nesnelere çarpması yasak olan uçakların oto pilotları, kendilerini duran nesnelere kodlayarak yönlendiren kötü niyetli veya sakar insan pilotlara karşı, Asimov'un Üç Robot Yasası'ndan ikincisini uygulayarak bu komuta itaat etmeyip uçaktaki veya çarpılması muhtemel yerdeki insanların hayatını kurtarabilir.

(6)

önyargılarda olduğu gibi ırkçı ya da cinsiyetçi sonuçlara ulaşabilir (Koç ve Kasap, 2019: 111)8. Nitekim, Asimov'un Üç Robot Yasası'na dair hikâyelerinde de genellikle bu yasaların nasıl problematik çelişkilere yol açtığı görülmektedir.

Günümüzde, yapay zekânın her gün gelişen teknolojisi ve yaygınlaşan kullanımı karşısında çelişkilere ve tereddütlere yer bırakma gibi bir lükse sahip olmadığımızı ifade etmek gerekir. Bu farkındalığa ulaşan kuruluşlar, son yirmi yıl içinde kanunlaştırma çalışmalarına başlamış durumdadır9. Bu anlamda, Amerika Birleşik Devletleri (ABD) ve Çin’in, yapay zekâya dair mevzuatlarda başı çeken ülkelerden olduğunu söylemek mümkündür. Nitekim ABD, 2009 yılında Ulusal Robotik Girişimi ilan etmiş, 2016’da Amerika Robotik Yol Haritası ile insan-robot etkileşimi ve bunun eğitim, yaşlı ve çocuk bakımı, arama kurtarma, sağlık hizmetleri ve güvenlik alanlarında kullanımına ilişkin etik ve hukukî prensipleri ortaya koymuş, ilerleyen dönemde ise Yapay Zekânın Geleceğine Hazırlık konulu bir rapor yayımlayarak, yapay zekâ araştırma geliştirme faaliyetlerine ilişkin bir ulusal strateji planı hazırlamıştır (Ünsal, 2019). 2018 yılında, Bilim ve Teknoloji Politikaları Genel Müdürlüğü Başkanlığında bir Yapay Zekâ Komitesi kurulmuş, Yapay Zekâ Ulusal Güvenlik Komisyonu kurulmasına ilişkin Ulusal Güvenlik Yetkilendirme Kanunu çıkarılmıştır. Bununla birlikte ithalata konu kanunlarda da yapay zekâ teknolojilerinin kullanılmasının ön plana çıkarılmasına dair kanun değişiklikleri yapılmış, sürücüsüz araçlara ilişkin mevzuat düzenlemeleri geliştirilmiştir.

Hollanda, Japonya, Avustralya ve Birleşik Krallık da sürücüsüz araçlara hazırlıkta öne çıkan ülkeler arasında yer almaktadır ve hatta bu ülkelerin, 2021 yılında sürücüsüz araçları kontrollü şekilde trafiğe çıkarması beklenmektedir (Ünsal, 2019)10.

Dünyada yapay zekâ ve robotlar üzerine çalışmalarını yoğun olarak sürdüren bir diğer ülke ise Japonya’dır. 2015 yılında Robot Devrimi Girişimi’ni açıklayarak Ulusal Robot Stratejisi’ni yayımlayan Japonya, bu stratejinin uygulanması için bir kurul oluşturmuş, bu kurul ise Robot Düzenleme Reformu Uygulama İlkelerini ortaya koymuştur. Bunun yanı sıra, sosyal hayatı ilgilendiren pek çok alanda yasa görüşmeleri yapılmaya devam etmektedir.

8 Örneğin, açık pozisyonlara doğru adayları bulmak için işçi arayan bir şirketin kullandığı yapay zekâ sistemine, daha önce işe alınan çalışanların cinsiyet, hobi, eğitim ve tecrübe gibi verileri girildiğinde bu verilerin büyük çoğunluğu erkek çalışanlardan geliyorsa, sistemin gerçekleştireceği işe alımlardaki cinsiyet oranı kadından çok erkek olacaktır. Kanaatimizce bu durumda, kadınların çalıştırılmadığı muhafazakâr toplumlarda geçmişten gelen erkek baskın iş ortamını değiştirmekte yetersiz kalacak, siste kendini tekrar edecektir.

9 INTEL (2017), IBM (2018), Google (2018), Microsoft (2018) örnek verilebilir.

10 Bu makalenin tebliğinden sonra Dünya Sağlık Örgütü tarafından genel pandemi olarak ilan edilen koronavirüs salgın hastalığı nedeniyle söz konusu proje ertelenmiştir.

(7)

Avrupa Birliği ise, yapay zekâya dair mevzuat çalışmalarında özellikle ABD ve Çin’in gerisinde kaldığını kabul ederek, yapay zekâ teknolojilerinin sağlayacağı ekonomik faydalardan yararlanabilmek ve bu yeni teknoloji için gerekli olan etik unsurların şekillenmesinde öncülük etmek üzere harekete geçmiştir. Bu itibarla, 2012 yılında RoboLaw Project11 ile dünyadaki yapay zekâ çalışmaları sahnesinde yerini almış ve bu projenin sonucu olarak 2014 yılında Robotik Alanın Hukukî Düzenlenmesi Rehberini yayımlamıştır. Söz konusu projeyi takiben 2013 yılında Avrupa Komisyonu'nun, şirketlerin ve bir araştırma kuruluşu olan EuRobotics'in katılımıyla SPARC isimli dünyanın en büyük sivil robotik programı hayata geçirilmiştir12. 2014 yılından bu yana robotik çalışmalar üzerinde devam etmekte olan en önemli araştırma-yenilik programının ise 80 milyar Euro yatırım değeri olan Horizon 2020 olduğu görülmektedir. Horizon 2020 programı sayesinde kamu sektörü ve özel sektörlerin inovasyonu sağlamak için birlikte çalışmasını kolaylaştırarak, Avrupa’nın, yapay zekâya dair birinci sınıf bilim üretmesi ve geleceğimize yapılacak yatırım konusunda küresel rekabette ön plana çıkması amaçlanmaktadır (European Commission, 2018a).

Birliğin mevzuat çalışmaları projelerle sınırlı kalmamıştır. Avrupa Parlamentosu, Robotlara İlişkin Medeni Hukuk Kuralları Tasarı Raporu (Civil Law Rules on Robotics 2015/2103 INL) üzerine, Şubat 2017’de, robotlara bir

“elektronik kişilik” tanınarak özel vergi sistemine tabi olmalarını gündeme getirmiştir13. AB Ekonomik ve Sosyal Komitesi’nin 31 Mayıs 2017 tarihli bir Tavsiye Kararında (European Economic and Social Committee, 2017) yapay zekânın etiği konusuna değinilmiş, 10 Nisan 2018 tarihinde ise üye devletlerce Yapay Zekâ İşbirliği Bildirgesi (European Commission, 2018c) imzalanarak sosyal, ekonomik, etik ve hukukî konularda birlikte hareket etme iradesi ortaya konulmuştur.

İşbirliği Bildirgesi ile Avrupa devletleri, Avrupa Birliği'ni evrensel ölçekte ön plana taşıyacak yenilikçi iş modellerini teşvik etmenin, ekonomik büyümenin gerçekleştirilmesi için yapay zekâ konusundaki teknoloji ve endüstri kapasitesini artırmanın ve kamu sektörü verilerine daha hızlı erişim sağlanmasının gerekli olduğunu kabul etmiştir. Bununla beraber, işgücü

11Proje, Avrupa Parlamentosu’nun da katkılarıyla 1.497.966.-Euro finansman ile başlatılmıştır. Bu projeyle gelişmekte olan robotik ve nano-teknolojilerin hukukî ve ahlaki etkileri incelenerek mevcut hukukî düzenlemelerin yeterli olup olmadığı ve hangi yönlerden geliştirmeye ihtiyaç duyulduğu, bunun insanlar için önemli olan sosyal değerlere ve süreçlere etkilerinin neler olduğu araştırılmıştır (RoboLaw, 2014).

12 Projeye Avrupa Komisyonu 700.000.000.-Euro ve diğer kuruluşlar toplam 2,8 milyar Euro yatırım yapmıştır (EuRobotics, 2020).

13 Otonom özellikli robotlara elektronik kişilik yasal statüsü verilebileceği, günümüzde ise henüz bu seviyede otonom robot bulunmadığından mevcut durum itibariyle robotlara yasal kişilik tanınamayacağı belirtilmiştir.

(8)

piyasasının dönüşümü ve AB vatandaşlarının becerilerinin arttırılması için Avrupa’daki eğitim ve öğretim sistemlerinin modernize edilmesi, şeffaflık ve hesap verebilirlik gibi prensiplerin yanı sıra kişisel verilerin gizliliği ve korunması da dâhil olmak üzere AB temel hak ve değerlerini temel alan yeterli yasal ve etik bir çerçeve sağlanması gerektiği tespit edilmiştir. Bunun için;

ulusal politikaların gözden geçirilmesi ve yapay zekâ ile uyumlu hale getirilmesi, yapay zekâ konusundaki tartışma ve gelişmelerin ekonomiye ve topluma sağladığı faydaların en üst düzeye çıkaracak şekilde teşvik edilmesi ve farkındalık yaratmak amacıyla bir Avrupa Yapay Zekâ İttifakı oluşturularak çeşitli paydaşlar topluluğunun gelişiminin desteklenmesi, araştırma merkezlerinin güçlendirilmesi için Ar-Ge fonlarının tahsisinin göz önünde bulundurulması, Avrupa düzeyinde yoğun bir Dijital İnovasyon Merkezi ağının kurulmasına katkıda bulunulması, yapay zekânın insan odaklı karar verme mekanizmasına sahip olmasının sağlanması, yapay zekâ uygulamalarının zararlı sonuçlarının ve kullanımının önlenmesi, sürekli bilgi alışverişi ile yapay zekâ konusunda Komisyon ile diyalog halinde olunması gerekliliği öngörülmüştür.

Üye devletler, söz konusu amaçların gerçekleştirilebilmesi için bilimsel ve hukukî çalışmalar yapmak üzere 2020 yılından itibaren 20 milyar Euro bütçe oluşturmayı taahhüt etmiştir (European Commision, 2018b).

Bildirgeyi takip eden süreçte, 16 Mayıs 2018 tarihinde AB Tüketici Danışma Grubunun görüşünde (European Consumer Consultative Group, 2018) ve 19 Eylül 2018 tarihinde AB Ekonomik ve Sosyal Komitesi Tavsiye Kararı’nda (European Economic and Social Committee, 2018), yapay zekâ ve robot biliminin yükselişiyle eş zamanlı olarak gerçekleşecek sosyal dönüşümlerin temelini atma çabalarına katkıda bulunma isteği ve bu yöndeki öneriler dile getirilmiştir.

Süreç içinde ortaya konulan görüş ve tavsiyelerin birlikte değerlendirilmesiyle nihayet, 3-4 Aralık 2018 tarihli “Yapay Zekânın Yargı Sisteminde Kullanılmasına Dair Avrupa Etik Şartı” kabul edilmiştir (European Commission for the Efficiency of Justice - CEPEJ, 2018). Böylece, Avrupa Konseyi Avrupa Adalet Verimliliği Komisyonu (CEPEJ), yargı sistemlerinde yapay zekânın kullanımına ilişkin etik ilkeleri belirleyen ilk Avrupa metnini kabul etmiştir. Bu metin ile yasa koyucu ve uygulayıcılarına ulusal yargı süreçlerinde rehberlik edebilecek çerçeve ilkeler sunulmaktadır. Nisan 2019'da ise; 2018’de AB Komisyonu tarafından kurulan Yapay Zekâ Üst Düzey Uzman Grubu (AI-HLEG), Güvenilir Yapay Zekâ Etik Rehberi’ni yayımlayarak pilot uygulamasını başlatmıştır.

(9)

Etik Şart ve Hedeflenen Öncelikler (European Ethical Charter on The Use of Artificial Intelligence in Judicial Systems and Their Environment)

Avrupa Birliği'nde 2012 yılından bu yana tartışılan yapay zekânın yargı sistemlerinde kullanımına ilişkin etik prensipleri düzenleyen Etik Şart, Aralık 2018’de kabul edilmiştir. Yapay zekâ yazılımlarının en az risk ile en üst fayda elde edecek şekilde kullanımını amaçlayan etik şart, bu yazılımların hangi kurallar çerçevesinde ve nasıl kullanılması gerektiğine yönelik rehber olma özelliği taşımaktadır. CEPEJ'e göre, yargıda yapay zekânın kullanımı için yargı kararlarının ve verilerinin algoritmalarla işlenmesinde ve bu kararların kullanımında uyum sağlanması gereken beş temel prensip;

(1) temel haklara saygı (Principle of respect for fundamental rights), (2) ayrımcılık karşıtı olma (Principle of non-discrimination), (3) kalite ve güvenlik (Principle of quality and security),

(4) şeffaflık, tarafsızlık ve adalet (Principle of transparency, impartiality and fairness),

(5) kullanıcı kontrolü altında olma (Principle of under user control)

şeklinde açıklanmıştır. Bu ilkeler; yapay zekâ araç ve hizmetlerinin tasarım ve uygulanmasında temel haklarla uyum ilkesi (1), bireyler veya gruplar arasında ayrım yapmama ilkesi (2), yargı kararları ve verilerin işlenmesinde disiplinli bir şekilde tasarlanmış modellerle kalitenin sağlanması ve sertifikalı kaynakların kullanılacağı teknolojik ortamın güvenli olması ilkesi(3), veri işleme yöntemlerinin erişilebilir ve anlaşılır olması ile şeffaflık, tarafsızlık ve adalet ilkesi (4) ve kullanıcıların seçimlerini kontrol etmelerini sağlama ilkesi (5) olarak ele alınmaktadır (European Commission for the Efficiency of Justice - CEPEJ, 2018: 7-13).

Etik Şart'ta kabul edilen bu prensipler biraz daha yakından incelendiğinde, yapay zekânın etik kullanımı konusunda insanların denetimi ve kontrolü elden bırakmayacağı, insan haklarına ve değerlerine saygılı, şeffaf, güvenilir ve hesap verebilir bir sistem oluşturma hedefinde olunduğu anlaşılmaktadır. Bunun için, yapay zekânın aldığı kararların herkes tarafından kolayca anlaşılabilir ve operatörleri tarafından açıklanabilir olması gerekir. Yapay zekânın, insanlar tarafından manipüle edilerek yanıltılamayacak bir korumaya sahip olması, güvenilir ve doğru sonuçlar vermesi beklenir. Yapay zekâ tarafından toplanan kişisel verilerin güvenle saklanıp korunabilmesi, cinsiyet, ırk, yaş veya herhangi bir ayrım gözetmeksizin herkese eşit uygulanması ve önyargılardan arındırılmış olması önemlidir. Bununla birlikte belki de en önemlisi, yapay zekânın denetlenebilir ve hesap verebilir olması için olumsuz etkilerinin hızla fark edilip raporlanması ve aldığı kararlar sebebiyle müdahale edilerek kontrolün

(10)

sağlanabilmesi gerekir. Yapay zekâ sistemlerinin kullanımı ile en üst seviyede fayda elde edilmesi planlandığı için, yapay zekânın içinde bulunduğu toplumun gelişimine katkı sağlayarak ileri taşıyacak nitelikte ve sürdürülebilir olması beklenmektedir.

Etik Şart Üzerindeki Güncel Çalışmalar

Aralık 2018'de kabul edilen AB Etik Şartı, 2019 yılında çıkarılan iki adet düzenleme ile geliştirilmiş ve daha detaylı hale getirilmiştir. Avrupa Birliği'nin 52 kişiden oluşan Yapay Zekâ Üst Düzey Uzman Grubu (AI-HLEG) tarafından oluşturulan bu düzenlemelerden birincisi, 8 Nisan 2019'da Güvenilir Yapay Zekâ için Etik İlkeler (Ethics Guidelines for Trustworthy AI) adıyla oluşturulmuş, bunu takip eden ikinci düzenleme ise 26 Haziran 2019'da Güvenilir Yapay Zekâ için Politika ve Yatırım Tavsiyeleri (Policy and Investment Recommendations for Trustworthy AI) adıyla ilan edilmiştir. Etik ilkeler ve yeni tavsiyeler, aşağıda ayrıntılı olarak incelenecektir.

Güvenilir Yapay Zekâ için Etik İlkeler Rehberi (Ethics Guidelines for Trustworthy AI)

Yapay zekâ ile daha hızlı, etkili ve en önemlisi güvenilir bir adalet sistemine ulaşmak isteyen AB, bu itibarla yerine getirilmesi gereken yedi temel gereksinim belirlemiştir. Nisan 2019'da açıklanan etik ilkeler, yapay zekâ yazılımcıları, uygulayıcıları ve kullanıcıları için adeta bir rehber olma özelliği göstermektedir. Bu nedenle bunlara kılavuz ilkeler de denilmektedir. Etik İlkeler Rehberi'nin birinci bölümünde; insan anatomisine saygı ve zararı önleme ile adil ve açıklanabilir olma prensipleri benimsenmiş, ikinci bölümünde ise gizlilik ve veri yönetimi, şeffaflık, hesap verebilirlik, eşitlik, teknik dayanıklılık ve güvenlik gibi gereklilikler işlenmiştir. Yargıda kullanılacak yapay zekâ yazılımlarında aranması gereken bu ilkeler, daha ayrıntılı olarak aşağıdaki gibi açıklanmaktadır (High-Level Expert Group on Artificial Intelligence, 2019;

European Commission, 2019b; European Commission, 2019a):

(1) İnsan unsuru, denetim ve temel haklar: Yapay zekâ sistemleri, insanları güçlendirmeli, bilinçli kararlar almalarına ve temel haklarını geliştirmelerine olanak tanımalıdır. Aynı zamanda, sistemi içeriden kontrol edebilen, sistemin içinde olmayıp da sistemi dışarıdan kontrol edebilen ve kararı doğrudan verebilen insan yaklaşımları ile gerçekleştirilebilecek uygun gözetim mekanizmalarının sağlanması gerekir. Böylece yapay zekâ sistemlerinin demokratik, gelişen ve eşitlikçi bir topluma olanak sağlayacak şekilde hareket etmesi sağlanmış olur.

Birçok teknoloji gibi, yapay zekâ sistemleri de temel hakları eşit derecede etkinleştirebilir ve engelleyebilir. Örneğin, kişisel verilerini izlemelerine

(11)

yardımcı olarak ya da eğitimin erişilebilirliğini artırarak insanlara fayda sağlayabilir. Bununla birlikte, yapay zekâ sistemlerinin erişim ve kapasitesi göz önüne alındığında, temel hakları olumsuz da etkileyebileceği söylenebilir. Bu tür risklerin olduğu durumlarda, temel haklara etki değerlendirmesi yapılmalıdır. Ayrıca, temel hakları ihlal etme potansiyeline sahip yapay zekâ sistemleri hakkında harici geri bildirimler alabilmek için denetim ve gözetim mekanizmaları oluşturulmalıdır.

Kullanıcılar yapay zekâ sistemleri hakkında bilinçli olarak bağımsız kararlar alabilmelidir. Yapay zekâ sistemlerini tatmin edici derecede kavramak ve onlarla etkileşime geçmek için gerekli bilgi ve araçlar sağlanmalıdır. Yapay zekâ sistemleri, bireyleri hedeflerine uygun olarak daha iyi ve daha bilinçli seçimler yapmaya yöneltmelidir. Böyle bir kuralın olmaması halinde yapay zekâ, bireysel bağımsızlığı tehdit edebilecek çeşitli haksız manipülasyon, aldatma, sürü ve koşullandırma biçimleri de dahil olmak üzere bilinçdışı süreçler kullanılarak tespit edilmesi zor mekanizmalar yoluyla insan davranışını şekillendirmek ve etkilemek için kötüye kullanılabilir. Bu nedenle, kullanıcı bağımsızlığı ilkesi, sistemin işlevselliğinin merkezinde olmalıdır. Bunun anahtarı ise, söz konusu yapay zekâ yazılımının kullanıcılar üzerinde yasal sonuçları olan etkiler oluşturması veya kullanıcıları benzer şekilde önemli derecede etkilemesi halinde, kullanıcıların doğrudan otomatik olarak belirlenecek bir karara tabi tutulmama hakkının kabul edilmesi olarak ifade edilmektedir.

Bu madde içinde son olarak özellikle ifade edilen “insan gözetimine olan gereksinim”, bir yapay zekâ sisteminin insan otoritesinin bağımsızlığını zedelemesini veya başka olumsuz etkilere yol açmasını engellemeye yardımcı olacaktır. Sistemi “içeriden kontrol edebilen insan” ifadesi, sistemin her karar döngüsünde insan müdahalesinin mümkün olması anlamına gelen bir yönetişim mekanizmasıdır ve genellikle uygulanması mümkün olmayan ve tercih edilmeyen bir durumdur. Sistemin içinde olmayıp da sistemi “dışarıdan kontrol edebilen insan” ifadesi ise gerek sistemin oluşturulmasında gerekse sistemin çalışması sırasında insanın müdahale yetkisinin bulunduğu anlamına gelir. Bu sistem ile birlikte insanın karar vererek doğrudan müdahale yetkisinin bulunduğu mekanizmalar, insanın, yapay zekâ sisteminin genel aktivitesini denetleme imkânını ve belirli bir durumda sistemi ne zaman ve nasıl kullanacağına karar verebilme yeteneğini ifade eder. Bu, bir yapay zekâ sistemini belirli bir durumda kullanmama, sistemin kullanımı sırasında insanın inisiyatif seviyelerini belirleme veya bir sistem tarafından alınan bir kararı geçersiz kılma şeklinde olabilir.

(2) Teknik sağlamlık ve güvenlik: Yapay zekâ sistemlerinin esnek, saldırılara dayanıklı ve güvenli olması gerekir. Bir şeylerin yanlış gitmesi durumunda doğru, güvenilir ve tekrarlanabilir olmaları için

(12)

güvenli olmaları gerekir. Kasten verilecek zararın en aza indirgenmesini ve önlenmesini sağlamanın tek yolu budur.

Güvenilir yapay zekâ elde etmenin önemli bir unsuru, zararın önlenmesi ilkesiyle yakından bağlantılı olan teknik sağlamlıktır. Teknik sağlamlık, yapay zekâ sistemlerinin riskleri azaltırken ve beklenmedik zararın oluşmasını önlerken güvenilir bir şekilde tasarlanmış olmalarını ifade eder. Bu, çalışma ortamlarındaki olası değişiklikler veya sistemle ters bir şekilde etkileşime girebilecek diğer ajanların (insan ve yapay zekâ ajanlarının) varlığı için de geçerli olmalıdır.

Bununla birlikte yapay zekâ sistemleri, tüm yazılım sistemleri gibi, rakipler tarafından istismar edilmelerine izin verebilecek güvenlik açıklarına karşı korunmalıdır. Saldırılar, verileri (veri zehirlenmesi), modeli (model sızıntısı) veya altta yatan altyapıyı (yazılım ve donanım) hedefleyebilir. Bir yapay zekâ sistemine saldırı varsa, sistem davranışının yanı sıra veriler de değişebilir, bu da sistemin farklı kararlar almasına veya tamamen kapanmasına neden olabilir.

Sistemler ve veriler de kötü niyetle veya beklenmedik durumlara maruz kalınarak bozulabilir. Yetersiz güvenlik süreçleri hatalı kararlara, hatta fiziksel zarara neden olabilir. Yapay zekâ sistemlerinin güvenli kabul edilmesi için, yapay zekâ sisteminin istenmeyen olası uygulamaları ve sistemin kötü niyetli aktörler tarafından potansiyel olarak kötüye kullanılması dikkate alınmalı, bunları önlemek ve hafifletmek için adımlar atılmalıdır.

Yapay zekâ sistemleri, bir sorun ile karşılaşması durumunda geri dönüş planı sağlayan güvenlik önlemlerine sahip olmalıdır. Bu, yapay zekâ sistemlerinin istatistikselden kural tabanlı prosedüre geçtiği anlamına gelebilir veya eylemlerine devam etmeden önce bir insan operatöre ihtiyaç duymasını gerektirebilir. Sistemin, canlılara veya çevreye zarar vermeden yapılması gerekeni yapması sağlanmalıdır. Bu, istenmeyen sonuçların ve hataların en aza indirgenmesini içerir. Ayrıca, çeşitli uygulama alanlarında yapay zekâ sistemlerinin kullanımı ile ilişkili potansiyel risklerin açıklığa kavuşturulması ve değerlendirilmesi süreçleri oluşturulmalıdır. Gereken güvenlik önlemlerinin seviyesi, bir yapay zekâ sisteminin maruz kaldığı riskin büyüklüğüne bağlıdır, bu da sistemin yeteneklerine bağlıdır. Geliştirme sürecinin veya özellikle sistemin kendisinin yüksek riskler oluşturacağı öngörülebilirse, güvenlik önlemlerinin proaktif olarak geliştirilmesi ve test edilmesi büyük önem kazanır.

Doğruluk, bir yapay zekâ sisteminin doğru kararlar verme yeteneğiyle, örneğin bilgileri doğru kategoriler halinde doğru bir şekilde sınıflandırabilme veya veri veya modellere dayalı olarak doğru tahminler, öneriler veya kararlar verebilme yeteneğiyle ilgilidir. Açık ve iyi biçimlendirilmiş bir geliştirme ve değerlendirme süreci, yanlış tahminlerden kaynaklanan istenmeyen riskleri destekleyebilir, azaltabilir ve düzeltebilir. Zaman zaman hatalı tahminlerden

(13)

kaçınılamıyorsa, sistemin bu hataların ne kadar olası olduğunu göstermesi önemlidir. Yapay zekâ sisteminin insan yaşamını doğrudan etkilediği durumlarda doğruluk düzeyinin şüpheye yer bırakmayacak derecede yüksek olması gerekir.

Yapay zekâ sistemlerinin sonuçlarının güvenilir olduğu kadar tekrarlanabilir olması da önemlidir. Farklı girişlerde ve çeşitli durumlarda düzgün çalışan bir sistem, güvenilir bir sistemdir. Tekrarlanabilirlik, bir yapay zekâ deneyinin aynı koşullar altında tekrarlandığında aynı davranışı gösterip göstermediğini tanımlar. Bu, aynı zamanda, bilim insanlarının ve politika yapıcıların yapay zekâ sistemlerinin ne yaptığını doğru bir şekilde takip edebilmesini de sağlar.

(3) Gizlilik ve verilerin korunması: Verilerin korunması ile mahremiyete saygının yanı sıra, verilere yasal erişimin sağlanması ve verilerin kalitesi ve bütünlüğü göz önünde bulundurularak veri yönetim mekanizmalarının oluşturulması gerekli görülmektedir.

Zararın önlenmesi ilkesiyle yakından bağlantılı olan gizlilik ilkesi, özellikle yapay zekâ sistemlerinden etkilenen temel bir haktır. Yapay zekâ sistemleri, sistemin tüm yaşam döngüsü boyunca gizliliği ve veri korumasını garanti etmelidir. Bu, kullanıcı tarafından başlangıçta sağlanan bilgileri ve sistemle etkileşimleri sırasında kullanıcı hakkında oluşturulan bilgileri (örneğin; yapay zekâ sisteminin belirli kullanıcılar için oluşturduğu çıktılar veya kullanıcıların belirli önerilere nasıl yanıt verdiğini) içerir. İnsan davranışlarının dijital kayıtları, yapay zekâ sistemlerinin sadece bireylerin tercihlerini değil, aynı zamanda cinsel yönelimlerini, yaşlarını, cinsiyetlerini, dini veya siyasi görüşlerini de ortaya çıkarmasına izin verebilir. Bireylerin veri toplama sürecine güvenmelerine izin vermek için, onlar hakkında toplanan verilerin yasalara aykırı veya haksız bir şekilde kullanılmayacağının garanti edilmesi gerekir.

Burada, kullanılan veri setlerinin kalitesi de yapay zekâ sistemlerinin performansı için çok önemlidir. Veri toplandığında, sosyal olarak oluşturulmuş önyargılar ve hatalar içerebilir. Herhangi bir veri seti ile eğitimden önce bunun ele alınması gerekir. Ayrıca, verilerin bütünlüğü sağlanmalıdır. Bir yapay zekâ sistemine kötü niyetli verilerin beslenmesi, özellikle kendi kendine öğrenme sistemlerinde davranışını değiştirebilir. Kullanılan süreçler ve veri setleri, planlama, eğitim, test ve dağıtım gibi her adımda test edilmeli ve belgelenmelidir. Kişilerin verilerini işleyen herhangi bir kuruluşta (birisi sistemin kullanıcısı olsun ya da olmasın), veri erişimini düzenleyen veri protokolleri oluşturulmalıdır. Bu protokoller, verilere kimlerin erişebileceği ve hangi koşullar altında erişebileceğini özetlemelidir.

(4) Şeffaflık: Bu gereksinim açıklanabilirlik ilkesi ile yakından bağlantılıdır ve bir yapay zekâ sistemiyle ilgili öğelerin (verilerin, sistemin ve iş

(14)

modellerinin) şeffaflığını kapsar. Açıklanabilirlik, hem bir yapay zekâ sisteminin teknik süreçlerini hem de ilgili insan kararlarını (örneğin; bir sistemin uygulama alanlarını) açıklama kabiliyetiyle ilgilidir. Teknik açıklanabilirlik, bir yapay zekâ sistemi tarafından alınan kararların insanlar tarafından anlaşılmasını ve izlenmesini gerektirir. Ulaşılmak istenilen şeffaflık, izlenebilirlik mekanizmaları ile sağlanabilir.

Ayrıca, bir sistemin açıklanabilirliğini arttırmak (doğruluğunu düşürebilir) veya açıklanabilirlik pahasına doğruluğunu arttırmak arasında bir değiş-tokuş yapılması gündeme gelebilir. Bir yapay zekâ sistemi, insanların yaşamları üzerinde önemli bir etkiye sahip olduğunda, yapay zekâ sisteminin karar verme sürecine dair uygun bir açıklama yapılması talep edilebilmelidir. İnsanlar bir yapay zekâ sistemi ile etkileşime girdiklerinin farkında olmalı ve sistemin yetenekleri ve sınırlamaları hakkında bilgilendirilmelidir. Bu bilgilendirmenin zamanında yapılması önemlidir.

(5) Çeşitlilik, ayrımcılık yapmama ve adalet: Yapay zekâ uygulamalarında oluşacak haksız önyargılar ile savunmasız grupların marjinalleştirilmesinden ayrımcılığın şiddetlenmesine kadar birçok olumsuz etki söz konusu olabileceğinden, çeşitlilik teşvik edilmeli ve tüm katılımcılara eşit muamele yapılması sağlanmalıdır. Bu gereklilik, adalet ilkesiyle yakından bağlantılıdır.

Tarihi önyargı veya eksikliklerin yapay zekâ sistemleri tarafından kullanılan veri kümelerine dâhil edilmesi nedeniyle belirli gruplara veya insanlara karşı istenmeyen önyargı ve ayrımcılığa yol açabilir. Söz konusu zarar, tüketicilere ait önyargıların kasıtlı olarak kullanılması veya fiyatların gizli anlaşma veya şeffaf olmayan bir pazar yoluyla homojenleştirilmesi gibi haksız rekabet oluşturmaktan da kaynaklanabilir. Sistemin bu şekilde kötüye kullanılmasının veya hukuka aykırı sonuçlar doğurmasının önüne geçebilmek için; sistemin amacının, kısıtlamalarının, gereksinimlerinin ve kararlarının açık ve şeffaf bir şekilde analiz edilmesi ve gözetim süreçlerine tabi tutulması gerektiği önerilmektedir.

Özellikle işletme-tüketici alanlarında, sistemlerin kullanıcı merkezli olması ve yaş, cinsiyet, yetenek veya özelliklerinden bağımsız olarak tüm insanların yapay zekâ ürünlerini veya hizmetlerini kullanmasına izin verecek şekilde tasarlanması gerektiği belirtilmektedir. Tüm toplumsal gruplarda bulunan engelliler için bu teknolojiye erişilebilirlik özellikle önemlidir. Bunun için yapay zekâ sistemleri, erişilebilirlik standartlarını izleyerek mümkün olan en geniş kullanıcı aralığına yönelik Evrensel Tasarım prensiplerini göz önünde bulundurmalıdır. Bu şekilde, mevcut ve gelişmekte olan bilgisayar aracılı insan faaliyetlerine ve yardımcı teknolojilere ilişkin olarak tüm insanların eşit erişimi ve aktif katılımı sağlanacaktır.

(15)

(6) Toplumsal ve çevresel fayda: Yapay zekâ sistemleri gelecek nesiller de dâhil olmak üzere tüm insanlara fayda sağlamalıdır. Dolayısıyla yapay zekânın sürdürülebilirliği ve ekolojik sorumluluğu teşvik edilmelidir. Bu anlamda, yapay zekânın, Sürdürülebilir Kalkınma Hedefleri gibi küresel kaygı alanlarına yönelik araştırmalara yönlendirilmesi gerekli görülmektedir. Ayrıca, bir yapay zekâ sisteminin gelişiminin ve kullanımının bireyler üzerindeki etkisinin yanı sıra, kurumlar, demokrasi ve toplum üzerindeki etkisi de dikkate alınarak toplumsal bir perspektiften değerlendirilmesi gerekir.

(7) Hesap verebilirlik: Bu ilke, yukarıdaki diğer ilkelerin tamamlayıcısı niteliğinde olup özellikle adalet ilkesiyle yakından bağlantılıdır. Yapay zekâ sistemleri ve sonuçları için geliştirme, devreye alma ve kullanım öncesinde ve sonrasında sorumluluk ve hesap verebilirlik sağlayacak mekanizmaların oluşturulmasını gerektirir. Algoritmaların, verilerin ve tasarım süreçlerinin değerlendirilmesini sağlayan denetlenebilirlik, özellikle temel hakları etkileyen kritik uygulamalarda önemli bir rol oynar. İç ve dış denetçiler tarafından yapılan değerlendirme ve bu tür değerlendirme raporlarının bulunması, teknolojinin güvenilirliğine katkıda bulunabilir. Böylece, raporlama sayesinde olumsuz etkilerin en aza indirilmesi sağlanabilir. Haksız bir olumsuz etki meydana geldiğinde ise yeterli telafi sağlayan ve erişilebilir mekanizmalar öngörülmelidir.

İşler ters gittiğinde telafisinin mümkün olduğunu bilmek, güven verici bir anahtardır.

Yapılan bu incelemelerden sonra, yukarıdaki yedi temel ilkeye göre yapay zekânın güvenilir olduğu sonucuna ulaşılabilmesi için genel olarak;

❖ Yürürlükteki mevzuata uygun yani yasal olması,

❖ Etik ilkelere ve değerlere saygılı olması,

❖ Sosyal ve teknik açıdan dayanıklı olmasının arandığı söylenebilir.

Güvenilir Yapay Zekâ için Politika ve Yatırım Tavsiyeleri (Policy and Investment Recommendations for Trustworthy AI)

Dijital Avrupa Pazarı'nda bütünlüğü sağlamak amacıyla güvenilir yapay zekâ kavramını geliştirmek ve yapay zekânın olanak sağladığı hizmetleri kullanmak için Birlik içinde ortak bir mevzuata gereksinim duyulmuştur. Bu saikle hareket geçen Avrupa Birliği Komisyonu uzman grubu, Nisan 2019'daki Etik İlkeler Rehberi'nin ardından, Haziran 2019'da ikinci bir rapor daha oluşturmuştur. Bu raporda, ilk rapordaki etik çerçevesine ek olarak; yapay zekâ finansmanı, nitelikli iş gücü, altyapı yatırımları, uygun yönetişim yapısı ve yasal konulara da değinilmektedir.

(16)

Raporun giriş kısmında, potansiyel olarak hızlı çözüm bulunması gereken alanlara ilişkin üst seviye önerilerin listelendiği belirtilmektedir. Genel toplum, özel sektör, kamu sektörü ve üniversiteler olmak üzere dört alana ilişkin otuz üç (33) önerinin yer aldığı raporda, ana hatlarıyla ele alınan konular şöyledir (Hidvegi and Leufer: 2019, Ethics Washing Made in Europe; 2019):

❖ Yapay zekâ teknolojileri ile birlikte insanları ve toplumu güçlendirmek ve bu teknolojinin karanlık tarafına karşı korunmak;

❖ Yapay zekâya ayrılan fon ve yatırımlar ile araştırma geliştirme faaliyetlerini artırmak;

❖ Yapay zekâ uygulamaları için gerekli görülen eğitimlerin sağlanması ve yetkinliklerin belirlenmesi,

❖ Verilerin işlenebilmesi için gerekli olan altyapıyı geliştirmek;

❖ Sürdürülebilir büyüme ve inovasyon için kamunun imkânlarından faydalanabilmek;

❖ Özel sektörde yapay zekâ kullanımını artırmak;

❖ Uygun bir yönetişim yapısını ve yasal çerçeveyi oluşturmak.

Avrupa İttifak Meclisi (The European Alliance Assembly):

Avrupa İttifakı, üç binden fazla Avrupa vatandaşı ve katılımcısı ile yapay zekâ Avrupa'daki geleceği hakkında diyalog oluşturan bir forumdur. Bu forum, Avrupa Yapay Zekâ Stratejisi'nin başlatılmasının ardından kurulan uzman grubunun hazırladığı etik ilkeler rehberi ve diğer taslak metinler üzerinde istişareler gerçekleştirilmesini ve gerek kamu gerekse özel sektör kuruluşlarının yapay zekâ politikalarını geliştirmeye yardımcı olmasını sağlamakta önemli bir işlev görmektedir. Yapay Zekâ Politikasının ve Yatırım Önerilerinin son halinin verilmesinde, Avrupa İttifak Meclisi'ndeki öneri ve sonuçların dikkate alındığı belirtilebilir (European Commission, 2019c).

Buraya kadar açıklanan belge ve çalışmalar, günümüz itibariyle gelinen noktayı göstermektedir. Avrupa Komisyonu, yapay zekânın güvenilirliğinin geliştirilmesi için 2020 yılına kadar katılım sağlanması amacıyla hayata geçirdiği pilot uygulamayı neredeyse tamamlamıştır. Bundan sonraki süreçte ise 2030 yılına kadar söz konusu yatırımların daha da artırılması ve böylece Avrupa Birliği'nin yapay zekâ çalışmalarında öne çıkan ve belirleyici konumda olan siyasi aktörlerden biri olması hedeflenmektedir.

(17)

Yargı Sistemlerinde Yapay Zekâ Kullanımına Dair Dünyadan Örnekler:

Yapay zekâ, yazılıma sunulan verileri toplayarak algoritmayı yapar ve tahmin oluşturur. Bu anlamda, yapay zekâ bakımından hukukî süreçler bir nevi hesaplama olarak düşünülebilir. Davaya ilişkin iddia, savunma, deliller ve talepler yapay zekâya girdi olarak verilir ve karşılığında çıktı olarak bir karar alınır.

Tablo 1: Yapay zekâ yazılımı işlem aşamaları

Yapay zekâ yazılımı işlem aşamaları:

1- Veri toplama işlemi 2- Öğrenme işlemi 3- Sonuç üretme işlemi

Kaynak: Kütahya Barosu’nun Kurultay Sonuç Bildirgesi (2018) temel alınarak hazırlanmıştır.

Yapay zekânın adalet sisteminde kullanılması gerektiğini savunanlara göre;

böyle bir hukukî sürecin işletilmesi halinde, insanlara özgü olan önyargı, fiziksel etkenler (yorgunluk, hastalık, açlık, duygusal durum bozukluğu, psikolojik sorunlar gibi) yeterli bilgi arşivine ve güncel gelişmelere vâkıf olamama gibi hatalı kararlar verilmesine yol açacak risklerin önlenmesi, muhakeme farklılıkları dolayısıyla çelişkili kararlar ortaya çıkmasının engellenmesi ve yapay zekâ sayesinde herkese aynı kalitede ve eşit olarak uygulanacak hızlı ve etkili bir adalet sistemine ulaşılması mümkün olabilir.

Hatta ancak bu şekilde herkesin yasalar önünde eşit olmasının sağlanabileceği belirtilmektedir (Tegmark, 2019: 142).

Gerçekten de yapay zekâ yazılımlarından oluşan robohâkimlerin insan hâkimler karşısında daha güvenilir olup olmadığı yönünde yapılan araştırmalarda, insanların açlık seviyesinin karar verme eğilimini olumsuz etkilediği ve daha sert kararlar verilmesine sebep olduğu14, insanların vakıanın tüm ayrıntısını incelemek için yeterli zamanı bulamadığı ve teknik bilgi gerektiren uzmanlık alanlarının tümüne vâkıf olamayacağı gibi son teknoloji ile gelişen teknik bilgileri takip etmesinin de her zaman mümkün olamayacağı ifade edilmektedir. Bunlara karşılık robohâkimlerin açlık ve yorgunluk gibi fizyolojik ihtiyaçları olmayacağından verilecek kararların herkese eşit şekilde uygulandığı konusunda şüphe bulunmayacağı, zaman bakımından ise her davanın kendisine ait bir robohâkime sahip olabileceği ve dosyaların hızlıca

14 Bu konuda örnek olarak İsrail hâkimleri üzerinde yapılan araştırma makalesi için bkz.

Danziger, Levav and Avnaim-Pesso, 2011).

(18)

taranarak gerekli verilerin işlenebileceği, bunun yanında sınırsız bellek ve öğrenme kapasitesine sahip robohâkimler ile en güncel teknik imkânların bile takip edilerek bu imkânlardan faydalanılabileceği, ayrıca robohâkimlerin tecrübeli avukatlar tarafından manipüle edilmesinin de söz konusu olamayacağı öngörülmektedir. Böylece yargılama prosedürleri azaltılarak hız kazanmanın yanı sıra dava maliyetlerinin de düşürülebileceği tahmin edilmektedir (Tegmark, 2019: 143).

Robohâkim fikrinin yanı sıra, yapay zekânın özellikle dosya tasnifi, karar destek sistemi gibi uygulamalar ile hukuk ve yargılama alanına destek olabileceği tartışmasız kabul görmektedir. Buna örnek olarak içtihat tarama programları gösterilebilir. Belirli bir geçmişten günümüze kadar verilmiş yargı kararlarının sisteme girilmesi neticesinde, bu sistemi içeren programların kullanıcıları tarafından dünya üzerindeki yargı kararlarına saniyeler içinde ulaşılabilmektedir. Böylece, yargı kararlarının anahtar kelimeler veya karar künyesi kullanılarak bulunmasını sağlayan içtihat tarama programları, binlerce sayfa karar arşivini araştırıp bulup okumak yerine, hukukçuların diledikleri ülkedeki geçmiş kararlara ulaşmasını sağlayan oldukça pratik bir uygulama olarak hukuk dünyasındaki yerini almıştır.

Yapay zekâ yazılımlarının yargılamanın birer aracı olarak kullanılması da söz konusu olabilir. Bu anlamda, bir davanın hakikati ortaya çıkarmak için yıllarca süren uğraşı yerine yapay zekâ destekli beyin görüntüleme sistemleriyle dakikalar içerisinde gerçeklerin ortaya çıkarılabileceği görüşü ileri sürülmektedir (Tegmark, 2019: 145). Bunun gibi bir yazılımın kullanılması durumda, yapay zekânın insanların kişisel mahremiyet alanına ne kadar müdahale edebileceğine dair sınırların belirlenmesi gerekliliği kendini gösterir.

Toplumun üstün yararı ve adaletin sağlanması için kişilik haklarına ne kadar müdahale edilebileceği meselesi, yapay zekânın yargıda kullanımına dair etik prensipler içinde ayrıca ele alınması gereken bir sorun olarak ilerleyen zamanlarda gündeme getirilebilir.

Yapay zekânın yargı sahnesinde büründüğü bir diğer rol ise avukat robotlardır. Bu robotlara yüklenecek veriler sayesinde veri setlerinin kapsadığı hukukî konularda hukukî danışmanlık hizmeti verebildikleri, tüketiciler tarafından bilgisayar üzerinden girilen soruları mevcut yasal düzenlemeler çerçevesinde yanıtlayabildikleri, bir sözleşme inceleme ve değerlendirme üzerine programlanmış bir yapay zekâ yazılımının ise deneyimli avukatlara kıyasla daha hızlı ve etkili sonuçlara ulaşabildiği kanıtlanmıştır15.

15 IBM tarafından geliştirilen Ross isimli robot, ABD’de bir hukuk bürosunda işe alınmış ve

icra ve iflas hukuku alanında çalışan elli avukata yardımcı olmuştur. Hatta ABD'nin en büyük dolandırıcılık davası olan Bernie Madoff davasında avukatlara sağladığı kolaylıklar sayesinde oldukça faydalı olduğu ifade edilmiştir (NTV, 2016). Bir başka örnek, LawGeex

(19)

“DoNotPay.com” adlı bir İngiliz sitesi tarafından geliştirilen “The World’s First Robot Lawyer” isimli yazılım bunun açık bir örneğini oluşturur. Park cezalarına itiraz konusunda insanlara hukukî danışmanlık hizmeti sunmayı amaçlayan yazılım, dünyanın ilk robot avukatı olarak faaliyet göstermektedir16 . Üstelik yazılım tarafından verilen hukukî danışmanlık hizmetinin büyük oranda doğru sonuçlar verdiği de daha sonra açılan davalar neticesinde yapılan karşılaştırmalar ile ortaya konulmuştur17.

Amerika Birleşik Devletleri’nde yargı sistemlerinde kullanılmak üzere geliştirilen üç büyük yazılım olduğu bilinmektedir. Bunlar; IBM tarafından üretilen ilk yapay zekâlı sanal avukat olan ROSS, veri toplayıp analiz eden LEX-MACHINA ve sözleşme analiz zekâsı olarak bilinen KIRA sistemidir.

ROSS sistemi, ABD avukatlık sisteminde kullanılan, doğal dil işlemcisi bulunan, hukukî araştırma yapabilen ve sorulan sorulara belgelerle cevap verebilen bir donanıma sahiptir. Veri azaldıkça daha da zekileşen bu sistem, 1 saniyede 1 milyar belge tarayabilmektedir. LEX-MACHINA sistemi de ABD'de uygulanmakta ve 24 saatte bir beş ayrı kurumdan veri toplamakta, topladığı verileri işleyip hukukî analiz yaparak sonuçlarını hukukçularla paylaşmaktadır. Program, bir öngörü sistemine sahiptir ve bu sayede, topladığı verilerin analizinden elde ettiği sonuçlara göre hukukî uyuşmazlık hakkında yüzdesel başarı oranı belirlemekte, eksiklikler varsa bunları tespit ederek dava kazanma stratejileri konusunda avukatlara yardımcı olmaktadır. KIRA ise sözleşme zekâsı olarak kullanılmaktadır18. Yazılım, çok geniş bir veri setine sahip olup kendisine yüklenen sözleşmeyi yüzlerce farklı açıdan inceleyerek gerekli değişiklik ve eklemeleri yapmakta ve varsa sözleşmedeki zayıf unsurları bulup iyileştirmektedir.

Şirketi tarafından 20 deneyimli Birleşmiş Milletler Avukatı ile kendi yapay zekâ sistemlerinin performans karşılaştırması olarak verilebilir. Günlük yasal risk tespitine ilişkin karşılaştırmada, insan avukatların başarı oranının %94-%64 arasında ve ortalama %85 olduğu, buna karşın yapay zekânın başarı ortalamasının %94 olduğu tespit edilmiştir. Üstelik insanların bu iş için ortalama 92 dakikaya ihtiyacı olmasına karşın yapay zekânın aynı işlemi yapması 26 saniye sürmüştür (LawGeex, 2018: 14-15).

16 İnceleme için <https://donotpay.com/learn>, (01.02.2020).

17 Buna örnek olarak, 2017’de Londra'da bir kredi kartı usulsüzlüğüne dair Finans Ombudsmanı'na yapılan başvuruların kabul edilip edilmeyeceğini öngörebilme konusunda yüzden fazla avukatın katıldığı bir deneyde, eğitilmiş yapay zekâ programının %86 oranında doğru tahminde bulunduğu, buna karşın insanların doğru tahmin oranının %66,3 olduğu ortaya konulmuştur (Kızrak, 2019).

18 Bu yönde ayrıca, Harvard Law School öğrencileri tarafından kurulan Evisort Şirketinde, hukuk yazışmaları için doğal dil işleme sayesinde derin öğrenme ve makine öğrenmesi modellerinin kullanılması ile avukatların zamanından en az 10 yıl tasarruf edildiği belirtilmiştir (Harvard Law Today, 2017). Sözleşmeler üzerinde kullanılan bir diğer program ise CO-IN (Contract Intelligence) olmuştur. Program, avukatlar ve banka memurları tarafından 360.000 saatte gözden geçirilebilen finans verilerini saniyeler içinde inceleyebilmektedir (Galeon, 2017; Harvard Business School, 2018).

(20)

Yukarıda incelenen her üç yazılım da ABD'deki avukatların işini son derece kolaylaştırarak daha hızlı ve öngörülebilir bir yargı sağlamıştır. ABD'de 2016 yılında yapılan araştırma sonuçlarına göre, anılan bu yapay zekâ sistemlerinin aktif kullanımı sayesinde; avukatların çalıştıkları ofislerdeki kişi başı maliyetin senelik 13 bin dolar düştüğü, avukatların doğal dil işleme sayesinde kazandığı zaman oranının %22,3 olduğu ve hukuk şirketlerinin hizmet üretme hızlarındaki kârlarının %30 olduğu tespit edilmiştir (Kütahya Barosu, 2018).

Yapılan bu incelemelerden sonra, yapay zekânın sağladığı faydaların yadsınabilir derecede olmadığını ifade etmek gerekir. Dokümanları hızlıca tarayarak zamandan tasarruf anlamında sağladığı fayda ve bilgiye erişimde sağladığı kolaylık, yargı sistemini yöneten oyun kurucu avukat, hâkim ve savcıların daha az yorulmasına ve işlerini daha kaliteli yapmalarına olanak sağlamaktadır.

Yapay Zekânın Yargı Sistemlerinde Kullanımına Yönelik Güncel Eleştiri ve Tartışmalar:

Yapay zekânın yargı sistemlerinde hangi görevleri yerine getirmesinin uygun olacağı; güvenilir muhakeme yapabilmesine, mevzuata ve içtihada hâkim olabilme ve somut olayın özelliklerine göre değerlendirme yapabilme derecesine göre belirlenebilecek bir meseledir. Yukarıda ifade edildiği gibi yapay zekâ yazılımları ve robotların, yargılama sisteminde bilirkişilik yapabileceği, hukuk ofislerinde yardımcı olarak kullanılabileceği, hukuk danışmanlığı yapabileceği ve daha da ileri gidilerek robohâkim olarak davalarda karar verebileceği savunulmakta ve hatta bazı ülkelerde bu yönde çeşitli uygulamalar kullanılmaktadır19.

Avrupa Birliği ise konuya ihtiyatlı yaklaşmaktadır. Clementina Barbaro20 ve birçok hukukçu akademisyene göre, hâlihazırdaki yapay zekâ uygulamaları, ayrımcılık kavramını sert algıladığından davalarda adalet ve hakkaniyeti tesis edecek kararlar vermesi zordur (Yapay zekânın ayrımcılık oluşturacak şekilde algoritmik karar oluşturmasına yönelik riskler hakkında bkz. Borgesius, 2018).

Nitekim yapay zekânın, davanın taraflarının eğitim durumunu, işsiz olup olmadığını, gelir seviyesini ve ceza yargılamasına konu bir davada kişiyi suça yöneltebilecek diğer faktörleri gerektiği şekilde dikkate alıp değerlendiremediği ve bu sebeple de aldığı kararların doğruluk payını saptamada risk taşıdığı endişesi dile getirilmektedir. Londra Kolej Üniversitesi tarafından yapılan bir

19 Çin'de “Yapay Zekâ Yargıç” modeli ile davaların açılması gibi işlemlerde internet üzerinden yasal destek sağlanmaktadır. Böylece sistemin, prosedür işlemler hakkında karar verilmesine ilişkin olarak hâkimlerin iş yükünü azalttığı ve daha verimli çalışmalarını sağlayarak verdikleri kararların kalitesinin artmasına yardımcı olduğu belirtilmektedir (Xinhua, 2019).

20 Avrupa Konseyi Yargı Reformu Kurumu Ünite Başkanı.

(21)

araştırma ise bu endişeyi kısmen de olsa haklı çıkarmaktadır. 584 dava üzerinde yapılan araştırmaya göre, bilgisayarlar tarafından verilen kararların doğruluk payı %79 olmuştur (The Guardian, 2016; Congar, 2019). Bu oran, mevcut yapay zekâ yazılımları ile adil sonuçlar alınma olasılığının ne kadar düşük olduğunu göstermektedir.

Yapay zekâ yazılımları, önceki verileri, karara konu doneleri, dava özelliklerini ve mevzuatı tarayarak hâkimin nasıl karar vereceğini tahmin etmeye çalışacaktır. Ancak hâkimler, her durumda doğrudan mevzuatı uygulamamakta ve hukukun kendilerine izin verdiği ölçüde takdir hakkını kullanarak da hüküm kurabilmektedirler. Bu durumda, yapay zekânın yaptığı tahminler ile insan hâkimler tarafından verilen kararlar birbiriyle çelişebilir.

Böyle bir çelişkinin doğması halinde ise kararların meşruiyetine gölge düşeceğinden yapay zekânın bir karar mekanizması olarak kullanılması imkânsız hale gelecektir (Reiling, 2009: 47-81). Zira ABD'de yapılan bir araştırma çalışmasında, önceki olaylardan yapay zekâ yazılımına girilen veriler neticesinde, şartlı tahliye edilenlerden suç işlemeye geri dönme eğilimine sahip kişiler yazılım tarafından tespit edilmiştir. Ancak bu tespite dayalı yargılama yapıldığında, Afrikalı-Amerikalılara karşı sistemde adil olmayan bir önyargı oluştuğu ve dolayısıyla haksız cezaların uygulanmasına neden olduğu görülmüştür (Angwin, Larson, Mattu and Kirchner, 2016).

Yapay zekânın güvenilir bir karar verici olup olamayacağı meselesi, somut olayların ve her bir davada kişilerin özel durum ve şartlarını ne kadar değerlendirip hükmü nasıl kurduğuyla doğrudan ilgilidir. Nitekim adaletin sağlanması için somut olay adaletinin sağlanması gerekir, bunu sağlayan da hakkaniyettir. Hakkaniyet ise her bir somut olayın kendi şartları içinde değerlendirilmesi ile bulunabilir. Roma Hukukundan günümüze gelen

“summum ius summa iniuria” düşüncesine göre, hukuk kurallarının tüm somut olaylara katı ve şekilci olarak aynı biçimde uygulanması, adaletten uzaklaşılmasına ve eşitsizliklere yol açabilir (Uçaryılmaz, 2018: 54). Zira hukukun herkese aynı şekilde uygulanması, birbirinden farklı koşul ve şartlara sahip kişiler bakımından farklı sonuçlar doğuracağından gerçek anlamda eşitlik ve adaletin sağlanmasına yetersiz kalmaktadır.

Yapay zekâ teknolojilerinin odağında insan bulunmak zorundadır. Bu teknolojilerin asıl faydası, yapay zekânın insan becerilerinin yerine geçmesi değil, bilakis onları destekleyip geliştirmesi ve güçlendirmesiyle kendini gösterecektir (Wilson and Daughtery, 2020: 171). Nitekim insanların, düşünüp yorumlamak ve duygusal zekâlarını kullanmak gibi doğal olarak yapabileceği şeyler makineler için zor olabilirken; makinelerin yaptıkları da (gigabaytlarca verinin saniyeler içinde analizi gibi) insanlar için imkânsız olabilir (Wilson and Daughtery, 2020: 172). Bu nedenle yaşadığımız çağ itibariyle yapay zekâ ve insanlar arasında işbirliğinin geliştirilmesi kaçınılmaz görünmektedir. İnsanlar,

(22)

yapay zekânın güçlendirilmesi, insanları anlaması ve faydalı hale getirilebilmesi için, yapay zekâyı belli görevleri yerine getirecek şekilde eğitmeli ve bu amaçla yapay zekâya kapsamlı veri setleri yüklemelidir. Ancak bilişsel insan gücünü üst seviyelere çıkararak insani yetkinliklerle donatılan bir yapay zekânın insanların gerçek anlamda yardımcısı olabileceği söylenebilir.

Böylece yapay zekâ, insanlara fazladan zaman yaratarak insanların daha sofistike işlere yoğunlaşabilmesini sağlayabilir (Wilson and Daughtery, 2020:

202).

Sonuç

Yapay zekâya dair gelişmeler gün geçtikçe büyük bir hızda artmaktadır. Bu hız karşısında yapay zekânın geleceğini şekillendirebilmek için, şimdiden gerekli düzenlemeler yapılarak tedbirler alınması önemlidir. İnsan merkezli bir yapay zekâ sistemi oluşturabilmek ve yapay zekâyı kontrol altında tutabilmek için, insan ve yapay zekâ ilişkilerini düzenleyecek etik kurallara duyulan ihtiyaç, artık bir zorunluluk halini almıştır. Bu husus, yapay zekânın derin öğrenme becerisi sayesinde kendisini geliştirerek insanlardan daha zeki bir varlık olarak vücut bulması tehlikesini bertaraf edebilmek için de gereklidir.

Yapay zekânın geliştirilmesinin kendi içinde bir araç olarak görülmesi halinde, insan-üstü zekâ seviyesine ulaşarak kontrolden çıkması ve kıyamet senaryolarına yakın sonuçlar ile karşılaşılması söz konusu olabilir. Bu nedenle, içinde bulunduğumuz teknoloji çağının bize sunduğu imkânlardan en üst seviyede faydalanabilmek için riskleri en aza indirmemiz gerektiği açıktır.

Bunun sağlanması için de en azından şimdilik yapay zekânın insanlığa hizmet etmekten başka bir amacının ve yetisinin bulunmayacak şekilde tasarlanması gerektiği söylenebilir.

Yapay zekânın insanlığa hizmet edebileceği en önemli alanlardan biri, adaletin sağlanması için gerçekleştirilen yargılama faaliyeti olarak kendini göstermektedir. Yargılama faaliyetinde yapay zekânın temel işlevi, tıpkı

"“Minority Report"” filminde olduğu gibi öngörü ve tahminde bulunmak olarak benimsenmiştir. Ancak Amerika ve Çin örneklerinde görüldüğü gibi yapay zekânın işlevi öngörüyle sınırlı tutulamaz. Yargılamanın çeşitli aşamalarında fayda sağlayan yapay zekâ, etik prensipler içinde kalmak kaydıyla pek çok işlevi yerine getirebilmektedir. Ayrıca yapay zekânın yargı sistemlerinde kullanılmasında kişilik haklarına ve kişinin mahremiyetine ne denli müdahale edebileceği meselesine ilişkin olarak, toplumun üstün yararı karşısında bireylerin haklarının konumu dikkate alınarak yine etik prensiplere göre bir belirleme yapılması gerekebilir.

Dünya üzerindeki örneklerden ve Avrupa Etik Şartı prensiplerinden yola çıkılarak, yapay zekâ hizmetlerinin yargı sistemlerinde güvenle kullanılabilmesi için, “insan odaklı etik” anlayışıyla temel insan haklarına saygının ve kişisel

Referanslar

Benzer Belgeler

Uzman sistemler, Bulanık Mantık, Yapay Sinir Ağlar ve Genetik Algoritma uygulamalarda tek başlarına kullanılabildikleri gibi birçok uygulamada her bir yöntemin avantaj ve

Bu çalışmada, logo tasarımında yapay zekâ altyapısını kullanan bir şirketin tasarım esnasındaki algoritmik yaklaşımı, bilgisayar programcılığı dahilinde

Son iki yılda insanlığı ekonomik, sosyal, askeri, eğitim, birey ve devlet açısından ciddi manada etkileyen Kovid-19 ve Yapay Zeka‟nın 21.yy Dünyasını kısa sürede ve

Örneğin geri dönüşüm için gelişmekte olan ülkele- re gönderilen elektronik atıklar, içlerindeki birkaç değerli metal çıkarıldıktan sonra genellikle yakıla- rak yok

• Biyojenik elementler: canlıların hücre yapımında kullanılarak yapı taşlarını oluşturan ve organizmanın yaşamsal faaliyetlerinin devamı için mutlak gerekli

Önceden yeterince veri ile eğitildiyse, elimizdeki büste dair ölçümlere (alın genişliği, göz küreleri arasındaki mesafe, vb.) dayalı olarak büstü yapılmış şahsa

Yeni yazılım çözümümüz syngo Virtual Cockpit 1 , tıp personelinin özellikle daha karmaşık muayene- lerin gerekli olduğu durumlarda, farklı bir konum- daki personele

Sonuç itibari ile Avrupa genelinde hem polis tarafından yapılan durdurma, arama, diğer kontrol yöntemleri ile tutuklama ve hatta soruşturma evresinde tutuklama