“Bir robot, bir insana zarar veremez veya pasif kalarak zarar görmesine izin veremez. Bir robot, birinci kuralla çelişmediği sürece, insanlar tarafından verilen emirlere itaat etmelidir. Son olarak bir robot, birinci ve ikinci kurallarla çelişmediği sürece, kendi varlığını korumalıdır.”

Isaac Asimov’un 1940’lı yıllarda bilim kurgu dünyasına “Ben, robot” romanıyla kazandırdığı Üç Robot Kuralı, teknolojik etik tartışmalarında sıkça dillendirilir. Duayen bilim kurgu yazarının o dönemde tanıttığı kurmacalar geleceğin bir hayali niteliğindeydi; ancak özellikle son dönemde yapay zeka ve robotik alanlarında yaşanan gelişmeler, Asimov’un satırlarını yavaş yavaş gerçek kılmaya başladı. Şirketlerin iş stratejilerinden devletlerin güvenlik politikalarına uzanan geniş bir yelpazede, yapay zekanın “etik” boyutu da en az teknolojik ilerleme kadar önemli bir konuma yükseldi. Asimov’un robot kuralları hayli pratik gibi görünse de gerçek dünyanın yapay zeka etiği oldukça çetrefilli bir mesele.

Bu yazıda, yapay zekâ etiğini algoritmik önyargılar, adalet, otomatik karar alma süreçleri, hesap verebilirlik ve gizlilik gibi temel unsurlar üzerinden ele alacağım. Yapay zekâ etiğine dair regülasyonlar da büyük önem taşıyor ama onları daha önce ayrı bir yazıda detaylandırdığım için değinmeden geçeceğim.

Algoritmik önyargılar: Yapay zekâda görünmez tuzaklar

Verilerdeki tarihsel adaletsizliklerin yapay zekâ sistemlerine taşınmasını algoritmik önyargı olarak adlandırıyoruz. Bilinen en klasik örneklerden biri, Amazon’un 11 yıl önce geliştirmeye başladığı işe alım modeli. Reuters’ın 2018 tarihli haberine göre bu sistem, erkek adayları kadınlara göre daha yüksek oranda tercih etmişti. Sebebi ise eğitim verilerinin ağırlıklı olarak erkek adayların verilerinden oluşmasıydı. Model, erkek egemen bir iş dünyası gerçekliğini veri seti olarak alıp yeniden üretmişti; teknik anlamda sistem görevini “doğru bir şekilde” yerine getiriyordu. Ancak sonuç sosyal adalet bakımından kabul edilemezdi. Amazon projeyi sonlandırdı, geriye yapay zekanın önyargıları nasıl yeniden üretebileceğine dair çarpıcı bir ders kaldı. 2018’den bu yana yapay zeka modelleri çok daha karmaşık hâle geldi; fakat veri kaynaklı önyargılar, şeffaflık eksikliği ve etik sorunlar güncelliğini koruyor.

Algoritmik önyargılardan payını alan bir diğer alan da yüz tanıma teknolojileri. MIT’li araştırmacı Joy Buolamwini, yüz tanıma algoritmalarında “güç gölgeleri” olarak adlandırdığı toplumsal önyargıların veri setlerinde nasıl yansıdığını incelemişti. Özellikle IJB-A gibi yüz tanıma sistemlerini değerlendirmek için kullanılan veri setlerinde açık tenli bireylerin veri setinin %80’inden fazlasını oluşturduğu görülüyor. Bu dengesizlik, koyu tenli bireylerin tanınmasını güçleştiriyor ve internet üzerindeki içeriklerin çoğunlukla açık tenli bireylere odaklanmasının bir yansıması olarak yorumlanıyor.

Yapay zeka adalet dağıtırken gözünü açıyor mu?

Yapay zekâ sistemlerinin etik sorunları, belki de en çok adalet kavramı üzerinden tartışılıyor. Özellikle ceza adaleti söz konusu olduğunda, bu modellerin geçmişteki adaletsizlikleri ve kurumsal önyargıları “veri” olarak içselleştirme riski son derece yüksek. Örneğin ABD’de kullanılan bazı “suç önleme” algoritmaları (mesela PredPol), suçun daha çok yaşandığı mahalleleri işaret ederek kolluk kuvvetlerini bu bölgelere yönlendiriyor. Ancak çoğu zaman, “suç bölgesi” olarak etiketlenen mahalleler zaten ekonomik ve sosyal açıdan dezavantajlı toplulukların yaşadığı yerler oluyor. Verilerdeki tarihsel orantısızlık böylelikle algoritmik süreçlerle yeniden üretiliyor ve dezavantajlı mahallelerden gelen vatandaşlar mercek altına alınıyor.

Bu durumlarda, yapay zekâ sisteminin teknik açıdan “hatalı” çalıştığını söylemek güç; çünkü algoritma, kendisine verilen tarihsel suç kayıtlarını, demografik verileri ve coğrafi bilgileri kullanarak risk analizi yapıyor. Ortaya çıkan sonuç ise sosyal adalet açısından mutlaka sorgulanmalı. Zira sistem, dezavantajlı kesimi hedef hâline getiriyor ve tek taraflı bir döngü yaratıyor: Daha fazla polis baskısı, daha fazla tutuklama, tekrar “yüksek riskli bölge” olarak işaretlenme…

Ceza adaleti kapsamında mahkeme süreçlerinde de benzer riskler söz konusu. Davaya bakan yargıçlar, tutukluluk kararını veya kefalet miktarını belirlerken yapay zekâ tabanlı risk değerlendirme araçlarından yararlanabiliyor. Ancak bu araçların eğitildiği veriler geçmişteki önyargıları yansıttığında, belli gruplar “yüksek riskli” etiketiyle sistematik olarak dezavantajlı hâle gelebiliyor. İşte bu noktada “adalet” kavramının algoritmik kararlarla nasıl iç içe geçtiğini iyi irdelemek gerekiyor.

Yapay zeka size kredi verir mi?

Yapay zekâ, finans ve insan kaynakları gibi sektörlerde de otomatik karar verme süreçlerini dönüştürüyor. Bankalarda kredi başvurularının değerlendirilmesinden sigorta şirketlerinde risk analizine, kurumsal firmalarda işe alım süreçlerinden müşteri destek sistemlerine kadar pek çok alanda söz algoritmalara kalıyor. Bu süreçler, pratik ve hızlı kararlar üretiyor olsa da, işin etik kısmı çoğu zaman gölgede kalıyor.

Diyelim ki bir banka, kredi başvurularını yapay zekâ tabanlı bir “skorlama” sistemiyle değerlendiriyor. Sistem, kişinin geçmiş ödeme performansını, mesleki durumunu, belki de sosyal medya etkinliğini dikkate alarak dakikalar içinde karar veriyor. Kulağa oldukça verimli gelse de reddedilen bir başvuru sahibi reddedilme sebebini genellikle öğrenemiyor.

“Kara kutu” olarak adlandırılan bu algoritmalar, hangi parametrenin ne kadar etkili olduğunu somut bir şekilde açıklayamayabiliyor. Hem teknik karmaşıklık hem de ticari gizlilik gerekçeleriyle sistemin iç işleyişi çoğu zaman kullanıcıdan saklanıyor.

Bu belirsizlik, kullanıcı ile sistem arasında ciddi bir güven problemine yol açıyor. Üstelik veri setinde yer alan önyargılar veya hatalar yüzünden bireylerin haksız yere değerlendirilmesi ihtimali de cabası. İyi tasarlanmış bir yapay zekâ sistemi, milyonlarca başvuruyu hızla analiz edip sonuç üretebilir; ancak pek çok kişinin finansal anlamda mağdur olması ve itiraz hakkını etkin kullanamaması işi iyiden iyiye yokuşa sürüyor. 

Hesap verebilirlik: Yapay zekâda sorumluluk kimin?

Algoritmaların neden olduğu mağduriyetlerde sorumluluk sorusu devreye girdiğinde işler karışıyor. 

Tarihsel verilerden veya skorlama sistemlerinden etkilenen bireyler, çoğu zaman haklarını nasıl arayacaklarını bilemiyor. Bir mülakatta ya da ceza davasında insan karşısında yaşanacak bir haksızlıkta sorumlu tarafı belirlemek nispeten kolay. Ancak yapay zekâ sistemleri bu “suçlu” profilini görünmez kılıyor. Öyleyse, yapay zekâ yanlış bir karar aldığında muhatap kim olacak? Yazılım geliştiriciler mi, sistem tasarımcıları mı, veri bilimciler mi, yoksa bu teknolojiyi kullanan kurumlar mı?

Diyelim ki bir otonom araç hatalı tespit yaptı ve bir kaza meydana geldi. Bu durumda sorumluluk aracın içindeki yolcuya mı, üretici firmaya mı, yazılım ekibine mi, yoksa bu teknolojiyi onaylayan regülatif kurumlara mı ait olacak? 

Bu sorunun karmaşıklığını açıklayan en çarpıcı örneklerden biri, Apple mühendisi Walter Huang’ın 2018 yılında hayatını kaybettiği kazaydı. Tesla’nın otopilot sistemi, aracı yanlış yönlendirerek bariyerlere çarptı ve ölümcül bir kazaya sebebiyet verdi. Ancak sürücünün de dikkatsizliği, örneğin kaza sırasında cep telefonundan oyun oynaması, bu trajedide rol oynadı. Tesla, sistemin tam otonom olmadığını ve sürücünün dikkatli olması gerektiğini daha önce açıklamıştı. Sonuç olarak, üretici firmanın, sürücünün ve yetersiz regülasyonların birlikte bu kazaya zemin hazırladığı görülüyor. Geçtiğimiz nisan ayında Tesla, Huang’ın ailesiyle belli bir meblağ karşılığında davayı çözümleyerek konuyu kapattı.

Bu ve benzeri vakalar, konvansiyonel hukuk sistemlerinin hâlâ insan odaklı sorumluluk çerçeveleriyle işlemeye devam ettiğini gösteriyor. Ancak yapay zekâ tabanlı sistemlerin getirdiği öngörülemeyen hatalar ve çok boyutlu muhataplar, mevcut hukuki düzenlemelerin bu karmaşıklığı çözmekte yetersiz kaldığını ortaya koyuyor. Bu nedenle, hukuki çerçeveye “yapay zekâ perspektifi” eklenmesi artık bir zorunluluk. 

Gizlilik: Dijital dünyada kırılgan mahremiyet

Bir yapay zekâ sistemini beslemek için elbette veri gerekiyor ve bu veriler çoğu zaman kişisel bilgiler içeriyor. Akıllı telefonlar, sosyal medya hesapları, giyilebilir teknolojiler... Hepsi inanılmaz miktarda veri üretiyor. Yapay zekâ açısından bakınca müthiş bir kaynak ama etik açıdan baktığımızda, bireysel mahremiyetin kırılganlaştığı bir tablo çıkıyor ortaya.

Örneğin, sağlık sektöründe kullanılan yapay zekâ uygulamalarını düşünelim. Hastalık teşhisi ve tedavileri optimize etmek için bireylerin tüm sağlık geçmişi, genetik bilgileri ve hatta hayat tarzına dair bilgiler toplanıyor. Bu veriler, “doğru” ellerde tıbbi devrimlerin altyapısını oluşturabilir. Fakat kötü niyetli kişi ve şirketlerin eline geçerse, sigorta primlerinden işe alım süreçlerine kadar pek çok etik dışı uygulama mümkün hâle gelir.

Dijital dünyada regülasyonlar hâlâ belirli boşluklar taşıyor. Avrupa Birliği’nin GDPR (Genel Veri Koruma Tüzüğü) gibi düzenlemeleri küresel çapta etkili olmaya çalışsa da, farklı ülkelerdeki yasal eksikler ve denetim zorlukları nedeniyle gizlilik konusunda evrensel bir standardın oluşması zorlaşıyor. Üstelik, kullanıcılar teknolojik konfora hızla alışıyor, kurumlar ise veri odaklı iş modelleriyle rekabet avantajı kazanmaya devam ediyor. Dolayısıyla kişisel verilerin toplanmasının önünü tamamen kesmek pek olası değil.

Kime ne sorumluluk düşüyor?

Isaac Asimov’un üç robot kuralı, hayali bir gelecekte robotların etik çerçevelerini kısa ve net bir biçimde çiziyordu: İnsana zarar vermemek, itaat etmek ve kendi varlığını korumak. Bugünün yapay zekâ dünyasında ise bu ilkeler, devasa veri ağları ve yazılımlarla iç içe geçmiş çok daha karmaşık bir hâl alıyor. Asimov gibi “pozitronik beyinlerden” değil küresel ekonomiye ve toplumsal sistemlere nüfuz eden algoritmalardan bahsediyoruz.

Elbette “etik” başlığı altında değerlendirilen konular, sadece teknoloji meraklılarının meselesi değil. İnsan kaynaklarından devlet politikalarına, günlük hayattaki telefon uygulamalarından küresel dev şirketlere kadar herkesin sorumluluk alması gerekiyor. Yapay zekânın sınırlarını doğru çizebilmek için şeffaflık ve hesap verebilirlik mekanizmalarının net olması şart. Ayrıca, veri kaynaklı eşitsizliklerin ve önyargıların erken aşamada tespit edilmesi, teknolojiyi geliştiren ekiplerin konuya eleştirel bir perspektifle yaklaşması da büyük önem taşıyor.

🦉
Fayn, güç sahiplerini denetlemek, bakış açılarımızı genişletmek ve 21. yüzyılın enformasyon karmaşasına direnebilmek için var. Fayn'a sınırsız erişim için ücretli abonelerimiz arasına katılın. Abonelik seçeneklerini inceleyin.
Bağlantı kopyalandı!

Yazan:

Vorga Can

Vorga Can

Koç Üniversite Sosyoloji ve Uluslararası İlişkiler bölümlerinden mezun oldu. Forbes'ta gazetecelik yaptı. 2020'de yapay zeka şirketi Novus'u kurdu.