Makale
Yapay zekâ ve algoritmik karar alma sistemleri, günümüzde işe alımdan yargı süreçlerine kadar pek çok alanda kullanılmaktadır. Ancak bu sistemler; ön yargılı veri setleri, yetersiz eğitim verileri ve vasıtalı öğrenme gibi nedenlerle dezavantajlı gruplar aleyhine ayrımcılık yaratabilmekte ve temel insan hakları ihlallerine yol açabilmektedir.
Algoritmik Karar Alma Süreçlerinde Ayrımcılık İhlalleri
Günümüzde yapay zekâ ve makine öğrenmesi teknolojilerindeki hızlı ilerleme, bankacılıktan yargıya, işe alımdan lojistiğe kadar birçok alanda algoritmik karar alma süreçlerini hayatımızın merkezine yerleştirmiştir. Büyük veri kümelerini işleyerek belirli bir girdiden istenen çıktıya ulaşmayı hedefleyen bu sistemler, genellikle doğruluk ve verimlilik gibi olumlu niteliklerle anılmaktadır. Ancak uygulamada algoritmaların karar verme süreçlerine dâhil edilmesi, her zaman tarafsız sonuçlar doğurmamaktadır. İnsanların karar verici rolünü destekleyen veya tamamen üstlenen bu sistemler, sahip oldukları algoritmik yapı ve beslendikleri veriler nedeniyle ayrımcılık yasağını ihlal eden haksız sonuçlar üretebilmektedir. Algoritmik ayrımcılık olarak adlandırılan bu durum, teknolojinin tarafsız olduğu yönündeki yaygın inanışı sorgulatmakta ve hukuki açıdan ciddi temel hak ihlallerine zemin hazırlamaktadır.
Algoritmik Ayrımcılığın Temel Nedenleri
Yapay zekâ sistemlerinin haksız ve eşitliğe aykırı kararlar almasının temelinde yatan en önemli unsur, ön yargılı eğitim verileri kullanımıdır. Bir yapay zekâ modelinin öğrenmesi ve tahminlerde bulunabilmesi için eğitildiği veri kümesi, gerçek dünyadaki toplumsal eşitsizlikleri ve tarihsel ön yargıları barındırıyorsa, ortaya çıkan sonuçlar da bu ön yargıları yeniden üretecektir. Geliştiriciler tarafından yetersiz eğitim verileri kullanılması da benzer şekilde hukuka aykırı ayrımcılığa neden olmaktadır. Verilerin toplumda eşit olarak oluşturulmaması, azınlık gruplarının dijital uçurum nedeniyle veri kümelerinde eksik temsil edilmesine yol açar. Bu temsiliyet eksikliği, sistemin belirli gruplara yönelik hatalı kararlar almasına, örneğin yüz tanıma sistemlerinde bazı etnik kökenlerin veya cinsiyetlerin yanlış tanınmasına sebebiyet vererek doğrudan ayrımcılık yaratmaktadır.
Vasıtalı ve Kasıtlı Ayrımcılık Uygulamaları
Algoritmalar, ırk, etnik köken veya cinsiyet gibi hassas kişisel verileri doğrudan işlemeseler bile, diğer değişkenler üzerinden korelasyonlar kurarak vasıtalı ayrımcılık yapabilmektedir. Sistemin maliyet veya verimlilik gibi görünüşte tarafsız kriterlere dayanarak aldığı kararlar, örneğin belirli bir posta kodunu temel alarak hizmet sunması, o bölgede yaşayan belirli bir etnik kökene dayalı ayrımcılık sonucunu doğurabilmektedir. Bununla birlikte, algoritmaların kötü niyetli kullanımıyla kasıtlı ayrımcılık da söz konusu olabilmektedir. Hedefli reklamcılık veya kredi finansman algoritmalarında, belirli bir demografinin bilinçli olarak dışlanması suretiyle ekonomik fırsat eşitsizliği yaratılabilmekte ve bireylerin hukuken tanınmış haklardan eşit şekilde yararlanmaları kasıtlı olarak engellenebilmektedir.
Algoritmik Karar Alma Süreçlerinde Emsal Vakalar
Teorik bağlamda hukuki bir sorun teşkil eden algoritmik ayrımcılık, uygulamada pek çok farklı sektörde insan hakları ihlallerine neden olmuştur. Hukuk uygulamaları açısından bu vakaların incelenmesi, algoritmik karar alma mekanizmalarının taşıdığı risklerin boyutunu anlamak için büyük önem taşımaktadır. Aşağıda yapay zekânın ayrımcılık yasağını ihlal ettiği temel vakalar özetlenmiştir:
- İşe alım süreçlerinde kullanılan algoritmalar, geçmişteki erkek ağırlıklı istihdam verileriyle eğitildiği için kadın adaylara karşı ön yargılı davranmış ve maskülen ifadeleri tercih ederek cinsiyet temelinde ayrımcılık yapmıştır.
- Biyometrik tanımlama maksatlı araçların yetersiz eğitim verileriyle beslenmesi sonucunda, siyahi bireylerin veya Asyalıların yanlış suçlamalara maruz kalmasına yol açan hatalı eşleştirmeler yaşanmıştır.
- Ceza adaletinde faydalanılan risk değerlendirme araçları, belirli etnik kökene sahip sanıkları haksız yere daha yüksek riskli olarak sınıflandırma eğilimi göstererek ırksal ön yargıları yargı kararlarına taşımıştır.
Arama Motorlarında Gözlemlenen Ayrımcı Eğilimler
İnternet kullanıcılarının en temel bilgi kaynağı olan arama motorları teknolojisi, sahip olduğu algoritmalar aracılığıyla da ayrımcı eğilimleri güçlendirme potansiyeline sahiptir. Özellikle otomatik tamamlama önerileri ve görsel arama sonuçları, toplumsal kalıp yargıları doğrudan yansıtarak cinsiyetçi ve ırkçı içerikleri en üst sıralara taşıyabilmektedir. Algoritmaların, kullanıcıların tıklama davranışlarından öğrenerek belirli grupları olumsuz imajlar veya suç kayıtlarıyla ilişkilendiren reklamlar sunması, kişilik haklarına ve ifade özgürlüğüne zarar verebilmektedir. Geliştirici şirketler, bu sonuçların tamamen otomatik süreçlerin bir yansıması olduğunu iddia ederek hukuki sorumluluktan kaçınmaya çalışsalar da arama motorlarının ayrımcılığı azaltmak amacıyla algoritmalarını şeffaf bir şekilde denetlemeleri ve ayrımcı içerikleri filtrelemeleri hukuk devleti ilkesinin bir gereğidir.