Anasayfa Makale Video Mülakatlarda Algoritmik Ayrımcılık ve...

Makale

Yapay zekâ destekli video mülakat sistemleri, işe alım süreçlerinde verimliliği artırsa da algoritmik ayrımcılık riskini beraberinde getirmektedir. Bu makale, algoritmik ön yargıların neden olduğu eşitsizlikleri, Türk hukuku bağlamındaki sorumluluk rejimlerini, ispat zorluklarını ve hukuki yaptırımları avukat perspektifiyle incelemektedir.

Video Mülakatlarda Algoritmik Ayrımcılık ve Hukuki Boyutu

İşe alım süreçleri, dijitalleşmenin ve teknolojik ilerlemelerin etkisiyle geleneksel yöntemlerden hızla uzaklaşarak yapay zekâ destekli sistemlere doğru evrilmektedir. Özellikle yapay zekâ destekli video mülakat uygulamaları, işverenlere hem zaman hem de maliyet tasarrufu sağlayan, binlerce adayı kısa sürede hızla değerlendirme imkânı sunan yenilikçi araçlar olarak karşımıza çıkmaktadır. Ancak söz konusu bu teknolojik dönüşüm, beraberinde hukuki, etik ve sosyolojik boyutu oldukça derin olan sorunları da getirmektedir. İnsan kaynakları yönetiminin tamamen otonom algoritmalara bırakılması, adayların yalnızca birer veri profiline indirgenmesine ve değerlendirme sürecinin gayri insanileştirilmesine yol açabilmektedir. Daha da önemlisi, kendiliğinden herhangi bir ön yargı sahibi olmayan makinelerin, insan ürünü verilerle eğitilmeleri sonucunda insanlara ait ön yargıları öğrenmesi ve bunları sistematik bir boyuta taşıyabilmesidir. Bu durum, çalışma hayatına giriş aşamasında olan işçi adayları için çok ciddi bir algoritmik ayrımcılık riskini doğurmaktadır. Makalemizde, işe alım sürecinde kullanılan yapay zekâ destekli video mülakat uygulamalarının yol açabileceği söz konusu ayrımcılık riski, bu ayrımcılığın dezavantajlı gruplar üzerindeki spesifik etkileri ve ihlallerin Türk hukuku çerçevesindeki hukuki ve cezai yaptırımları ilgili mevzuat ışığında detaylı bir şekilde analiz edilecektir.

Yeni Nesil İşe Alım: Algoritmik Ön Yargı ve Ayrımcılık

Yapay zekâ algoritmaları her ne kadar duygusal etkenlerden arındırılmış, salt ve saf veriye dayalı mekanizmalar gibi görünseler de nihayetinde bütünüyle bir insan ürünüdürler. Bir algoritmanın karar verme kalitesi ve tarafsızlığı, o algoritmayı eğiten veri setlerinin niteliğine sıkı sıkıya bağlıdır. İnsan geliştiricilerin algoritmayı beslerken kullandığı öğrenme verilerinin bilinçli veya bilinçsiz ön yargılar içermesi ya da veriler arasında niteliksel ve niceliksel orantısızlıklar bulunması, algoritmik ön yargı sorununu doğrudan ortaya çıkarır. Algoritmanın, insan tercih ve yöntemlerinden kaynaklanan bu hatalı karar sezgilerini öğrenerek karar verme süreçlerine doğrudan yansıtması ise ayrımcı sonuçların kalıcı olarak doğmasına sebebiyet verir. İşe alım bağlamında değerlendirildiğinde bu durum, algoritmik ayrımcılık olarak tanımlanmaktadır. Veri setlerindeki eksiklikler, sistemin belirli özelliklere sahip gruplara karşı sistematik bir şekilde dışlayıcı kararlar almasına zemin hazırlamaktadır.

Bu bağlamda ayrımcılık, işçi adayları üzerinde doğrudan veya dolaylı ayrımcılık şeklinde tezahür edebilmektedir. Doğrudan ayrımcılık, benzer durumdaki kişiler arasında bir adayın ırk, cinsiyet, yaş veya engellilik gibi hukuken korunan bir özelliğine dayalı olarak meşru olmayan gerekçelerle işe alınmamasını ifade eder. Öte yandan dolaylı ayrımcılık ise ilk bakışta tamamen tarafsız ve adil görünen kural, ölçüt veya uygulamaların, belirli bir gruba mensup kişileri diğerlerine kıyasla orantısız bir şekilde dezavantajlı konuma düşürmesidir. Yapay zekâ destekli video mülakatlarda sistem, adayın beden dilini, mimiklerini veya ses tonunu analiz ederken, arka planda belirli bir demografik profile ait referans gruplarını ideal aday olarak kabul edebilir. Bu da diğer adayların, iş için gerekli tüm objektif yetkinliklere tam anlamıyla sahip olsalar dahi, sırf algoritmanın varsayılan ideal profiline uymadıkları gerekçesiyle elenmelerine yol açar.

Video Mülakat Sistemlerinin Dezavantajlı Gruplar Üzerindeki Etkisi

Yapay zekâ destekli video mülakat uygulamaları, adayın işe uygunluğunu derinlemesine değerlendirirken yüz ifadeleri, mikro mimikler, ses tonu, konuşma hızı ve kullanılan kelime dağarcığı gibi oldukça çeşitli biyometrik ve davranışsal veriyi analiz eder. Ancak, sistemin eğitim aşamasında kullanılan verilerin toplumdaki tüm grup ve bireyleri yeterince temsil etmemesi, dezavantajlı gruplar üzerinde telafisi güç hukuki mağduriyetler yaratmaktadır. Örneğin, yüz tanıma teknolojileri ile eğitilen bir yapay zekâ sisteminin eğitim veri setinde ağırlıklı olarak beyaz tenli bireylerin yer alması, algoritmanın koyu tenli adayların yüz ifadelerini okurken daha yüksek hata payıyla çalışmasına ve sonuçta cilt rengine dayalı ırksal bir ayrımcılık yapmasına neden olabilmektedir. Aynı şekilde, cinsiyet dağılımının dengesiz olduğu ve erkek çalışanların yoğunlukta olduğu bir sektör verisiyle eğitilen algoritma, uzun boy veya daha kalın bir ses tonu gibi fizyolojik özellikleri başarılı işçi profiliyle eşleştirerek liyakat sahibi kadın adayları haksız yere eleyebilmektedir.

Sadece görüntü değil, ses ve konuşma analizi yapan gelişmiş algoritmalar da benzer şekilde ciddi ayrımcılık riskleri barındırır. Algoritmanın belirli bölgesel şiveleri, yerel mecazları veya farklı aksanları anlamakta güçlük çekmesi, aynı teknik donanıma sahip adaylar arasında salt sosyoekonomik veya coğrafi kökene dayalı bir eşitsizlik ve adaletsizlik yaratır. Bunun da ötesinde, bedensel, nörolojik veya psikolojik farklılıkları olan adaylar, bu algoritmik sistemlerin oluşturduğu standartlaştırılmış değerlendirme ölçütleri karşısında büyük bir dezavantaja sahiptir. Kekemelik gibi konuşma bozuklukları olan, yüz felci geçirmiş olan veya otizm spektrumunda bulunup mülakat sırasında kamerayla göz teması kurmaktan kaçınan adaylar, algoritmalar tarafından yanlış değerlendirilerek sistem dışına itilebilir. Sistemin bu tür bireysel farklılıkları anlayacak düzeyde kapsayıcı ve geniş verilerle eğitilmemesi, bu bireylerin çalışma hayatından sistematik olarak dışlanmasına sebebiyet vermektedir.

Kara Kutu Etkisi ve İspat Zorluğu

Yapay zekâ algoritmalarının karar verme süreçlerinin öngörülemezliği ve karmaşıklığı, hukuk doktrininde genel olarak kara kutu etkisi olarak adlandırılan çok büyük bir şeffaflık sorununu beraberinde getirmektedir. Gelişmiş derin öğrenme modellerinin bir sonuca hangi ağırlıktaki spesifik verileri kullanarak ve hangi matematiksel yolları izleyerek ulaştığı, çoğu zaman algoritmayı bizzat geliştiren mühendisler tarafından dahi tam ve kesin olarak açıklanamamaktadır. İşe alım sürecinde yapay zekâ destekli bir sistem tarafından başvurusu reddedilen adayın, bu kararın cinsiyeti, ırkı veya engellilik durumu nedeniyle alındığını yasal merciler önünde kesin olarak kanıtlaması bu nedenle neredeyse imkânsız hâle gelmektedir. Zira algoritmanın ulaştığı nihai karar ile ortaya çıkan hukuki zarar arasında doğrudan ve yalın bir nedensellik bağı kurmak yerine, çözümlenmesi güç karmaşık istatistiksel ilişkisellikler söz konusudur.

Türk hukuku kapsamında bir zararın maddi veya manevi olarak tazmin edilebilmesi için kural olarak zarar görenin, maruz kaldığı zararı ve failin kusurunu kanıtlaması gerekmektedir. Ancak algoritmik ayrımcılık vakalarında, veri setlerinin gizliliği ve algoritmanın nasıl çalıştığına dair teknik bilgilerin ticari sır gerekçesiyle adaydan ve kamudan saklanması, kanıtlama yükünü taşıyan işçi adayını hukuken çaresiz bırakmaktadır. Aday, değerlendirme sürecinde yapay zekâ sistemlerinin aktif olarak kullanıldığından dahi tamamen habersiz olabilir. Şeffaflık unsurunun bulunmadığı bu yapı, adayın hak arama hürriyetini derinden zedelerken, işverenin de algoritmanın arkasına sığınıp sorumluluktan kolayca kaçmasına neden olmaktadır. Söz konusu şeffaflık eksikliği, ayrımcılık yasağının ihlalinin adli mercilerce tespitini çıkmaza sürükleyen en temel hukuki engellerden biri olarak karşımızda durmaktadır.

Türk Hukuku Çerçevesinde Algoritmik Ayrımcılığın Yaptırımları

Türk hukuk sisteminde yapay zekâ destekli mülakat uygulamalarına özgü, doğrudan çerçevesi çizilmiş ve sınırları belirlenmiş özel bir kanuni düzenleme henüz mevcut değildir. Ancak meydana gelen algoritmik ayrımcılığa karşı mevcut anayasal ve yasal güvencelerin kıyasen veya doğrudan işletilmesi mümkündür. Anayasa'nın 10. maddesinde düzenlenen kanun önünde eşitlik ilkesi, sadece devlet organlarını ve idare makamlarını değil, Anayasa Mahkemesi'nin yerleşik içtihatları doğrultusunda özel hukuk tüzel kişilerini ve bireyleri de bağlamaktadır. Bununla birlikte, iş ilanları gibi kimliği henüz belirli olmayan geniş kitlelere yönelik ayrımcı algoritma kullanımlarında, ilgili Anayasa hükmünün doğrudan işletilmesi uygulamada oldukça zordur. Bu noktada, Türkiye İnsan Hakları ve Eşitlik Kurumu Kanunu (TİHEKK) devreye girer. TİHEKK'in 6. maddesi, işe alım şartları, seçim kriterleri ve iş ilanları da dâhil olmak üzere iş ilişkisinin öncesindeki tüm süreçlerde ayrımcılık yapılmasını kesin bir dille yasaklar. Dolayısıyla, bir yapay zekâ sisteminin iş başvurularında algoritmik ayrımcılığa yol açması, doğrudan TİHEKK kapsamındaki ihlalleri doğurur.

Öte yandan, 4857 sayılı İş Kanunu'nun 5. maddesi iş ilişkisinde ayrımcılık yasağını ve eşit davranma yükümlülüğünü özel olarak düzenlemektedir. İlgili maddenin 3. fıkrası uyarınca, işveren, iş sözleşmesinin yapılmasında cinsiyet veya gebelik nedeniyle doğrudan veya dolaylı olarak herhangi bir ayrım yapamaz. Ancak, maddenin 6. fıkrasında öngörülen ve uygulamada ayrımcılık tazminatı olarak bilinen dört aya kadar ücret tutarındaki yaptırımın yasal lafzında "iş ilişkisinde veya sona ermesinde" ibaresi kullanıldığından, henüz fiili bir iş ilişkisinin kurulmadığı işe alım aşamasında bu tazminatın talep edilip edilemeyeceği doktrinde yoğun şekilde tartışılmaktadır. Hukuktaki baskın görüş, sadece mülakat aşamasında kalan ve işe alım sürecinde ayrımcılığa uğrayan adayın İş Kanunu'ndaki bu özel ayrımcılık tazminatından yararlanamayacağı, bunun yerine Borçlar Hukuku'nun temel genel hükümlerine başvurması gerektiği yönündedir.

Borçlar Hukuku Kapsamında Sorumluluk ve Tazminat

İş sözleşmesinin resmen kurulması maksadıyla başlatılan görüşmeler, işveren ile işçi adayı arasında hukuki anlamda bir sosyal temas oluşturur ve taraflar arasında bütünüyle dürüstlük kuralına dayanan özel bir güven ilişkisi doğar. Bu ilişki, daha en başından taraflara birbirlerinin kişilik haklarına ve malvarlığı değerlerine zarar vermeme yönünde koruyucu yan yükümlülükler yüklemektedir. İşverenin yapay zekâ destekli mülakat uygulamasında gerekli önlemleri almayarak algoritmik ayrımcılığa sebep olması, adayın kişilik haklarını açıkça zedeleyerek bu koruyucu yükümlülüklerin kusurlu bir şekilde ihlali anlamına gelir. Doktrinde sözleşme görüşmelerinde kusur sorumluluğu (culpa in contrahendo) olarak adlandırılan bu özel durum, işçi adayının uğradığı maddi ve manevi zararların tazminini yasal olarak talep etmesine olanak tanır. İşverenin, hukuka aykırı algoritma kullanımıyla adayın haklı güvenini sarsması sözleşme benzeri bir sorumluluk rejimini gündeme getirmektedir.

Adayın kişilik haklarının ve bütünlük menfaatinin ihlal edilmesi durumunda, 6098 sayılı Türk Borçlar Kanunu'nun haksız fiil sorumluluğu hükümlerini düzenleyen 49. maddesi de doğrudan gündeme gelebilecektir. Algoritmanın hatalı kararı tek başına hukuki anlamda insan iradesine dayalı bir fiil sayılmasa da, işverenin ayrımcılık riski taşıyan böyle bir sistemi bilerek ve isteyerek işe alım sürecine dâhil etmesi insan iradesini yansıttığından, hukuka aykırı fiil unsuru gerçekleşmiş kabul edilir. İspat zorluklarını aşmak adına başvurulabilecek bir diğer güçlü yol ise TBK'nin 66. maddesinin 3. fıkrasında düzenlenen adam çalıştıranın sorumluluğu kapsamındaki organizasyon sorumluluğudur. Bu, bir kusursuz sorumluluk hâli olup, işverenin işyerindeki algoritmik karar mekanizmalarının hiçbir zarara yol açmaması için gerekli tüm idari ve teknik tedbirleri almakla yükümlü kılındığı, aksi takdirde kusuru aranmaksızın doğan tüm zararı tazmin etmek zorunda kaldığı son derece sağlam bir hukuki dayanak sunmaktadır.

Üretici Sorumluluğu ve Cezai Yaptırımlar

Algoritmik ayrımcılık vakalarının giderek karmaşıklaşmasıyla, bu sistemi işyerine entegre edip kullanan işverenin yanı sıra, yapay zekâ uygulamasını bizzat geliştiren ve pazarlayan üreticinin hukuki sorumluluğu da mutlaka tartışılmalıdır. 7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu'nun (ÜGTDK) 6. maddesi, piyasaya sunulan ürünün bir kişiye veya mala zarar vermesi hâlinde, imalatçının kusursuz bir şekilde sorumlu olduğunu açıkça düzenlemektedir. Ön yargılı ve ayrımcı algoritmalarla tasarlanmış bir video mülakat yazılımının, işçi adayının kişilik haklarını ağır biçimde ihlal etmesi, bu yasa kapsamında "kişiye verilen zarar" statüsünde değerlendirilebilir. İşçi adayı, işe alınmama nedeniyle elde edemediği maaş gibi saf malvarlığı zararlarını doğrudan bu kanuna dayanarak talep edemese de, algoritmik ayrımcılığın yarattığı manevi sarsıntı ve kişilik hakkı ihlali sebebiyle doğrudan yapay zekâ yazılım üreticisine karşı tazminat yollarına başvurma imkânına her zaman sahiptir.

Olayın ceza hukuku boyutu incelendiğinde ise, 5237 sayılı Türk Ceza Kanunu'nun (TCK) nefret ve ayrımcılık suçunu düzenleyen 122. maddesi doğrudan devreye girmektedir. İlgili madde hükmü uyarınca; dil, ırk, milliyet, renk, cinsiyet, engellilik veya dini inanç farklılığından kaynaklanan nefret saikiyle bir kişinin işe alınmasını haksız yere engelleyen kimse, bir yıldan üç yıla kadar hapis cezası ile cezalandırılmaktadır. Yapay zekâ sisteminin temel algoritmasında kanunla korunan bu hassas niteliklere yönelik ayrımcı bir işleyişin bulunması ve işverenin bu sonuçları önceden bilerek, öngörerek işe alım sürecinde söz konusu uygulamayı kullanmaya devam etmesi, ayrımcılık kastının varlığına karine teşkil edebilir. Tüzel kişi olan işveren şirketler veya yazılım firmaları hakkında ceza hukukunun doğası gereği hapis cezası uygulanamayacağından, bu tür ağır suçların işlenmesi hâlinde ilgili tüzel kişilere özgü güvenlik tedbirlerine hükmedilmesi hukuken son derece olasıdır.

Çözüm Önerileri: İnsan Gözetimi ve Şeffaflık İlkesi

Algoritmik ayrımcılığın iş hayatındaki yıkıcı ve kalıcı etkilerinin önüne geçilebilmesi için salt cezai ve hukuki yaptırımların ötesinde, önleyici idari politikaların ve sıkı regülasyonların hayata geçirilmesi zorunludur. Tüm dünyada tartışılan başlıca temel çözüm önerilerinden biri, otonom karar alma süreçlerinde mutlak surette insan gözetimi odaklı bir yaklaşımın benimsenmesidir. Avrupa Birliği Yapay Zekâ Yasası metinlerinde de kuvvetle vurgulandığı üzere, işe alım gibi bireylerin geleceğini etkileyen yüksek riskli alanlarda kullanılan algoritmik sistemler, mutlaka insan müdahalesine ve nihai kontrolüne izin verecek şekilde tasarlanmalıdır. İnsani empati ve vicdani duygu analizi yeteneğinden tamamen yoksun olan yapay zekâ mekanizmaları, işe alımda nihai karar verici yegâne otorite olmamalı; yalnızca insan kaynakları uzmanlarını teknik anlamda destekleyen analitik bir araç pozisyonunda sınırlandırılmalıdır.

Bununla birlikte, şeffaflık, hesap verebilirlik ve verilerin güvenilirliğinin yasal olarak sağlanması, adil ve eşitlikçi bir işe alım süreci için vazgeçilmez bir unsurdur. Yapay zekâ destekli mülakat süreçlerinde adayların haklarını korumak adına alınması gereken temel idari ve teknik tedbirler şu şekilde sıralanabilir:

  • Sistem eğitim verilerinde toplumun tüm kesimlerini nesnel şekilde yansıtan, dezavantajlı grupları da mutlaka kapsayan nitelikli ve çok çeşitli veri setlerinin kullanılması.
  • Algoritmaların potansiyel ön yargılar barındırıp barındırmadığına dair bağımsız kuruluşlarca gerçekleştirilen periyodik denetim mekanizmalarının zorunlu kılınması.
  • İşçi adaylarının, değerlendirmede kesinlikle yapay zekâ kullanıldığına ve bu sistemin hangi parametrelere ağırlık vererek karar ürettiğine dair açık ve anlaşılır bir dille önceden bilgilendirilmesi.
  • Algoritmanın içinden çıkılmaz bir kara kutu olmaktan tamamen çıkarılarak, aday aleyhine verilen olumsuz kararların makul ve gerekçelendirilebilir (açıklanabilir) bir şeffaflığa acilen kavuşturulması.
  • Karar verme süreçlerinde işlenen davranışsal ve biyometrik verilerin, yalnızca önceden açıkça belirtilen meşru işe alım amacıyla sınırlı, bağlantılı ve ölçülü olarak muhafaza edilip kullanılması.

Sonuç olarak, yapay zekâ destekli video mülakat sistemleri, modern çalışma hayatına son derece yenilikçi ve hızlı çözümler sunarken, algoritmik ayrımcılık gibi çok derin ve çok katmanlı hukuki ihlal risklerini de kaçınılmaz olarak beraberinde getirmektedir. Mevcut Türk hukuk sistemindeki genel kanuni düzenlemeler, ortaya çıkan bu yeni nesil zararları tazmin etme bağlamında birtakım hukuki çareler sunsa da, eşitsizlikleri doğmadan kökünden engelleme işlevinde açıkça yetersiz kalmaktadır. Avrupa Birliği nezdinde yaşanan güncel yasal gelişmeler de yakından takip edilerek, işçi adaylarının mahremiyetini ve fırsat eşitliği temelinde muamele görme hakkını koruyacak, yapay zekânın çalışma hayatındaki bu yoğun kullanımına özgü somut kanuni düzenlemelerin ivedilikle hayata geçirilmesi elzemdir. Unutulmamalıdır ki, ancak şeffaf, her aşaması hesap verebilir ve nihai insan denetimine sıkı sıkıya tabi bir algoritmik yapı ile adil, tarafsız ve hukuka tam uyumlu bir işe alım ekosistemi inşa edilebilir.

11 dk okuma Yayınlanma: Güncelleme: