Anasayfa Makale İşe Alım Sürecinde Algoritmik Ayrımcılık ve...

Makale

Günümüzde yapay zeka ve algoritmaların işe alım süreçlerine entegrasyonu, işverenlere hız ve maliyet avantajı sağlarken, adayların temel hak ve özgürlükleri bağlamında derin hukuki tartışmalara yol açmaktadır. Bu makalede, işe alımdaki algoritmik ayrımcılık riski, iş hukuku ile kişisel verilerin korunması perspektifinden incelenmektedir.

İşe Alım Sürecinde Algoritmik Ayrımcılık ve Hukuki Etkileri

Endüstri 4.0'ın getirdiği teknolojik dönüşümle birlikte, işe alım süreçleri geleneksel mülakatlardan, yapay zeka destekli otonom sistemlere doğru hızla evrilmektedir. Günümüzde şirketler ve insan kaynakları departmanları, en uygun adayı belirlemek, süreçleri hızlandırmak ve operasyonel maliyetleri düşürmek amacıyla otomatik özgeçmiş tarayıcıları, tahmine dayalı analitik sistemler ve çeşitli dijital filtreleme araçlarına sıklıkla başvurmaktadır. Bu noktada, algoritmaların insan önyargılarından tamamen arınmış, objektif ve tarafsız kararlar ürettiği inancına dayanan dijital pozitivizm illüzyonu karşımıza çıkmaktadır. Oysa ki makine öğrenimine dayalı bu sistemler, insanların geçmiş kararlarını, değer yargılarını ve toplumsal eşitsizlikleri yansıtan büyük veri kümeleri ile eğitilmektedir. İş sözleşmesinin doğasındaki güç eşitsizliği, işe alım aşamasında adayın şeffaf olmayan teknolojik sistemler karşısında daha da savunmasız bir konuma düşmesine yol açmaktadır. Yapay zekanın veri açlığı ile beslenen bu ekosistem, adayların salt algoritmik değerlendirmelere tabi tutulmasıyla ayrımcılık yasağının ihlali riskini barındırmaktadır. Bu nedenle, işe alım süreçlerinin algoritmalar eliyle otonomlaşması, iş hukukunun işçiyi koruma ilkesi ve eşitlik prensipleri çerçevesinde çok boyutlu olarak yeniden ele alınmasını hukuki bir zorunluluk haline getirmiştir.

Algoritmaların İşe Alım Süreçlerindeki Kara Kutu Etkisi

İşe alım süreçlerinde kullanılan yapay zeka teknolojileri, adayların eğitim geçmişi, mesleki tecrübeleri, sosyal medya aktiviteleri, yazılı mülakatlarındaki kelime seçimleri, yüz ifadeleri ve hatta ses tonları gibi devasa boyutlardaki verileri eşzamanlı olarak işleyerek karmaşık örüntüler kurmaktadır. Derin öğrenme (deep learning) modelleriyle donatılmış bu karar sistemleri, çoğu zaman bizzat kendi geliştiricileri veya insan kaynakları uzmanları tarafından dahi tam olarak anlaşılamayan bir matematiksel yapıya dönüşerek kara kutu (black box) etkisi yaratmaktadır. Algoritmaların, adayların pozisyona uygunluğunu belirlerken tam olarak hangi ağırlıklandırılmış değişkenleri dikkate aldığı, hangi tali verilerin nihai sonucu nasıl etkilediği pratik olarak izlenemez ve dışarıdan yeniden oluşturulamaz durumdadır. İşverenlerin sadece sistem tarafından üretilen nihai uygunluk puanlamalarına ve sıralamalara güvenerek kararlarını bu otonom makinelere devretmesi, şeffaflık ve hesap verebilirlik ilkelerini derinden sarsmaktadır. İnsan analitiği adı verilen bu süreçlerde, algoritmalar geçmişte işletmede başarılı kabul edilen çalışanların profilini baz alarak yeni bir modelleme yapmakta, bu durum da adaylar hakkında verilen ret veya kabul kararlarının soyut, anlaşılamaz ve gizli karar alma süreçleriyle şekillenmesi sonucunu doğurmaktadır.

Algoritmaların yapıları gereği insanlardan daha tarafsız, rasyonel ve ayrımcı olmayan kararlar vereceği şeklindeki genel toplumsal kanı, bu dijital sistemlerin insan eliyle toplanan eğitim veri setlerine yüzde yüz bağımlı olduğu gerçeğini göz ardı etmektedir. Nitekim, algoritmalar geliştiricilerin sübjektif değer yargılarını, sektörel kabulleri ve geçmişteki ayrımcı uygulamaları içeren veriler üzerinden eğitildiklerinde, mevcut önyargıları kopyalayarak büyütmekte ve sistemik ayrımcılık adı verilen son derece tehlikeli yapısal bir ihlale yol açmaktadırlar. Bilinen en çarpıcı küresel örneklerden biri, teknoloji devlerinin geliştirdiği otomatik özgeçmiş tarama sistemlerinin, geçmiş istihdam verilerindeki erkek egemen yapıyı norm olarak öğrenmesi sebebiyle kadın adayların özgeçmişlerini sistematik olarak düşük puanlamasıdır. İlgili yapay zeka yazılımları, algoritmanın mantığı çerçevesinde salt "kadın" kelimesi geçen eğitim bilgilerini cezalandırmış, algoritmaların tarafsızlık kisvesi altında ne denli cinsiyetçi kararlar alabildiğini gözler önüne sermiştir. Algoritmik önyargı, sadece nihai puanlama sonuçlarıyla değil, karar verme sürecinin bizzat tasarımıyla belirlendiğinden, makine öğrenimi süreçlerindeki bu hataların dışarıdan fark edilip anında düzeltilmesi oldukça güçleşmektedir.

İş Hukukunda Eşitlik İlkesi ve Ayrımcılık Yasağı

Türk iş hukukunda iş sözleşmesinin kurulması aşamasındaki ayrımcılık yasağı, gücünü temel hak ve hürriyetlerin güvencesi olan Türkiye Cumhuriyeti Anayasası'nın eşitlik ilkesini düzenleyen 10. maddesinden almaktadır. Anayasal eşitlik çerçevesinin işçi ve işveren ilişkisine doğrudan yansıması niteliğindeki 4857 sayılı İş Kanunu’nun 5. maddesi, iş ilişkisinde dil, ırk, renk, cinsiyet, engellilik, siyasal düşünce, felsefi inanç, din ve mezhep gibi sebeplere dayalı hiçbir ayrım yapılamayacağını açıkça hüküm altına almıştır. İş Kanunu ilgili maddenin üçüncü fıkrasında ise, iş sözleşmesinin yapılmasında ve şartlarının oluşturulmasında özellikle cinsiyet veya gebelik nedeniyle adaya farklı işlem yapılamayacağını vurgulayarak doğrudan işe alım aşamasını koruma kapsamına dahil etmiştir. İstihdam süreçlerinde çok daha geniş bir hukuki koruma sunan 6701 sayılı Türkiye İnsan Hakları ve Eşitlik Kurumu Kanunu (TİHEK) ise, işe alım sürecini bölünmez bir bütün olarak ele almaktadır. Bu kanun, işveren veya yetkilendirilmiş insan kaynakları platformlarının bilgilenme, başvuru, seçim kriterlerinin belirlenmesi ve işe alım şartları dahil olmak üzere dijital süreçlerin hiçbir aşamasında ayrımcılık yapamayacağını belirterek algoritmik eşitsizliklere karşı çok güçlü bir yasal zemin sağlamaktadır.

Yapay zeka ve makine öğrenimi algoritmaları üzerinden istihdamda gerçekleşen ayrımcılık biçimleri genellikle hukuken dolaylı ayrımcılık kategorisinde karşımıza çıkmaktadır. Dolaylı ayrımcılık, görünüşte tarafsız, objektif ve eşitlikçi normlara dayanan ancak veri işleme pratiğinde belirli bir gruba mensup bireyleri diğerlerine kıyasla haksız yere dezavantajlı konuma düşüren gizli algoritmik eylem ve işlemlerdir. Modern işe alım algoritmaları, adayların yalnızca mesleki yetkinliklerini değil; sosyal medya hesaplarındaki kişisel beğenilerini, hafta sonu etkinliklerini, oyun oynama sıklıklarını veya aile yaşantılarına dair dijital ayak izlerini analiz ederek kişinin cinsel yönelimine, dini inancına veya sendikal üyelik eğilimlerine dair çıkarımlarda bulunabilmektedir. İşverenin meşru menfaati ve işin niteliğiyle doğrudan hiçbir illiyet bağı olmayan bu kişisel ve hassas veriler üzerinden adayın işe uygunluğu hakkında olumsuz bir dijital profilleme yapılması, adayın anayasal güvence altındaki çalışma hakkına ve eşit muamele görme haklarına yapılmış ölçüsüz bir müdahaledir. Bu süreç, işverenin kasıtlı niyetinden bağımsız olarak, sadece sistemin büyük veriler arasından bulduğu mantıksız korelasyonlar sonucunda dahi ortaya çıkabilmekte, böylece makinenin öğrenilmiş önyargıları bir insan hakları ihlaline dönüşmektedir.

İspat Yükü ve Sistemik Ayrımcılık Çıkmazı

İşe alım sürecinde algoritmalar tarafından gerçekleştirilen ayrımcılığın hukuken ispatlanması, iş hukuku uygulamasındaki en zorlu usuli meselelerden birini teşkil etmektedir. İş Kanunu’nun eşit işlem borcunu düzenleyen 5. maddesi, işçinin bir ihlalin varlığı ihtimalini güçlü bir biçimde gösteren bir durumu ortaya koyması halinde, işverenin böyle bir ihlalin mevcut olmadığını ispat etmekle yükümlü olduğunu belirterek ispat yükü bağlamında işçi lehine bir kolaylık sağlamaktadır. Ancak, algoritmaların erişilemez ve anlaşılamaz kapalı kod yapısı nedeniyle algoritmik bir filtrelemeyle mülakat dışı bırakılan bir adayın, hangi veri setlerinin veya gizli kodların ayrımcılığa sebep olduğunu gösteren kuvvetli emareleri mahkemeye sunması teknik olarak fiilen imkansızdır. Bu teknolojik bariyer karşısında, işe alım sürecinde tahmine dayalı yapay zeka araçları kullanıldığında, ayrımcı sonuç doğurmadığını ispat etme külfetinin doğrudan doğruya karar sistemini işleten veri sorumlusu işverene geçmesi gerektiği yönünde güçlü hukuki doktrinler gelişmektedir. Aksi takdirde, adayların algoritmik karar mekanizmasının gizli işleyişindeki önyargıları ispatlamaya zorlanması, adalete erişim hakkını kısıtlayacak ve eşitlik ilkesini temelden zedeleyecektir.

E-İşe Alımda Kişisel Verilerin İşlenmesi ve Rıza

Yapay zeka teknolojileriyle desteklenen otonom e-işe alım süreçleri, adayların istihdama eşit katılım haklarının yanı sıra kişisel verilerinin korunması hakkını da derinden ve doğrudan etkilemektedir. Hukuk sistemimizde bir veri kayıt sisteminin parçası olarak tamamen veya kısmen otomatik yollarla yapılan her türlü operasyonel faaliyet veri işleme kabul edilmektedir. İşe alımlardaki dijital dönüşümde, tahmine dayalı insan analitikleri, video mülakatlar üzerinden ses ve duygu tanıma sistemleri veya sosyal medya taramaları aracılığıyla adaylara dair genel nitelikli verilerin yanında, yüz hatları ve ses tınısı gibi çok daha hassas olan özel nitelikli kişisel veriler izinsiz işlenmektedir. Oysaki hukukun temel prensipleri gereği kişisel verilerin işlenmesi, kesinlikle işlemenin meşru amacıyla sınırlı, adayın iş tanımıyla bağlantılı ve ölçülü olmasını emretmektedir. İşverenin, adayın işteki performansını ölçmek bahanesiyle, işle hiçbir teknik alakası bulunmayan özel yaşantısına, siyasi görüşlerine veya ailevi kararlarına dair verileri algoritmalar aracılığıyla toplayıp profil oluşturması, amaca bağlılık ilkesinin açık ihlalidir. Tüm bu veri işleme süreçleri, adayın veri otonomisine ve kişiliğinin serbestçe geliştirilmesi hakkına ağır bir dijital müdahaledir.

Özel nitelikli kişisel verilerin yasal istisnalar haricinde işlenebilmesi, ancak ve ancak adayın yasal geçerliliğe sahip açık rızası ile mümkündür. Hukuken rızanın geçerliliği; mutlak surette belirli bir konuya ilişkin olmasına, yeterli düzeyde aydınlatma ve bilgilendirmeye dayanmasına, en önemlisi de hiçbir baskı altında kalmadan tamamen özgür iradeyle açıklanmış olmasına bağlıdır. İşe alım sürecinde iş arayan aday ile iş sağlama tekelini elinde tutan potansiyel işveren arasında henüz baştan kurulan devasa ekonomik ve hiyerarşik güç eşitsizliği, adayın dijital platformlarda tek tıkla vereceği rızanın ne denli özgür olduğu sorusunu derhal gündeme getirmektedir. Çoğu dijital işe alım platformunda, adayların video mülakat sırasında yüz tanıma, göz takibi veya ses analizi modüllerinin çalıştırılmasına onay vermemesi halinde algoritmik başvuru sürecini tamamlayamaması veya sıralamada arka plana düşürülmesi kuvvetle muhtemeldir. Herhangi bir makul alternatifi sunulmayan, iş bulma zorunluluğu nedeniyle adeta dayatılmış olan bu tür rıza senaryolarında, adayın bireysel irade özerkliğinin tamamen ortadan kalktığı ve verilen rızanın hukuken geçersiz bir illüzyondan ibaret kaldığı kabul edilmektedir. Bu bağlamda, algoritmaların doymak bilmeyen veri açlığını gidermek için sınırsız rıza toplanması hukuka aykırıdır.

Hukuki Çözüm Önerileri ve İşveren Sorumluluğu

İşverenlerin, işe alım kararlarının bağımsız bir makine, yazılım veya algoritma tarafından otonom şekilde alındığı gerekçesine sığınarak, adaylara yönelik olası algoritmik ayrımcılık sonuçlarından doğan hukuki sorumluluktan kaçınmaları kesinlikle mümkün değildir. İş hukuku öğretisinde işverenin işçi adaylarına karşı eşit davranma borcu, karar alma mekanizması hangi teknolojik veya dijital altyapıya devredilmiş olursa olsun hukuken kesintisiz devam etmektedir. Bu nedenle, işe alım algoritmalarının temel parametrelerinin tasarımında, yapay zekayı eğitecek veri setlerinin tarafsız seçiminde ve sistemin önerdiği nihai kararların fiilen uygulanmasında, işveren en başından itibaren asli sorumlu konumundadır. Yeni kabul edilen Avrupa Birliği Yapay Zeka Tüzüğü, istihdam ve işe alım gibi insan onurunu yakından ilgilendiren süreçlerde kullanılan tüm algoritmik karar sistemlerini yüksek riskli yapay zeka sistemleri olarak kesin biçimde sınıflandırmış, bu sistemlerin piyasaya sunulmadan ve işyerinde aktif olarak kullanılmadan önce çok sıkı temel hak etki değerlendirmelerine tabi tutulmasını yasal olarak zorunlu kılmıştır. Söz konusu regülasyonlar, yapay zekanın otonomisinin insan haklarını ihlal edecek boyuta ulaşmasını engellemeyi temel bir vizyon olarak benimsemektedir.

İşe alım süreçlerinde algoritmik ayrımcılığın önüne geçilebilmesi ve işçi adaylarının kişilik haklarının tam anlamıyla korunabilmesi için veri sorumlusu konumundaki işverenlerin bazı hukuki ve teknik yükümlülükleri titizlikle yerine getirmesi şarttır. Bu bağlamda işverenlerin alması gereken temel tedbirler şunlardır:

  • Kullanılan algoritmaların önyargı barındırıp barındırmadığına dair periyodik bağımsız algoritmik denetimlerin yapılması.
  • Yapay zekanın eğitiminde kullanılan büyük veri setlerinin cinsiyet, yaş ve etnik köken bakımından dengeli ve tarafsız biçimde çeşitlendirilmesi.
  • Tamamen makine inisiyatifine bırakılmış karar süreçleri yerine, insan-makine etkileşimini önceleyen etkili bir insan gözetimi mekanizmasının sistemin her aşamasında tesis edilmesi.
  • İş başvurusunda bulunan adayların, verilerinin yapay zeka tarafından işleneceği, analiz yöntemi ve sonuçları hakkında şeffaf biçimde aydınlatılması.
  • İşe alım kararlarının salt algoritmik çıktılara dayanmadığını gösteren, adil, hesap verebilir ve yasalara uyumlu düzenli insan hakları etki değerlendirme raporlarının oluşturulması.

Bu adımlar, hem olası uyuşmazlıklarda ispat kolaylığı sağlayacak hem de şirketlerin hukuki itibarını ve çalışan adaylarının anayasal haklarını güvence altına alan sağlam bir insan kaynakları altyapısı inşa edilmesine doğrudan zemin hazırlayacaktır.

Sonuç olarak, yapay zeka ve makine öğrenimi algoritmaları çalışma yaşamına getirdiği sayısız kolaylığın yanı sıra, insan onurunu, özel hayatın gizliliğini ve iş hukukunun temel taşı olan işçinin korunması ilkesini tehdit edebilecek ciddi boyutta etik ve hukuki riskler barındırmaktadır. Dijital teknolojilerin işe alım süreçlerini tamamen şeffaflıktan uzak, salt performansa veya geçmiş veri istatistiklerine dayanan soğuk bir kara kutu mantığıyla ele alması, ayrımcılık yasağının fark edilmeden ancak sistematik olarak ihlal edilmesine zemin hazırlamaktadır. İşverenlerin algoritmik tavsiyeleri mutlak ve yanılmaz bir nihai gerçeklik olarak kabul etmek yerine, bu dijital sistemlerin olası yanılgı, etiketleme ve önyargılarını sürekli olarak proaktif bir yaklaşımla denetleyen, şeffaf ve hesap verebilir bir yönetim kültürü sergilemesi yasal bir zorunluluktur. Sistemlerin gizli kodlarına ve teknolojik mazeretlere sığınmak, ulusal ve uluslararası mevzuatta yer alan eşit işlem yükümlülüklerini ortadan kaldırmayacaktır. İstihdamın geleceği; teknolojik yeniliklerin hızına ayak uydururken, aynı zamanda temel insan haklarını ve sosyal adaleti tavizsiz şekilde güvence altına alan çok disiplinli, dengeli ve insan merkezli bir hukuksal yapının acilen inşa edilmesine bağlıdır.

10 dk okuma Yayınlanma: Güncelleme: