Yapay Zeka ile Otomatik Karar Alma ve Veri İşleme Süreçleri
Yapay zeka* sistemleri, işyerlerinde profil oluşturma ve otomatik karar alma süreçlerini dönüştürmektedir. Bu makale, yapay zekanın veri işleme faaliyetlerindeki rolünü, kara kutu problemi*ni ve bireylerin otomatik kararlara itiraz haklarını kişisel veri koruma hukuku ile uluslararası yasal düzenlemeler çerçevesinde incelemektedir.
Teknolojinin hızla gelişmesi ve dijitalleşmenin hayatın her alanına derinlemesine entegre olması, çalışma hayatında da köklü dönüşümlere ve yeni hukuki tartışmalara yol açmıştır. İşyerlerinde uygulanan geleneksel insan odaklı veri faaliyetlerinin yerini, gelişmiş algoritmalar ve makine öğrenmesi modelleriyle donatılmış, otonom çalışabilen yapay zeka sistemleri almaya başlamıştır. Özellikle modern işçi-işveren ilişkisinde teknolojik cihazların kullanımıyla elde edilen verilerin devasa boyutlara ulaşması, bu büyük verilerin insan eliyle olağan yollarla analiz edilmesini neredeyse imkansız hale getirmiş ve otomatik karar verici mekanizmaların kullanımını adeta zorunlu kılmıştır. Yapay zeka sistemleri, çalışanlardan elde edilen büyük hacimli verileri büyük bir hızla analiz ederek geleceğe yönelik tahminlerde bulunma, performans değerlendirmesi yapma, iş süreçlerini optimize etme ve nihai hukuki sonuç çıkarma gibi son derece kritik işlevleri yerine getirmektedir. Ancak, işyerlerindeki bu otomasyon süreci yalnızca operasyonel hız ve verimlilik artışı sağlamamakta, aynı zamanda veri güvenliği, algoritmik ayrımcılık ve karar alma süreçlerinin açıklanabilirliği gibi son derece yeni ve karmaşık hukuki sorunları da beraberinde getirmektedir. İş hukukunda ve kişisel verilerin korunması hukukunda, kişisel verilerin otonom sistemlere devredilmesi, mevcut yasal çerçevenin teknolojik yeniliklere uyum sağlayacak şekilde yeniden yorumlanmasını gerektirmektedir.
Yapay Zeka Destekli Profilleme ve Otomatik Karar Alma
Kişisel verilerin yapay zeka tarafından işlenmesi sürecinde hukuki açıdan en çok karşılaşılan kavramların başında profilleme ve otomatik karar alma süreçleri gelmektedir. Avrupa Birliği Genel Veri Koruma Tüzüğü (GDPR) kapsamında profilleme, bir gerçek kişiyle ilgili bazı spesifik kişisel özellikleri değerlendirmek, özellikle söz konusu gerçek kişinin işteki genel performansı, ekonomik durumu, fiziksel ve ruhsal sağlığı, kişisel tercihleri, davranışları ve konumu gibi kritik hususları analiz etmek amacıyla kişisel verilerin otomatik olarak işlenmesi biçimi şeklinde tanımlanmaktadır. Bu otomatik işlem, bireyin geçmiş ve mevcut davranışlarının bütünüyle analiz edilerek onu izleyen veya gelecekteki davranışları hakkında algoritmik tahminlerde bulunulmasını sağlar. İşçilerin gün içindeki hareketleri, mola süreleri, iletişimleri veya bilgisayar kullanımları üzerinden elde edilen devasa veriler, yapay zeka algoritmaları tarafından derinlemesine incelenerek her bir çalışan için son derece spesifik ve kapsamlı bir profil oluşturulmasına zemin hazırlar. Oluşturulan bu profiller, genellikle insan müdahalesine gerek duyulmaksızın kendi başına işleyen otonom karar mekanizmalarının temel veri kaynağını oluşturur. Profilleme faaliyeti, salt sıradan bir veritabanı oluşturmaktan ziyade, çalışanın gelecekteki olası davranışlarını şimdiden öngörmeyi ve bu öngörüler üzerinden stratejik adımlar atmayı mümkün kılan son derece etkili bir veri işleme sürecidir.
Otomatik karar alma süreci ise, çeşitli yöntemlerle elde edilen kişisel verilerin önceden belirlenmiş kodlar ve algoritmik kriterler çerçevesinde bütünüyle değerlendirilerek insan müdahalesi veya denetimi olmaksızın kişi hakkında kesin ve bağlayıcı hukuki sonuçlar doğuracak şekilde kararlar verilmesi operasyonudur. İş sözleşmesinin fiilen sürdüğü dönemde, işçinin mevcut verimlilik düzeyinin ölçülmesi, maaş artış veya prim oranlarının belirlenmesi, işyerinde terfi alıp almayacağına nihai olarak karar verilmesi veya daha da uç bir örnekle iş sözleşmesinin feshine yönelik otonom değerlendirmelerin yapılması doğrudan bu kapsamda yer alır. Dünyaca ünlü çok uluslu teknoloji şirketlerinin güncel işe alım süreçlerinde, mülakat esnasındaki jest, mimik ve ses tonu gibi verileri dahi kullanarak adayları otonom olarak eleyen ve sıralayan ileri yazılımlar bu duruma oldukça çarpıcı örneklerdir. Bu otonom sistemlerde, sisteme giren girdi verileri ile nihai çıktı kararları arasındaki bağlantı tamamen yazılımsal kurallar ve yapay sinir ağları ile kurulur ve karar sürecinde insan aklının muhakeme yeteneği, sezgisi ve vicdanı tamamen saf dışı bırakılır. Dolayısıyla, salt algoritmik makine öğrenmesine dayalı bu işlemlerin hukuki niteliği ve adil olup olmadığı hukuk dünyasında çok ciddi tartışmalara yol açmaktadır.
Otomatik Karar Alma Süreçlerinde Kara Kutu Problemi
Yapay zeka sistemleri, özellikle makine öğrenmesinin gelişmiş alt dalı olan derin öğrenme ve yapay sinir ağları kullanan kompleks mimarilerde, insan beyninin fonksiyonlarını taklit ederek son derece karmaşık hesaplamalar yapabilmektedir. Ancak, sisteme başlangıçta sunulan milyonlarca veri ile sistemin en sonunda ürettiği hukuki çıktı veya karar arasındaki bağlantının tam olarak nasıl kurulduğu, algoritmaların hangi değişkenlere ne ölçüde ağırlık verdiği çoğunlukla sistemin kodlayıcıları ve tasarımcıları tarafından dahi tam anlamıyla bilinememektedir. Modern hukuk ve teknoloji literatüründe bu ciddi açıklanamazlık ve anlaşılamazlık durumu haklı olarak "kara kutu problemi" şeklinde isimlendirilmektedir. Otonom karar verici yapay zeka sistemleri, olayları sıradan insanların yaptığı gibi hukuki ve mantıksal bir nedensellik bağı ile değil, devasa veri yığınları arasındaki istatistiksel korelasyonları tespit ederek bütüncül şekilde değerlendirir. Örneğin, bir algoritmanın bir çalışanın verilerine dayanarak terfi etmemesi gerektiğine otomatik olarak karar vermesi durumunda, bu kararın ardındaki mantıksal, hukuki ve nedensel süreçlerin şeffaf bir şekilde ortaya konulamaması, söz konusu kararın doğruluğu ve adilliği konusunda derin şüpheler uyandırmaktadır. İşlemin algoritmik niteliği gereği kararın tam olarak neden alındığına dair insani ve mantıklı bir gerekçe ne yazık ki sunulamamaktadır.
Kara kutu problemi olarak adlandırılan bu teknolojik belirsizlik, modern veri koruma hukukunun en temel taşlarından olan şeffaflık ilkesi ve hesap verebilirlik ilkesi ile doğrudan ve şiddetli bir biçimde çatışmaktadır. Hukuktaki şeffaflık ilkesi, kişisel verilerin işlenmesinde kullanılan dijital veya fiziksel yöntemlerin ilgili veri özneleri tarafından açıkça erişilebilir, tamamen anlaşılabilir ve önceden öngörülebilir olmasını emrederken; hesap verebilirlik ilkesi ise veri sorumlusunun yürüttüğü her türlü veri işleme faaliyetinin mevzuata tam uygunluğunu tereddütsüz bir biçimde ispat edebilmesini yasal olarak gerektirir. Algoritmik otonom sistemin insanları doğrudan etkileyen bir kararı nasıl verdiğinin hukuken izah edilememesi, çalışanların haklarında verilen kararlara karşı yargı yoluna başvurarak etkin bir şekilde itiraz etmelerini de fiilen imkansız hale getirmektedir. Bu karmaşık hukuki tıkanıklığı teknik yollarla aşabilmek için, yapay zeka sistemlerinin donanımsal iç yüzüne girmeden de elde edilen sonuçları yorumlamayı mümkün kılan Açıklanabilir Yapay Zeka (Explainable AI) kavramı son yıllarda geliştirilmiştir. Bu yeni yaklaşım sayesinde, hukuki birer varlık olan kişilerin salt istatistiksel ve algoritmik birer veri yığını gibi değerlendirilerek tamamen şeffaf olmayan mekanizmalarca hak kaybına uğratılmasının önüne geçilmesi hukuken hedeflenmektedir. Yasal düzenlemeler, makine zekasının mutlak surette insan denetimi altında çalışmasını zorunlu kılmaktadır.
Açıklanabilir Yapay Zeka ve Çözüm Yöntemleri
Kara kutu probleminin yarattığı hukuki belirsizlikleri bertaraf etmek ve verilen otomatik kararları insan aklının tam anlamıyla kavrayabileceği, yasal olarak denetlenebilir sağlam bir zemine oturtmak amacıyla günümüzde çeşitli açıklanabilir yapay zeka algoritmik yöntemleri kullanılmaktadır. Bunlardan ilki olan ve literatürde LIME (Yerel Yorumlanabilir Model-agnostik Açıklamalar) yöntemi olarak bilinen sistem, algoritmaya sunulan asıl girdi verilerini bilinçli ve sistematik bir şekilde bozarak bunun nihai çıktı üzerindeki etkisini detaylıca ölçmeyi ve bu sayede basit, dışarıdan anlaşılır yeni bir model oluşturarak asıl kararın kök nedenini tespit etmeyi matematiksel olarak hedefler. Bir diğer önemli yöntem olan Karşı Olgusal Açıklama (Counterfactual Explanation) tekniği ise otonom sistemi doğrudan geriye dönük sorgulayarak, "Geçmişte hangi temel koşullar farklı olsaydı bugün bu karar değişirdi?" mantığıyla işler. Başlangıç girdi verilerinde yapılan minimal ama stratejik değişikliklerin, yapay zeka sisteminin otonom kararını değiştirip değiştirmediği test edilerek karara doğrudan etki eden ana faktörler hukuken belirlenir. Geliştirilen bu yeni yöntemler, otonom kararların arkasındaki gizli algoritmik parametreleri bütünüyle şeffaflaştırarak, çalışanların maruz kaldığı otomatik işlemlerin açık rıza şartlarına ve bireylerin temel hak ve özgürlüklerine hukuken uygun olup olmadığını denetleme imkanı sunar.
İşçilerin Otomatik Kararlara İtiraz Etme Hakkı
Kişisel verilerin korunmasına ilişkin güncel yasal düzenlemeler, bireyleri otonom yazılım sistemlerinin ve algoritmaların mutlak egemenliğinden hukuken korumak adına çeşitli ve güçlü itiraz mekanizmaları ihdas etmiştir. Bu sıkı yasal çerçevede, 6698 sayılı Kişisel Verilerin Korunması Kanunu'nun 11. maddesi uyarınca herkes, ilgili veri sorumlusuna yazılı olarak başvurarak bizzat kendisiyle ilgili işlenen kişisel verilerin münhasıran otomatik sistemler vasıtasıyla algoritmik olarak analiz edilmesi suretiyle kişinin kendisi aleyhine olumsuz hukuki bir sonucun ortaya çıkmasına itiraz etme mutlak hakkına yasal olarak sahiptir. İş sözleşmesi halihazırda devam eden veya yeni bir iş başvurusu yapan bir adayın, yalnızca yapay zeka algoritmaları kullanılarak profillenmesi ve bunun sonucunda örneğin nedensizce işten çıkarılması, hak ettiği terfisinin engellenmesi ya da mülakatı geçip işe kabul edilmemesi gibi açıkça olumsuz bir hukuki sonuçla karşılaşması durumunda, bu haksız algoritmik kararın iptalini veya bir insan tarafından yeniden adil biçimde değerlendirilmesini derhal talep etme hakkı doğmaktadır. Ancak bu özel düzenleme, hakkın kullanımını yalnızca söz konusu kararın "münhasıran" yani sadece otonom otomatik sistemler aracılığıyla doğrudan verilmesi ve bu sonucun ilgili kişinin bariz şekilde aleyhine olması sıkı şartlarına hukuken bağlamıştır.
Avrupa hukuku ise ilgili bu itiraz hakkını Türk hukukuna kıyasla çok daha geniş ve korumacı bir çerçevede ele alarak, veri öznesinin bizzat kendisiyle ilgili önemli hukuki sonuçlar doğuran veya benzer biçimde kendisini kayda değer şekilde menfi yönde etkileyen, karmaşık profilleme faaliyetleri de dâhil olmak üzere yalnızca otomatik algoritmik işlemeye dayalı bir karara hiçbir şekilde tabi olmama mutlak hakkını yasal olarak düzenlemektedir. Bu normlar uyarınca sahip olunan bu hak, illaki kişinin aleyhine olumsuz bir sonuç doğması dar şartına bağlanmamış olup, ilgili kişi kararın niteliğinden bağımsız olarak hukuka aykırı işlemin bizatihi kendisine derhal itiraz edebilmektedir. Sistem ayrıca bu tür otonom kararlara konu olmama temel kuralının çok dar yasal istisnalarını belirlemiş; aradaki sözleşmenin ifası zorunluluğu, kesin yasal dayanak veya kişinin özgür iradesiyle verdiği rıza gibi çok özel durumlarda bu istisnaların uygulanabileceğini, ancak her halükarda kişiye karara bir insanın müdahale etmesini talep etme hakkının yasal olarak tanınması gerektiğini vurgulamıştır. İşverenlerin, yenilikçi teknolojik imkanları kullanarak zayıf durumdaki işgücü üzerinde mutlak bir algoritmik hakimiyet kurmalarını hukuken engelleyen bu itiraz hakları son derece mühimdir.
Uluslararası Hukukta Yapay Zeka ve Otomatik Karar Düzenlemeleri
Yapay zeka teknolojilerinin işyerlerindeki karmaşık veri işleme faaliyetlerinde yarattığı köklü dönüşüm ve barındırdığı hesaba katılması güç yüksek riskler, uluslararası düzeyde tümüyle yeni hukuki normların oluşturulmasını yasal bir zorunluluk kılmıştır. Modern hukuk sistemlerinde bu alandaki en kapsamlı ve öncü hukuki metin olarak kabul edilen Avrupa Birliği Yapay Zeka Tüzüğü (AI Act), kıta genelinde kullanılacak tüm yapay zeka sistemlerini tehlike düzeylerine göre çok katmanlı risk temelli bir sınıflandırmaya hukuken tabi tutmaktadır. İlgili Tüzük kapsamında; istihdam süreçlerinde, detaylı işçi yönetiminde ve serbest mesleğe doğrudan erişim alanlarında çalışanların anlık performansını izlemek, görev dağılımı yapmak veya iş ilişkisinin hukuken sona erdirilmesiyle ilgili kritik kararları doğrudan etkileyen otonom çıkarımlarda bulunmak amacıyla işletmelerde kullanılan algoritmik sistemler "yüksek riskli" kategorisinde bağlayıcı olarak değerlendirilmiştir. Düzenlemeye göre, bu yüksek riskli yapay zeka sistemlerinin piyasada pazarlanması ve işyerlerinde aktif olarak kullanılması, son derece sıkı şeffaflık kurallarına, detaylı hazırlanan risk yönetim sistemlerine ve aralıksız insan denetimine hukuken tabi kılınmıştır. İşverenlerin bu sistemleri çalıştırırken sağlık ve güvenlik önlemlerini alması zorunludur.
Otomatik karar alma ve işyerinde otonom veri işlemeye dair yasal standartlar sadece Avrupa'da değil, dünyadaki diğer bağlayıcı uluslararası hukuki belgelerde de büyük bir hızla yer bulmaya başlamıştır. Uygulamada ve küresel içtihatlarda bu alanda öne çıkan bazı önemli uluslararası yasal düzenlemeler aşağıda sırasıyla listelenmiştir:
- GDPR Madde 35: Profilleme faaliyetleri ve karmaşık otomatik işlemeye dayanan, kişiler üzerinde hukuki sonuçlar doğuran işlemler öncesinde veri koruma etki değerlendirmesi yapılmasını şirketler için yasal olarak zorunlu kılar.
- ABD Başkanlık Kararnamesi: İleri teknoloji ürünü yapay zekanın işgücü piyasasında çalışanlar üzerinde gereksiz gözetimi teşvik etmeyecek ve temel işçi haklarını koruyacak şekilde özenle geliştirilmesi gerektiğini açıkça belirtir.
- Algoritmik Hesap Verebilirlik Yasası (ABD): Şirketlerin uyguladığı otonom kararlarda şeffaflığı yasal güvence altına almayı ve teknoloji şirketlerinin algoritmaları hakkında anlamlı hukuki açıklamalar yapma yükümlülüğünü tesis etmeyi amaçlar.
- New York İstihdamda Otomatik Karar Araçları Yasası: Bölgedeki işe alımlarda kullanılan yapay zeka sistemlerinin düzenli olarak denetlenmesi ve iş arayanlara mutlaka önceden yasal bildirim yapılması katı şartını getirir.
- ILO Raporu: Sensörler ve gelişmiş algoritmalarla yapılan katı yönetim uygulamalarının insan ve çalışan onurunu koruyacak hukuki şekilde yürütülmesini üye devletlere şiddetle tavsiye eder.
- AB YZ Etik İlkeleri: Karar süreçlerinde mutlak insan unsuruna dayalı denetim mekanizmasını ve algoritmik ayrımcılığa karşı duruşu yasal güvence olarak esas alır.
Sonuç itibarıyla, yapay zeka destekli gelişmiş otonom sistemler, modern ve rekabetçi iş dünyasında rutin süreçleri insan aklının sınırlarını aşan görülmemiş bir hıza ve devasa bir hesaplama kapasitesine ulaştırarak şirketlerin operasyonel verimliliğini muazzam derecede artırmaktadır. Ancak ekonomik çıkar odaklı bu devasa algoritmik analitik gücün, hukuki ve etik altyapısı eksik bırakılmış, sadece kodlara dayalı bir kara kutu mantığıyla çalışan ve şeffaflıktan tamamen uzak bir sömürü mekanizmasına dönüşmesi, bireylerin veri mahremiyetine ve temel hak ve özgürlüklerine yönelik çok ciddi bir hukuki tehdit oluşturmaktadır. Zayıf konumdaki işçilerin otonom sistemlerce durmaksızın profillenerek bizzat haklarında tek taraflı otomatik kararlar verilmesi durumu, ulusal ve uluslararası yasal düzenlemelerde kesin olarak öngörülen şeffaflık, hesap verebilirlik ve insan denetimi gibi evrensel hukuki prensiplere sıkı sıkıya uygun olarak gerçekleştirilmek zorundadır. Algoritmik kararların her aşamada açıklanabilir olması, yalnızca teknolojik bir ilerleme vizyonu ve ihtiyacı değil; aynı zamanda modern çalışma hayatında hukuki güvenliğin, uluslararası veri koruma standartlarının ve adil yargılanma prensiplerinin hiçbir şekilde vazgeçilemez mutlak bir gereğidir. Hem yerel mevzuatımız olan KVKK hem de uluslararası metinler bu güvenceyi sağlar.