Pazartesi sabahı. Kahve daha yarıya gelmeden İK kanalına bildirim düşüyor: ‘Aday listesi güncellendi. Yapay zeka 27 kişiyi öne çıkardı.’ Ekipte bir oh çekiliyor. 312 özgeçmişi tek tek incelemek yerine birkaç tıklamayla ilerlemek cezbedici. Öğlene doğru bir yönetici soruyor: ‘Şu güçlü görünen aday neden listede yok?’ Cevap: ‘Model iletişim tonu puanlarını düşük bulmuş.’
İşte tam burada saat duruyor. Mükemmel görünen bir adayın kaderi bir skora bırakılabilir mi? Eğer bırakılırsa, yanlış olduğunda telefonu kim açacak, soruyu kim yanıtlayacak, hukuken kim kapıda bekleyecek? Yapay zeka hız ve verim sağlıyor; ama karar anında sahne ışıkları hâlâ insanın üzerinde.
Çünkü iş, sadece teknoloji değil; itibar, hukuk, eşitlik ve güven meselesi. Ve güzel haber şu: Doğru kurgu yapıldığında yapay zeka İK’da bir risk değil, güçlü bir yardımcı. Peki sorumluluk kimde kalır ve nasıl yönetilir? Gelin netleştirelim.
Yapay zekanın İK’da verdiği ‘karar’ tam olarak nedir?
Özgeçmiş sıralamak, ön eleme sorularını puanlamak, video mülakatları analiz etmek, çalışan bağlılığı anketlerinde risk segmenti üretmek… Bunların hepsi karar destek çıktılarıdır. Ama bazıları gerçekte kararın ta kendisi olur: Otomatik reddetme, mülakat daveti göndermeme, eğitim fırsatını kapama, performans uyarısı oluşturma gibi.
Kısa kural: İnsan müdahalesi olmadan sonuç doğuran her otomasyon bir karardır. Destek amaçlı skorlar ise, üzerinde bir insanın anlamlandırma ve onay adımı varsa ‘öneri’dir. İK süreçlerinizi bu ayrımla etiketlemek, sorumluluğun nerede başladığını görmenizi sağlar.
Sorumluluk haritası: Kim, neyin hesabını verir?
İşveren (kurum) — nihai hesap verebilir. Modeli kim yaparsa yapsın, sonuçlar işverenin sürecinden çıkar. Adaya veya çalışana karşı hukuki ve itibari sorumluluk işverendedir. Yetki devredilir; sorumluluk devredilmez.
İK süreç sahibi — operasyonel sorumlu. Hangi verinin kullanılacağına, eşiğin nerede olacağına, neyin otomatik neyin insan onaylı olduğuna İK karar verir. Bir reddin gerekçesi sorulduğunda, ilk yanıt burada şekillenir.
Yazılım sağlayıcısı — teknik ve sözleşmesel sorumlu. Modelin nasıl çalıştığı, hatalar ve güvenlik açıkları, eğitilen veriler, açıklanabilirlik, loglar… Sağlayıcı bunlardan teknik olarak ve sözleşme kapsamında sorumludur. Ancak bu, işverenin aday karşısındaki sorumluluğunu ortadan kaldırmaz.
Veri ve analitik ekipleri — uygunluk sorumluluğu. Özellik seçimi, önyargı testleri, versiyonlama, deney tasarımı, model değişikliği onayları… Bu ekipler tekniği doğru yapmaktan ve kanıt bırakmaktan yükümlüdür.
Üst yönetim — risk gözetimi. İş etiği, risk iştahı ve politika onayı yönetimdedir. Strateji hız ister; ama hız limitini koymak da onların işi.
Hukuki çerçeve: KVKK, İş Kanunu ve eşitlik ilkesi
Türkiye’de KVKK işin merkezinde. Aday veya çalışan verileri için aydınlatma yapılmalı, amaçla bağlantılı-minimum veri ilkesi gözetilmeli. Özel nitelikli veriler (sağlık, biyometrik, siyasi görüş vb.) hassastır; gereksizse toplanmamalı, gerekiyorsa açık rıza ve ek güvenlik şartları aranır.
KVKK’nın 11. maddesi kişiye, verilerinin münhasıran otomatik sistemlerle analiz edilmesi sonucu aleyhine bir durum doğmasına itiraz hakkı verir. Yani ‘model böyle dedi’ diyerek kapı kapanmaz; kişi açıklama ve insan incelemesi talep edebilir.
İş Kanunu ve eşitlik ilkesi de kritik. 4857 sayılı kanunun 5. maddesi ayrımcılığı yasaklar. Algoritmanın; cinsiyet, yaş, engellilik, doğum planı, posta kodu gibi korunan ya da dolaylı belirteçlerden etkilenmesi, ayrımcılık riskini büyütür. Burada da sorumluluk kurumdadır. Ayrıca Avrupa’daki Yapay Zeka düzenlemeleri risk temelli yükümlülükler getiriyor; uluslararası çalışıyorsanız bu standartlar kaçınılmaz olarak kapınızı çalacak.
Riskleri azaltmanın pratik yolları
Teknolojiye romantik ya da paranoyak bakmadan, soğukkanlı bir çerçeve kurmak mümkün. Başlamak için pratik bir liste:
- Envanter çıkartın: Hangi İK süreçlerinde yapay zeka/kurallar çalışıyor? Karar mı, öneri mi? Sahipleri kim?
- Etki değerlendirmesi yapın: Aday ve çalışan üzerindeki olası etkileri, hatalı pozitif/negatifleri, ayrımcılık risklerini yazılı analiz edin. Gerektiğinde Hukuk ve KVKK sorumlusunu masaya alın.
- Gölge mod ve kontrollü pilot: Modeli önce sadece izleyici olarak çalıştırın. İnsan kararlarıyla farklarını ölçün. Eşikleri veriye göre ayarlayın.
- Özellik diyeti: Amaçla ilgisiz veriyi beslemeyin. Posta kodu, medeni hal gibi önyargı taşıyabilecek değişkenleri dışarıda tutun; dolaylı etkileri de test edin.
- Adalet testleri: Farklı gruplarda başarı/ret oranlarını, hata oranlarını karşılaştırın. Bozulan metriği görünür kılın ve düzeltme planı yapın.
- İnsan-onaylı kritik eşikler: Otomatik red veya işe alım gibi sonuçlar için ‘ikinci göz’ kuralı koyun. Belirsiz skor aralığına düşenler mutlaka insan incelemesine gitsin.
- Şeffaf aydınlatma: Adaya, otomasyon kullanıldığını, hangi verilerin değerlendirildiğini ve itiraz/yol haritasını net anlatın.
- Denetim izi: Model versiyonu, kullanılan özellik seti, değişiklik yapan kişi, tarih-saat; hepsi loglansın. İtiraz geldiğinde anlatacak bir hikâyeniz olsun.
- Tedarikçi sözleşmeleri: Açıklanabilirlik, denetim hakkı, alt işleyen bildirimi, güvenlik, hatalarda bildirim ve tazminat şartları net olsun.
- Silme ve saklama: Aday verilerini gereğinden uzun tutmayın. Saklama politikasıyla modeli besleyen veri disiplinini senkronlayın.
- Ekip eğitimi: İK ekibine yapay zeka okuryazarlığı verin. Skorun bir araç, kararın bir sorumluluk olduğunu içselleştirsinler.
İnsan dokunuşu: Nerede devreye girmeli?
Yapay zeka, tekrar eden işleri hızlandırmada harikadır. Ama bazı kararlar, yalnızca bir insanın bağlam okumasını, empatisini ve yargısını hak eder. Neresi mi?
- Otomatik red/işe alım: Tek tıkla kapı açıp kapatmayın. En azından gri bölgelerde insan onayı şart olsun.
- Disiplin ve fesih süreçleri: Veriye dayalı uyarı üretilebilir; ama karar mutlaka çok yönlü insan incelemesi gerektirir.
- Ücret ve terfi: Skorlar yardımcıdır; tek başına hüküm olmaz. Kayıt altına alınmış bir gerekçelendirme ve ikinci karar mekanizması kurun.
- İtirazlar: Adaya gerçek bir muhatap sunun. ‘Model böyle dedi’ demek teknoloji değil kaçış planıdır.
Pratik bir kural: Otomasyon, hızlandırır ve hatırlatır; insan, onaylar ve sahiplenir. Bu ayrımı süreç akışlarına yazın.
Sorumluluğu kurumsallaştıran yönetişim
Güzel bir model kadar, onu çevreleyen kurallar da önemlidir. Kalıcı bir çerçeve için:
- İK yapay zeka politikası yayınlayın: Amaçlar, yasaklı uygulamalar, açıklama standartları, roller.
- Model onay kurulu oluşturun: İK, Hukuk, KVKK, BT, İş birimi. Yeni model veya büyük değişiklik burada tartışılsın.
- RACI benzeri rol netliği oluşturun: Kim sorumlu, kim onaylayıcı, kim danışılan, kim bilgilendirilen?
- Başarı metriklerini dengeleyin: Sadece hız ve maliyet değil; işe alım kalitesi, çeşitlilik, itiraz çözüm süresi gibi metrikler de dashboard’da olsun.
Gerçekten ‘kimde kalır’ sorusunun kısa cevabı
Sistem ne kadar akıllı olursa olsun, hesap verebilirlik işverendedir. İK süreç sahibi, günlük uygulamadan ve şeffaflıktan sorumludur. Tedarikçi, sözleşme ve teknik vaatleri ölçüsünde sorumluluk taşır; ama bu, aday karşısında paratoner değildir. Analitik ekipler, modelin kanıtını ve izini tutar. Üst yönetim, çizgiyi çeker.
Kısacası: Yapay zeka karar verirse bile, kararı insan sahiplenir. İyi bir tasarım, bu sahiplenmeyi görünür ve sürdürülebilir kılar.
Sonuç: Akıllı sistemler, akıllı sorumluluk
İK’da yapay zeka, doğru kurulduğunda elinizi hızlandırır, kör noktaları aydınlatır ve daha adil sonuçlar üretir. Yanlış kurulduğunda ise en iyi niyetli ekibi bile istemeden zor durumda bırakabilir. Fark, teknolojide değil; süreç, şeffaflık ve sorumluluk mimarisindedir.
Bugün atılacak üç küçük adım yarın büyük dertleri önler: Mevcut otomasyon envanterinizi çıkarın, kritik kararlara insan onayı ekleyin, aday/çalışan için net bir itiraz kanalı oluşturun. Ardından sözleşmelerinizi ve adalet testlerinizi gözden geçirin. Hepsi bir günde olmayacak; ama her adım, hem hukuken hem vicdanen daha rahat uyumanızı sağlar.
Son söz: Algoritmalar yorulmaz; insanlar yorulur. Tam da bu yüzden, kararın ağırlığını taşıyacak olan yine insandır. Akıllı sistemler kullanın, ama sorumluluğu asla sistemlere bırakmayın. İK’da yapay zeka, sizin yerinize değil; sizinle birlikte çalıştığında değerlidir. İyi ki okudum dedirtecek netlik de burada saklı.