Yapay Zekâ Kullanımında Şirketlerin Hukuki Sorumlulukları: Riskler, Yükümlülükler ve Çözüm Yolları
14.08.2025Yapay Zekâ Kullanımında Åžirketlerin Hukuki Sorumlulukları: Riskler, Yükümlülükler ve Çözüm Yolları
“Bizim ÅŸirkette yapay zekâ yok ki” diyenler, bir kahve alıp yeniden düÅŸünsün. Otomatik e-posta yanıtları, müÅŸteri talep analizleri, stok takibi, iÅŸ baÅŸvurularını eleyen yazılımlar… Bunlar size “robot” gibi görünmeyebilir ancak yapay zekâ çoktan kapıdan girdi, masaya oturdu, hatta sizin adınıza kararlar bile vermeye baÅŸladı. Peki bu kararlar yanlış çıkarsa, kim hesap verecek? İşte iÅŸin püf noktası burada: Türk hukukunda “yapay zekâ yaptı” diye sorumluluktan kurtulmak mümkün deÄŸil. Mevzuatta henüz AI’ya özel bir kanun yok ancak Türk Borçlar Kanunu, Türk Ticaret Kanunu ve KVKK çerçevesinde tüm risk hâlâ sizin omzunuzda. Yani, sistem hata yaparsa “kabahat algoritmanın” deyip aradan sıyrılmak mümkün deÄŸil.
Hele iÅŸin içine veri gizliliÄŸi girince tablo daha da karmaşıklaşıyor. Yapay zekâ doÄŸru çalışmak için veriyle beslenir; bu veri müÅŸteri bilgisi, çalışan kaydı ya da tedarikçi verisi olabilir. KVKK uyarınca, bu verilerin hangi amaçla iÅŸlendiÄŸini net biçimde belirtmek, gerekliyse açık rıza almak ve güvenliÄŸini saÄŸlamak zorundasınız. Dahası, KVKK’nın 11. maddesi kiÅŸilere “otomatik sistemlerle yapılan iÅŸlemlere itiraz” hakkı tanır. Yani bir çalışanınız, “performansımı yapay zekâ deÄŸerlendirdi ve terfi alamadım” derse, buna itiraz edebilir. Yargıtay’ın iÅŸ hukukunda verdiÄŸi bazı kararlar, yalnızca dijital veriye veya otomatik sisteme dayalı fesihlerin hukuken geçerli sebep oluÅŸturmayacağını açıkça ortaya koyuyor. Bu bakış açısı, AI destekli deÄŸerlendirmeler için de geçerlidir.
Bir de iÅŸin fikri mülkiyet tarafı var. AI ile üretilen raporlar, görseller, yazılım kodları… Türk Fikir ve Sanat Eserleri Kanunu’na göre eser sahibi onu meydana getiren kiÅŸidir. Yapay zekâ ise hukuken kiÅŸi olmadığı için, eserin sahibi ya onu tasarlayan ya da kullanan sizsiniz. Ne güzel, deÄŸil mi? Ta ki yapay zekânız, farkında olmadan baÅŸkasına ait telifli bir materyali “esinlenme” adı altında alıntılayana kadar. Bu noktada, ABD ve AB ülkelerinde görülen davalarda, AI tarafından üretilen içeriklerde telif hakkı ihlali tespit edildiÄŸinde sorumluluÄŸun doÄŸrudan iÅŸletmelere yüklendiÄŸi görüldü. Türkiye’de henüz böyle bir emsal olmasa da, mevcut mevzuat yapısı aynı sonucu doÄŸurur.
Bu nedenle sözleÅŸmelerde yeni nesil maddeler eklemek artık lüks deÄŸil, ihtiyaç. İş sözleÅŸmelerine ve tedarikçi anlaÅŸmalarına “yapay zekâ kullanım ÅŸartları” eklemek, hangi durumlarda kullanılabileceÄŸini, hangi verilerin kesinlikle yüklenemeyeceÄŸini, gizlilik ve veri güvenliÄŸi taahhütlerini yazmak, gelecekteki ihtilafların önüne geçer. Unutmayın, yazılmamış kural, dava dosyasında hiçbir iÅŸe yaramaz.
Hukukun izin verdiÄŸi her ÅŸey itibarınıza iyi gelmeyebilir. MüÅŸteriye AI ile yanıt vermek serbesttir ancak bunu haber vermeden yaparsanız, güven iliÅŸkisi zarar görebilir. Bir finans ÅŸirketi düÅŸünün; yatırım tavsiyelerini AI ile veriyor ama bunu müÅŸteriye söylemiyor. Bir yatırım zarara dönüÅŸtüÄŸünde müÅŸteri, “Kararımı robot mu verdi?” diye sorduÄŸunda, teknik olarak haklı olmasa da, güven tamamen sarsılır. İşte bu yüzden ÅŸirketler için “etik yönerge” oluÅŸturmak, yalnızca yasal riskleri deÄŸil, marka deÄŸerini de korur.
Olası davalar henüz Türkiye’de çok az sayıdadır ancak bu, “hiç olmayacak” anlamına gelmez. Yurt dışındaki örnekler, yanlış teÅŸhis koyan tıbbi yapay zekâ yazılımlarından, yanlış yatırım tavsiyesi veren algoritmalara kadar pek çok dava türünü ÅŸimdiden vitrine çıkardı. ÖrneÄŸin İngiltere’de, bir hukuk bürosu AI ile hazırlanan belgelerdeki hatalar yüzünden davayı kaybetti ve milyonlarca sterlin tazminat ödedi. Türkiye’de de benzer bir olayda, Yargıtay’ın “iÅŸverenin gözetim borcu” ve “özen yükümlülüÄŸü” ilkelerini AI süreçlerine uyarlaması kuvvetle muhtemeldir.
Åžirketler için pratik birkaç tedbir ÅŸimdiden hayata geçirilebilir: AI sistemlerini besleyen veri setlerini düzenli denetlemek, çalışanlara yapay zekâ kullanımı ve veri güvenliÄŸi konusunda eÄŸitim vermek, yüksek riskli kararlarda (iÅŸten çıkarma, kredi onayı, yatırım tavsiyesi gibi) mutlaka insan onayı mekanizması eklemek, AI çıktılarını rastgele seçilmiÅŸ örneklerle düzenli test etmek ve tüm bu süreçleri yazılı olarak belgelendirmek. Bunlar yalnızca olası davalarda elinizi güçlendirmekle kalmaz, aynı zamanda ÅŸirket içi farkındalığı artırır.
Bugün atacağınız adımlar bu yüzden kritik: Veri iÅŸleme süreçlerinizi KVKK’ya uygun hale getirin, sözleÅŸmelerinize yapay zekâ maddeleri ekleyin, AI’nın verdiÄŸi kararları düzenli kontrol edin, etik ilkeler belirleyin ve personelinizi bu konuda eÄŸitin. Yapay zekâ, doÄŸru yönetildiÄŸinde iÅŸlerinizi hızlandıran bir asistan olabilir; yönetilmediÄŸinde ise sonu bilinmeyen bir hukuki maceranın baÅŸrolünü size bırakır. Bazen öngörülü olmak gerekir, öyle deÄŸil mi?
Avukat & Hukuk Müşaviri