Deepfake ve yapay zeka içeriklerinin hukuki riskleri; mağduriyet için yeni yasal çerçeve ve başvuru yolları.
Günümüzde yapay zeka (AI) ve deepfake teknolojileriyle üretilen videolar, vatandaşlar için yeni hukuki riskler doğuruyor. Uzmanlar, rızası dışında ses ve görüntülerin yapay zeka ile oluşturulduğu içeriklerin kişisel mağduriyetlere yol açabildiğini belirtiyor ve bu durumun yasal başvurular için bir çerçeve oluşturduğunu vurguluyorlar.
DEEPFAKE TEHLİKESİ BÜYÜYORYapay zeka tabanlı içeriklerle kişinin sesinin ve görüntüsünün izinsiz kullanımıyla ilgili kaygılar artıyor. Özellikle sosyal medyada hızla yayılan sahte içeriklerin, bireylerin itibarını zedeleyebildiğini ve dolandırıcılık risklerini yükselttiğini uzmanlar işaret ediyor.
Uzmanlar, yapay zeka ile üretilen her videonun gerçek olarak algılanması halinde vatandaşların mağduriyet yaşayabileceğini belirtiyor. Hukuki yollara başvurulabileceği ifade ediliyor. Avukat Selahattin Par’a göre, dijital dünyanın gelişmesiyle sanallık ile gerçeklik arasındaki fark giderek bulanıklaşıyor ve mevcut dijital okuryazarlık seviyesi bu durumla başa çıkmakta yetersiz kalıyor.
HUKUKİ YOLLAR AÇIKBir kişinin kendi sesinden ya da görüntüsünden üretilmiş içerik nedeniyle zarar gördüğünde, sulh ceza hakimliğine başvurularak içeriğin yasaklanması veya durdurulması talep edilebilir. Eğer içeriğin hangi kişi tarafından üretildiği biliniyorsa, Türk Medeni Kanunu kapsamında maddi ve manevi tazminat davaları açılabilir.
DİJİTAL MECRALARIN DENETİMİ VE RTÜK İHTİYACIPar, dijital mecraların mevcut yasal çerçevede yeterince denetlenemediğini vurguluyor. Türkiye’nin dijital denetimde bir RTÜK’e sahip olması gerektiğini belirten Par, içeriklerin yayıldığı süreçte haksız taleplerin giderilmesi ve mağduriyetlerin azaltılması için yasal düzenlemelerin güçlendirilmesinin önemine dikkat çekiyor.
Yapay zeka ve deepfake videolarının yol açtığı zararlar karşısında cezai yaptırımlar da mevcut mevzuat kapsamında ele alınıyor. İçeriklerden dolayı kişisel verilerin ihlali söz konusu olduğunda, cezaların 1 yıla kadar uzayabildiği durumlar ve daha ağır yaptırımlar gündeme gelebiliyor. Ayrıca, yüzünüz, bedeniniz ve sesiniz gibi temel verilerin izinsiz kullanımı devletin güvenliği ve birey hakları açısından ciddi sonuçlar doğurabilir.
İLK ÖNLEM: KİŞİSEL OLARAK BAŞLAMAKMedipol Üniversitesi İletişim Fakültesi Dekan Yardımcısı Doç. Dr. İhsan Eken, yapay zekanın kapalı kodlu ve açık kodlu olmak üzere iki farklı sistemle çalıştığını açıkladı. Kapalı kodlu sistemler genellikle bir şirket tarafından yönetilirken, açık kodlu versiyonlar kamuya açık erişime sahiptir ve bu durum mağduriyetlerin çözümünü karmaşıklaştırır. Açık uçlu durumlarda mağdurların farklı ülkelerdeki sunucular üzerinden yargı süreçlerini sürdürebilmesi güçleşebilir.
Eken, yasal yaklaşımların evrensel kurallar çerçevesinde geliştirilmesi gerektiğini ve Amerika ile Çin gibi ülkelerde yasal altyapıların daha ileri düzeyde olduğunu belirtiyor. Bu nedenle, ilk adımların kişisel korunmaya odaklanması gerektiğini vurguluyor ve kişisel verilerin korunması için bireylerin kendi güvenliklerini ön planda tutması gerektiğini ifade ediyor.