Deepfakeler gittikçe yaygınlaşıyor ve daha fazla kullanıcının isteğe bağlı olarak kullanabileceği hale geliyor. Teknoloji bu sorunları çözmeye yardımcı olacaktır ancak esas önemli olan, sosyal ve hukuki alanda gerekli adımların atılması olacak.

Diyelim ki elimizde Deepfake Anlamakinatör adlı bir makine var ve herhangi bir deepfake videosunu, ne kadar iyi olursa olsun deepfake olarak işaretleyebiliyor. Ayrıca bu cihazın işaretlemediği her videonun da gerçek olduğu biliniyor. Yani kesin ve hatasız bir şekilde videolar ayrılabiliyor.

Peki bu icat bize deepfakeler ile mücadelede yeterli olacak mıdır? Altı ay içerisinde çok gerçekçi deepfake videoların ortaya çıkabileceği söyleniyor. Yani 2020 yılındaki ABD başkanlık seçimleri, sahte videoların savaş alanına dönüşebilir. Teknoloji uzmanları bu konuya tabii ki “ateşe ateşle karşılık verelim” şeklinde (ya da teknolojiye teknolojiyle) yanaşıyorlar. Facebook ve Microsoft, ABD Hükümeti’nin desteğiyle ‘medya olay yeri inceleme’ geliştirmeye çalışıyor. Google’ın araştırmalar için devasa bir veri tabanı var.

Deepfake yeni bir teknik olsa da, oluşturduğu sahte bilgi yayma ve birilerine zarar verme tehdidi her zaman bulunuyordu. Kusursuz bir makine her şeyi yakalasa da işin bu boyutunu yakalayamıyor.

Sorun 1: Deepfake Detektörleri İçerikleri Değerlendiremez 

Ülkemizin bir noktada deepfake’e en yakın içeriklerini yapan, geçtiğimiz yıllarda kaybettiğimiz tiyatro sanatçısı Levent Kırca olmuştur. O dönemde plastik makyajla pek çok ismi canlandıran tiyatrocunun görüntülerinin sahte olduğunu hepimiz biliyorduk. Bugün benzer bir görüntü deepfake ile oluşturulduğunda yapılacak olan detektör, bunun kötü amaçlı mı olduğunu, yoksa mizah amaçlı ya da kurgusal bir şey mi olduğunu anlamayacaktır. Profesör Kate Klonick, fazla otomasyonun hatalı kararlar veya sansüre sebep olacağını belirtirken kurgu, mizah ve yalan haber arasındaki farkın felsefik olduğunu söylüyor.

Bu durumun çözümü olarak moderasyonun iyileştirilmesi, bazen de doğru olanı yapmak için bir şeyleri kaybetmenin göze alınması gerekiyor. Daha eğitimli ve daha yetenekli moderatörlerin yetiştirilmesi gereklidir.

Sorun 2: Deepfake Detektörleri, En Çok İhtiyacı Olanları Korumayabilir 

Yeni bir teknoloji ilk çıktığı zaman, kötü niyetli kullanımları ilk olarak toplumsal açıdan zayıf durumda görülen kişileri hedef alır. Photoshop teknolojisi doksanlı yıllarda ilk defa hayatımıza girdiğinde, çeşitli kadınların yüzleri yetişkin filmlerindeki kadınların bedenleri üzerine yerleştirilerek karalama kampanyaları yapılmıştı. Sonuç? Kimse bu konuda bir şey yapmadı, ta ki tehdit herkese yönelene kadar. Miami Üniversitesi’nden Mary Anne Franks, “Rızası olmayan kadınların cinsel sömürüsü sorununa yeterince dikkat etseydik, o zaman bu konuyla başa çıkmakta sosyal, hukuki ve kültürel anlamda şu an daha iyi noktada olurduk” diyor.

Bu sorunun çözümü için ilk olarak bu tarz içerikler yapabilecek olsak dahi yapmamak işin ilk adımı. İkincisi de bu konuda yardımcı olabilecek bir teknoloji geliştirebiliyorsak bunu herkesin kullanımına açmak.

Sorun 3: Deepfake Tespit Edilene Kadar Kurban İçin Çok Geç Olabilir

Öncelikle, bir defa bir haber yayıldıktan sonra o haberin yanlış olduğu bilgisi aynı hızda yayılmıyor. En basit örnek, ülkemizde yapılan hemen her yalan haberi herkes duyarken kimse haberlerin doğruluğunu kontrol eden organizasyonlara bakmıyor. Ülkemizde bu amaçla kurulmuş pek çok site ve sivil toplum kuruluşu var.

Ayrıca, bir kişinin görüntülerini isteği dışında kullanmanın pek de ciddi yaptırımları bulunmuyor. Bu konuda da yasal düzenlemeler yapılması gerektiği düşünülüyor.

Bu soruna karşı bir çözüm olarak, dijital sahtecilik suçunun da tanımlanması gerekiyor.