Yapay zekaya dayanan yapay görüntü sentezi tekniği Deepfake, sahte içerikler oluşturmak için hızlıca gelişmektedir.

Hao Li, önümüzdeki 6 aylık bir süreçten sonra bu teknik ile oluşturulan sahte videoların tamamen tespit edilemeyeceğine belirtmektedir. Deepfake, çeşitli şekillerde uygulanabilen, bir insanın yüzünün başka bir insanın yüzü ile değiştirilmesinden, bir insanın sesini taklit eden sahte bir ses oluşturmaya kadar gelişen tekniktir.

Deepfake, toplumun güvenlik sorunlarıyla karşı karşıya kalmasına neden olabilir. Kötü niyetli saldırgan, oltalama (phishing) saldırıları, dolandırıcılık, kişisel bilgilerinin çalınması, itibar kaybına sebep olmak, kişi ile ilgili pornografik görüntülerin hazırlanıp yayılması gibi birçok kötü niyetli eylemler gerçekleştirebilir.

Birinin imajını ve davranışını taklit etme yeteneği ile saldırgan, kurbanın ailesini dolandırarak aile üyelerinin kişisel bilgilerini hatta finansal açıdan kazanç elde edebilir. Ya da herhangi bir devlet görevlisi gibi taklit ederek yüksek güvenlikli alanlara giriş yapmak için kullanabilir. Bu teknoloji ve teknik Red Teaming çalışmalarında kullanılabilir. Örnek olarak, bir kuruluşun CEO’su gibi konuşan sahte sesleri kullanarak kuruluşun finans sorumlusunda kritik bilgiler elde edilebilir.

Teknoloji endüstrisi, bir bütün olarak deepfake tekniğinin algılanması için yatırımlar yapmaya başlamıştır. Deepfake ses kliplerin görsel sunumlarını kullanan, konuşma sentezini modellerini eğitmek için kullanılan derin sinir ağı olan seslerin derinliği için geliştirilen açık kaynaklı RealTalk uygulaması piyasaya sürüldü. Ayrıca sahte video görüntüleri ve ses kayıtları üzerinde araştırmacılara Facebook, Microsoft ve Google gibi büyük şirketler sponsor olmaktadır.

Sedat KIZILÇINAR