Y
apay zeka ve makine öğrenmesi ile birlikte gerçeğinden ayrıt edilemeyecek fotoğraflar ve videolar ortaya çıkaran, tehlikeli olarak nitelendirilen bir teknolojik uygulama
Deepfake, Türkçesiyle “Derin Sahte”, “Derin Öğrenme” ve “sahte” kelimelerinin birleşmesiyle oluşan bir yapay zeka uygulaması. Yapay zeka teknolojisi sayesinde insan yüzlerini değiştirip, bu şekilde fotoğraflar ve videolar hazırlamayı sağlayan teknolojik bir teknik olarak da ifade edilebilir. Bu teknoloji yalnızca insan yüzlerini değiştirmeye ya da montajlamaya olanak sağlamıyor. Aynı zamanda seslendirme konusunda da oldukça başarılı. Bu sayede baştan yepyeni bir insan yaratmak bile mümkün.
Hadi gelin bir örneğine bakalım,
Deepfake ilk olarak 2017 yılında karşımıza çıktı. Amerikan sosyal medya sitesi Reddit’de, anonim bir kullanıcı bazı ünlülerin yer aldığı yetişkin içerikli videolar yayınladı. Ancak yayınlanan bu videolar, içinde yer alan ünlülere ait değildi. Bu videolar ünlülerin yüzlerinin başka bedenlere Deepfake teknolojisi ile yerleştirilmesi sonucu oluşmuştu.
Pek çok uzman, gelecekte teknoloji geliştikçe derin sahtekarlıkların çok daha karmaşık hale geleceğine ve seçim müdahalesi, siyasi gerilim ve ek suç faaliyetleriyle ilgili olarak halka daha ciddi tehditler getirebileceğine inanıyor.
Deepfake'ler sadece video mu?
Deepfake’ler sadece videolarla sınırlı değildir. Deepfake ses, çok sayıda uygulamaya sahip, hızla büyüyen bir alandır.
Artık sesi klonlanan kişinin yalnızca birkaç saatlik (veya bazı durumlarda dakikalarca) sesiyle derin öğrenme algoritmaları kullanılarak gerçekçi ses derin sahtekarlıkları yapılabilir ve bir ses modeli yapıldıktan sonra o kişi yapılabilir. örneğin geçen yıl dolandırıcılık yapmak için bir CEO’nun sahte sesinin kullanılması gibi .
Deepfake ses, bilgisayar oyun tasarımında olduğu kadar ses değiştirme şeklinde tıbbi uygulamalara sahiptir .artık programcılar, oyundan önce kaydedilen sınırlı bir komut dizisine güvenmek yerine, oyundaki karakterlerin gerçek zamanlı olarak herhangi bir şey söylemesine izin verebilir.

Deepfake nasıl tespit edilir?
Deepfake’ler daha yaygın hale geldikçe, toplumun toplu olarak derin sahte videoları tespit etmeye büyük olasılıkla, çevrimiçi kullanıcıların artık diğer türdeki sahte haberleri tespit etmeye alıştığı şekilde uyum sağlaması gerekecek.
Çoğu zaman, siber güvenlikte olduğu gibi, yayılmasını tespit etmek ve önlemek için daha fazla derin sahte teknoloji ortaya çıkmalıdır, bu da bir kısır döngüyü tetikleyebilir ve potansiyel olarak daha fazla zarar yaratabilir.
Deepfake’leri ele veren birkaç gösterge var:
- Mevcut deepfake’ler, yüzleri gerçekçi bir şekilde canlandırmakta sorun yaşıyor ve sonuç, konunun asla yanıp sönmediği veya çok sık veya doğal olmayan bir şekilde yanıp söndüğü bir video. Ancak, Albany Üniversitesi’ndeki araştırmacılar, yanıp sönen anormalliği tespit eden bir çalışma yayınladıktan sonra , artık bu sorunu olmayan yeni derin sahtekarlıklar yayınlandı.
- Cilt veya saçla ilgili sorunları veya bulundukları ortamdan daha bulanık görünen yüzleri arayın. Odak doğal olmayan şekilde yumuşak görünebilir.
- Aydınlatma doğal görünmüyor mu? Çoğu zaman, derin sahte algoritmalar, sahte video için model olarak kullanılan kliplerin aydınlatmasını korur; bu, hedef videodaki aydınlatma ile zayıf bir eşleşmedir.
- Ses, özellikle video sahteyse ancak orijinal ses o kadar dikkatli bir şekilde değiştirilmemişse, kişiyle eşleşmeyebilir.
Deepfake'lerle teknolojiyle mücadele
Deepfake’ler teknikler geliştikçe zamanla daha gerçekçi hale gelecek olsa da, iş onlarla mücadeleye geldiğinde tamamen savunmasız değiliz. Bazı şirketler, derin sahtekarlıkları tespit etmek için yöntemler geliştiriyor, bunlardan bazıları yeni kurulmuş durumda.
Örneğin Sensity , yapay zeka tarafından oluşturulan sentetik medyanın belirgin parmak izlerini taşıyan bir şey izlerken kullanıcıları e-posta yoluyla uyaran, derin sahtekarlıklar için bir antivirüse benzer bir algılama platformu geliştirdi. Sensity, sahte videolar oluşturmak için kullanılan aynı derin öğrenme süreçlerini kullanır.
Minerva Operasyonu , derin sahtekarlıkları tespit etmek için daha basit bir yaklaşım benimsiyor. Bu şirketin algoritması, potansiyel derin sahtekarlıkları zaten “dijital olarak parmak izi alınmış” bilinen videolarla karşılaştırıyor. Örneğin, derin sahte videonun Minerva Operasyonunun halihazırda katalogladığı mevcut bir videonun değiştirilmiş bir versiyonu olduğunu fark ederek intikam pornosu örneklerini tespit edebilir.
Ve geçen yıl Facebook, derin sahtekarlıkları ve diğer türde manipüle edilmiş medyaları tespit etmek için yeni teknolojilerin oluşturulmasını teşvik etmek için açık, işbirlikçi bir girişim olan Deepfake Detection Challenge’a ev sahipliği yaptı . Yarışmada 500.000 $ ‘a kadar değişen ödüller yer aldı.