Deepfake Tespiti’nde Kilit Nokta, Sınırları Kaldıracak İpucunu Belirlemek

Deepfake olarak tanımlanan sentetik medyayı, zamanında ve büyük zarara yol açmadan tespit edebilmek için, algılama teknolojilerinin de yakın gelecekte, hiper gerçekçi düzeyde tespit performansına ulaşması gerekiyor. Deepfake tespitinde kilit nokta, algılamada sınırları ortadan kaldırmak ve henüz bilinmeyen tekniklerle üretilecek deepfake’leri de yakalama düzeyine erişmek.

ABD Başkanlık Seçimleri sürecinin, tüm dünyanın beklediği gibi bir “Deepfake Kıyameti”ne dönüşmemiş olması, o kara günün geleceğini hafızalardan silmemeli. Beklenmedik bir anda geleceği bilimsel olarak kanıtlanan büyük bir deprem gibi, en tehlikeli deepfake saldırısının da bir anda her şeyi yerle bir etmesine kesin gözüyle bakılıyor. Her an beklenen en yıkıcı deepfake depremine karşı, çevrimiçi dünyanın ayakta kalmasını sağlayacak tek sismik uyarı sistemi ise, geliştirilen Deepfake Tespit ve Algılama araçları olacak.

Deepfake olarak tanımlanan sentetik medyayı, zamanında ve büyük zarara yol açmadan tespit edebilmek için, algılama teknolojilerinin de yakın gelecekte, hiper gerçekçi düzeyde tespit performansına ulaşması gerekiyor. Mevcut tek boyutlu ya da sınırla kapsama alanına sahip deepfake tespit ve algılama teknolojileri ise, ancak bugün yaygın kullanılan sentetik medya türlerinin sırrını çözmeye çalışıyor. Deepfake tespitinde kilit nokta, algılamada sınırları ortadan kaldırmak ve henüz bilinmeyen tekniklerle üretilecek deepfake’leri de yakalama düzeyine erişmeyi sağlayacak ipucunu elde etmek.

Deepfake Tespit ve Algılama’nın Temeli; Derin Öğrenme

Deepfake tespit ve algılamaya yönelik Ar-Ge sürecini bir ürüne dönüştürme noktasına gelmiş, dünyadaki ticarileşmiş yaklaşık 20 girişim, Deepware Scanner örneğinde olduğu gibi, modelini derin öğrenme algoritmalarına dayandırıyor. Ürünümüz Deepware Scanner, bu kategoride çevrimiçi kullanıcıya ücretsiz sunulan dünyadaki ilk algılama motoru olma özelliğine sahip bulunuyor. Geliştirilen Deepfake Tespit ve Algılama Araçları’nda genellikle, görüntüleri sınıflandıran ve benzerlikleri kümelendiren Evrişimli Sinir Ağları (CNN’ler) kullanılıyor.

2019 yılı Ağustos ayında arXiv.org’da yayınlanan “FaceForensics ++: Değiştirilmiş Yüz Görüntülerini Algılamayı Öğrenme” adlı araştırma, son teknoloji görüntü manipülasyonlarının gerçekçiliğini ve bunları tespit etmenin, hem insan tarafından, hem de otomatik olarak ne kadar zor olduğunu inceliyor. Araştırma, algılama yöntemlerinin değerlendirmesini standartlaştırmak için, yüz manipülasyonu algılamasına yönelik otomatik bir kıyaslama öneriyor. Karşılaştırma, rastgele sıkıştırma seviyesi ve boyutunda yüz manipülasyonlarının önde gelen temsilcileri olan DeepFakes, Face2Face, FaceSwap ve NeuralTextures’a dayandırılıyor.

1.8 milyondan fazla işlenmiş görüntünün veritabanı olarak kullanıldığı araştırmada, derin öğrenmeye dayalı sahteciliğin kapsamlı bir analizi gerçekleştiriliyor ve sahteciliği tespit etmek için çeşitli modeller deneniyor. Çalışma, ham girdi verilerinde yüksek doğruluk elde ederken, sıkıştırılmış videolar için performansın düştüğü belirleniyor.  

Bir Video 1000 Yalana Bedel

Bazı deepfake üretme yöntemleri ise, geçici olarak tutarlı videolar oluşturamayabiliyor. Bu tutarsızlık nedeniyle ortaya çıkan işaretler, deepfake videoları algılamak için iyi ipuçları sağlayabiliyor. Fransız araştırmacılar tarafından Haziran ayında yayınlanan “Bir Video 1000 Yalandan Daha Değerlidir. Deepfake’leri Tespit Etmek İçin 3DCNN Yaklaşımlarını Karşılaştırma” başlıklı araştırma, 3 Boyutlu Evrişimli Sinir Ağları’ndan (3D CNN) bazılarının (I3D, 3D ResNet ve 3D ResNeXt) CNN kullanılarak manipüle edilmiş videoları algılama yeteneğini analiz ediyor. Araştırmanın sonuçları, başarılı bir tespit ve algılama modeli geliştirmek için manipülasyon yöntemlerinin daha iyi anlaşılması gerektiğini ortaya koyuyor. Araştırma, algılamanın bilinmeyen diğer manipülasyon yöntemlerine genellenebilir bir niteliğe kavuşturulması gerektiğine vurgu yapıyor.

İHA’lardakine Benzer Optik Akış Teknolojisi

İtalyan araştırmacılar tarafından gerçekleştirilen “Optik Akış Tabanlı CNN ile Deepfake Video Algılama” başlıklı araştırmada ise, deepfake video kareleri arasında, göreceli hareket farklılıkları (yüzdeki olağandışı hareketler gibi) takip ediliyor.  Belirli bir kare için, sahnedeki çeşitli öğelerin görünürdeki hareketini gösteren ileri optik akışını tahmin etmeye yönelik olarak PWC-Net modeli kullanılıyor. Çıkarılan optik akış değerleri, bir RGB görüntü formatına dönüştürülerek, deepfake içerikli sahtelikleri tespit etmek için Flow-CNN tarafından inceleniyor.

Optik akış, video kareleri arasındaki içerik farklılıklarını analiz ederek hareketli nesnelerin bilgisayar tarafından izlemesini ifade ediyor. Bir videoda, hem nesne, hem de gözlemci hareket halinde olabilir; ancak bilgisayar, fotoğrafların sınırlarını, kenarlarını ve bölgelerini işaretleyen ipuçlarını bulabilir. Bu teknoloji, insansız hava taşıtları (İHA) ve güvenlik sistemleri de dahil olmak üzere, farklı alanlarda kullanılıyor.

Yapay Kanıt İçin İz Süren, Deepfake Algılama Teknikleri

Deepfake tespit modeli geliştirmeye yönelik bazı araştırmalar ise, deepfake oluşturma yöntemlerinin henüz mükemmel düzeye ulaşmadığı savından hareket ediyor. Bu doğrultuda, bir medya parçasının manipüle edilip edilmediğini ve deepfake olup olmadığını anlamak için, analiz edebilir kanıtlar bulunduğu öngörülüyor. Bu tür yapay kanıtları arayan tespit yöntemleri de deepfake algılamasında ayrı bir kategoriyi oluşturuyor.

Napoli Federico II Üniversitesi’den iki araştırmacı, “CNN tabanlı kamera modeli parmak izi” adıyla yayınladıkları araştırmada, dijital görüntülerin adli analizinde, kamera içi ve kamera dışı işlemlerin görüntülenen izlerinin (Fotoğraf Yanıt Düzensizliği – PRNU) kullanılmasının büyük ilgi gördüğünü belirtiyorlar. Bu tür izlerin, bir tür kamera parmak izini temsil ettiğini vurgulayarak, kamera modeli parmak izini çıkarmak için, geliştirdikleri yöntemi aktarıyorlar.

Binghamton’daki New York Eyalet Üniversitesi’nden araştırmacılar da, “Sensör modeli gürültüsünü kullanarak dijital görüntü sahteciliğini algılama” başlıklı araştırmalarında, görüntü kaydedeci cihazların üretim sürecindeki kusurlardan dolayı, her bir cihazın, elde edilen tüm görüntülerde belirli bir işaret (PRNU modeli)  bıraktığını ve PRNU eksikliğinin manipülasyona işaret edebileceğini belirtiyorlar. Deepfake tespiti için PRNU tabanlı yöntemler kullanılabilir görünmekle birlikte, bu yöntemlerin iyi tahminler yapmak için çok sayıda görüntüye ihtiyaç duyması, büyük bir dezavantaj olarak değerlendiriliyor.

“GAN’lar Yapay Parmak İzi Bırakır mı?”

Yine Napoli Federico II Üniversitesi’den biri diğer araştırmada da görev alan üç kişilik araştırmacı grubunun “GAN’lar yapay parmak izi bırakır mı?” başlığıyla yayınladıkları bir diğer makalede ise, Deepfake tespiti için, bu kez Üretken Rakip Ağlar’ın (GAN) parmak izlerinin peşine düşülüyor. Her GAN’ın oluşturulan sentetik görüntülerde, kameralardaki PRNU izleriyle benzer şekilde, belirli bir “parmak izi” bıraktığı belirtiliyor ve GAN parmak izlerinin kanıtını gösteren bir deney sunuluyor. Deepfake’leri tespit etmek ve hatta bir deepfake’in kaynağını belirlemek için, bu yöntem bir potansiyel vadediyor. Ancak araştırmacılar, bu parmak izlerinin özelliklerini, kullanılabilirliğini ve sağlamlığını değerlendirmek için, daha fazla araştırmanın gerekli olduğunu belirtiyorlar.

Amerikalı ve Alman araştırmacıların yayınladıkları “Sahte Görüntüleri GAN’larla İlişkilendirme: GAN Parmak İzlerini Öğrenme ve Analiz Etme” başlıklı araştırma da, GAN parmak izlerinin öğrenilmesi ve analiz edilmesine yönelik ilginç iddialar ortaya koyuyor. GAN eğitimindeki küçük farklılıkların bile, ince taneli model kimlik doğrulamasına olanak tanıyan farklı parmak izlerini açığa çıkarabileceğini savunan araştırma, GAN parmak izlerinin uygulanabilirliği ve kapasitesi hakkında önemli ipuçları veriyor.

Deepfake Tespiti’nin Önündeki Yüksek Eşikler

Bir yandan farklı bilimsel yaklaşımlarla, sentetik medyayı tespit etmeye yönelik yeni deepfake algılama teknikleri geliştirilirken, diğer yandan algılama yöntemlerinin doğruluk düzeylerini kısıtlayan çeşitli teknik zorluklar ön plana çıkıyor.

Öncelikle internet üzerinden paylaşılan medyada, veri sıkıştırma, yeniden boyutlandırma, gürültü vb. nedenlerle kalite kaybı yaşanabiliyor. Bu durum, bazı deepfake algılama algoritmaları için sorun oluşturuyor. Medya kalitesi ve içeriğin bozulması durumunda da doğru sonuç üretebilen deepfake algılama yöntemleri geliştirmek, bu açıdan büyük önem taşıyor. 

Geliştirilen deepfake dedektörleri kandırmak için, sentetik medyayı algılamak için kullanılan yapay ipuçları ve “parmak izi” bilgilerinin kaldırılması da mümkün. Örneğin, bu yıl Temmuz ayında yayınlanan “GANprintR: Geliştirilmiş Sahneler ve Yüz Manipülasyonu Algılamada Son Teknoloji” başlıklı bir çalışma, sentetik medya görüntülerinden GAN parmak izini kaldırmak için, otomatik kodlayıcı tabanlı basit bir yöntemin yeterli olduğunu ortaya koyuyor. Bu yöntem, görüntünün görsel kalitesini korurken, yüz manipülasyonu ile ilgili algılama sistemlerini kandırıyor. Bu tür teknoloji hileleri, belirli deepfake algılama yöntemlerinin performansı açısından büyük bir tehdit oluşturuyor.

Deepfake algılama yöntemleri, bir videodaki anormal yanıp sönme oranı gibi çok spesifik özelliklere odaklanırsa, siber saldırganlar buna çözüm üretmekte gecikmeyecekler. Büyük olasılıkla, bu özelliklere sahip olmayan gelişmiş deepfake üretme yöntemleri geliştirmeye yönelecekler. 

Bilinmeyen deepfake üretme tekniklerine genelleme yeteneği, deepfake tespit modeli geliştirmenin kilit noktasını oluşturuyor. Mevcut deepfake algılama teknikleriyle, büyük olasılıkla sahte sentetik içeriğin gerçek kaynağını ve manipülasyon stratejisini bilemeyeceğiz. Ayrıca, daha yeni deepfake oluşturma yöntemleri geliştirildikçe, yetersiz genelleştirme stratejilerinin bu yeni teknikleri kapsayacak şekilde sürekli olarak güncellenmesi gerekecek. 

Deepfake’leri tespit etmeye yönelik geliştirilecek modellerin, deepfake üretiminde bilinmeyen alanlara uyum sağlayarak, algılama kısıtlarından sıyrılabilmesi, sentetik medyaya karşı verilen savaşın sonucunu belirleyecek.

Posted by Bülent Kızanlık

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.