Deepfake Kronikleşiyor, Algılama Teknolojileri Açık Arıyor

Geliştirilen tüm algılama modelleri, deepfake’lerin ortak özelliklerine odaklanarak, farklı üretim teknikleriyle üretilmiş sentetik medyayı, mümkün olan en geniş kapsamda ve en yüksek hassasiyetle saptamayı hedefliyor. Deepfake’in tespitini kolaylaştıracak bir açığını belirleyip, tehlikeyi sınırlamadıkça, tümüyle çözmeye sıra gelmeyecek gibi görünüyor.

Dijital medya, Dijital Dönüşüm Çağı’nın giderek en tehlikeli silahı haline geliyor. Kullanıcıların dakikada 500 saatlik içerik yükledikleri Youtube, manipülatif taktiklerle içerik yaymaya çalışan toplam 8 milyon kullanıcı hesabıyla mücadele etmek zorunda kalıyor. Yapay zeka ve derin sinir ağları (DNN) kullanılarak üretilen sahte sentetik medya, “Deepfake” tanımıyla, dev bir çığ tehlikesine dönüşüyor.

 Deepfake tanımının popülaritesi artarken, kapsama alanı da genişliyor. Bazen “yüz takasları” veya “ifade / öznitelik manipülasyonu” için, bazen de tamamen bir derin öğrenme algoritması tarafından sentezlenerek sıfırdan üretilen ses ve görüntüler için, bu tanım kullanılıyor. 

Deepfake tespitinin önemi giderek derinleşiyor

Makine öğrenimindeki gelişmeler nedeniyle, artık minimum çabayla mükemmele yakın kalitede deepfake üretebilmek mümkün. Bu yüzden hipergerçekçi deepfake’lerin, yakın zamanda büyük zararlara yol açması hiç şaşırtıcı olmayacak. Sentetik medya teknolojisi, büyük miktarda yanlış bilgi oluşturmak, kişi ve kuruluşların itibarına zarar vermek, siber sahtekarlık ve dolandırıcılık gibi pek çok farklı saldırı amacıyla kullanılabilir. Bu durum, Deepfake Tespiti’ni giderek önemli hale getiriyor. 

Deepfake’lerin kalitesi arttıkça, insanların onu tespit etmesi giderek daha zorlaşıyor. Yüksek kaliteli deepfake’ler oluşturmak daha kolay ve daha hızlı hale geldikçe, deepfake medya içeriğinin hacmi, insan algılamasının sınırlarını aşıyor.  Bu nedenle, bir medya içeriğinin deepfake olup olmadığını belirlemek için, artık algoritmalara güvenmekten başka şansımız kalmıyor.

Tespit ve Algılama’da İlk Hedef, Tehlikeyi Sınırlamak

Neyse ki, deepfake tespit ve algılama alanında araştırmalar devam ediyor ve ortaya çıkmaya başlayan yapay zekaya dayalı yeni nesil çözümler, çok sayıda potansiyel fayda sunuyor. Algoritmalar yalnızca otomatik sonuç üretmekle kalmıyor, aynı zamanda insanların sentetik medyayı ayırt edebilmek için kendi başlarına bulması zor olan ipuçlarını da risk potansiyeli olarak algılayabiliyor.

Deepfake üretim tekniklerinin artan bir hızla gelişmesi ve çoğalması, sentetik medyayı yeni bir tespit ve algılama modeliyle önlenebilir / giderilebilir akut bir problem olmaktan uzaklaştırdı. Deepfake, birlikte yaşamayı ve tehlikeli sonuçlarını en aza indirmeyi öğrenmemiz gereken, kronik bir riske dönüştü.

Geliştirilen tüm algılama modelleri, deepfake’lerin ortak özelliklerine odaklanarak, farklı üretim teknikleriyle üretilmiş sentetik medyayı, mümkün olan en geniş kapsamda ve mümkün olan en yüksek hassasiyetle saptamayı hedefliyor. Deepfake’in tespitini kolaylaştıracak bir açığını belirleyip, tehlikeyi sınırlamadıkça, tümüyle çözmeye sıra gelmeyecek gibi görünüyor.

Deepfake Algılama Teknikleri

Deepfake üretim yöntemleri kadar hızlı ve çok sayıda olmasa da, deepfake tespiti için de, farklı yaklaşımlarla yeni algılama teknikleri geliştiriliyor. Bilimsel makale arşivi arXiv’de 18 Haziran’da yayınlanan “DeepFakes ve Ötesi: Yüz Manipülasyonu ve Sahte Algılama Üzerine Bir Araştırma” başlıklı çalışma, deepfake algılama yöntemlerini kategorize ederek, incelememize olanak sağlıyor. İncelenen deepfake tespit ve algılama modelleri, aslında birden çok kategoriye dahil edilebilir nitelikler taşıyor.

Kusurlara Odaklanan Deepfake Tespit ve Algılama Yöntemleri

Deepfake üretim teknikleri, son derece gerçekçi görünen sentetik medya içerikleri oluştururken, bazen bir insan veya algoritmanın incelendiğinde fark edebileceği, belirgin kusurlar da ortaya koyabiliyor. Doğal olmayan yüz özellikleri, bu duruma örnek gösterilebilir. İşte bazı deepfake tespit ve algılama teknikleri, bu kusurları belirlemeye ve sentetik medyayı bu yolla ayırt etmeye odaklanıyor.

Berkeley’deki California Üniversitesi’nden, dünyaca ünlü adli bilişim uzmanı Prof. Hany Farid’in de aralarında yer aldığı bir araştırmacı grubu, yayınladıkları bir makale ile “Dünya Liderlerini Deepfakes’e Karşı Korumak” konusunu ele aldılar. Araştırmada, derin öğrenmedeki son gelişmelerin, ortalama bir kişinin, bir dünya liderinin sofistike ve son derece inandırıcı videosunu, mütevazi ölçüde veri ve bilgi işlem gücüyle üretebilmesini olanaklı hale getirdiği belirtildi. Dünya barışı, demokrasi ve anayasal düzen için büyük tehlike oluşturan, dünya liderlerine yönelik sahte sentetik medya tehdidi karşısında, araştırma grubu hedef alınan kişinin konuşma modelini simgeleyen yüz ifadelerini ve hareketlerini modelleyen bir teknik geliştirdiğini duyurdu.

Dünya Liderlerine 190 Boyutlu Vektörel Deepfake Tespiti

Makalenin hipotezi, bir bireyin konuşmasıyla ilgili muhtemelen benzeri olmayan yüz ifadelerine ve hareketlerine sahip olması. Araştırmacılar, belirli bir videodaki yüz ve baş hareketlerini çıkarmak için OpenFace2 araç setini kullanıyor. 

Yüz hareket ünitelerini, belirli eksenler etrafında kafa dönüşlerini ve belirli ağız noktaları arasındaki 3 boyutlu mesafeleri toplayarak, belirli bir 10 saniyelik video klip için 20 yüz / kafa özelliği belirliyorlar. Bu özellikler arasındaki Pearson korelasyonunu hesaplayarak, 10 saniyelik klibi temsil eden 190 boyutlu bir özellik vektörü elde ediyorlar. 190-D özellik vektörü çıkarıldıktan sonra, 10 saniyelik video klibin hedef kişinin gerçek bir videosu olup olmadığını belirlemek için, gözetimli öğrenme algoritmalarından tek sınıf bir destek vektör makinesi (SVM) kullanıyorlar.

Deepfake’i gözünden anlamak mümkün mü?

Deepfake içerikteki kusurlara odaklanan tekniklere bir diğer örnek de, “DeepVision: İnsan Gözü Yanıp Sönme Modelini Kullanarak Deepfake Algılama” başlıklı araştırma. 20 Nisan’da yayınlanan araştırmada, videodaki deepfake’leri tespit etmek için, bir kişinin göz kırpma modellerini analiz etmeye yönelik bir teknik öneriliyor.

DeepVision adlı algoritma, Üretken Rakip Ağ (GAN) modeli kullanılarak oluşturulan Deepfake’leri tespit etmek için farklı bir yaklaşım ortaya koyuyor. Araştırmacılara göre deepfake’ler, tıp, biyoloji ve beyin mühendisliği araştırmalarının sonuçlarına dayanan sezgisel bir yöntemle, göz kırpma modellerinde meydana gelen önemli değişiklikleri takip ederek, bütünlük doğrulaması yoluyla belirlenebiliyor. 

DeepVision adıyla önerilen yöntem, göz kırpmalarının çok kısa bir süre içinde sürekli olarak tekrarlandığı dönem, tekrarlanan sayı ve geçen göz kırpma süresine dayalı olarak anormalliği belirliyor. Bunun için videodaki kişiyi tanımlamak için kaydedilen girdi niteliğindeki 4 özelliğe (cinsiyet, yaş, aktivite ve zaman) dayanarak, tipik yanıp sönen desen verileriyle önceden yapılandırılmış bir veri tabanı sorgulanıyor ve karşılaştırma yapılıyor. Buna dayanarak, bir videonun deepfake olup olmadığı belirleniyor.  DeepVision’un, 8 video türünden 7’sinde deepfake’leri doğru bir şekilde tespit ederek, % 87,5 doğruluk performansına ulaştığı ifade ediliyor.

Her Deepfake’in Bir Kusuru Olur mu?

Deepfake medya içeriklerini, sentetik kusurlarını tespit ederek, orjinalinden ayırt etmek, kısa sürede geçerliliğini yitirmesi kaçınılmaz bir strateji olarak görünüyor. Çünkü bir yandan, deepfake üretim modelleri, orijinal içerik ile eşdeğer bir hiper gerçekçi niteliğe doğru koşuyor. Yani kusurlar giderek ortadan kalkıyor. Diğer yandan, tespit edilecek kusurlar, ancak belli teknikler kullanılarak üretilen deepfake içeriklerin tespitini sağlıyor. Onlardan farklı ya da henüz bilinmeyen yeni tekniklerle üretilecek deepfake medyanın, aynı kusurları barındırıyor olmasını beklemek, çaresizce bir iyimserlik olacaktır.

Deepfake Tespit ve Algılama alanındaki, yeni nesil teknoloji geliştirme çabaları, “deepfake’de kusur aramaktan” ne kadar öteye geçiyor ve çözülmesi olanaksız gibi gözüken en büyük engel ne? O da, bir sonraki yazının konusu….

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: