Ses Takasından, Tam Vücut Sentezine, Deepfake Yolculuğu

Teknolojiye biraz meraklı, teknolojideki gelişmeleri az da olsa takip eden herkes, bugün artık gayet iyi biliyor ki;. Yapay Zeka (AI), derin öğrenme kabiliyeti sayesinde, duygusal zekayı bile, artık rahatlıkla analiz edebiliyor, kolonlayabiliyor ve sentezleyebiliyor. İnsanın fiziksel ve duygusal haritası çıkarılarak kodları çözüldükçe, yaşam kalitesini ve verimliliği artıracak pek çok gelişme, hayatın bir parçası haline gelecek. Ancak şuna da şüphe yok ki, bu paha biçilemez veri ağı, pek çok kötü emele ulaşmak için, karşı konulamaz biçimde iştah kabartacak. Kötülüklere adeta davetiye çıkaran AI’nin medya uzantısı olan deepfake teknolojisi de, hızla yayılarak tarihin en büyük siber tehdidine dönüşmekle kalmayacak, akıl almaz hileleriyle insanı tepeden tırnağa kuşatır bir düzeye ulaşacak.

Bir önceki yazıda vurguladığımız gibi, “yüz takası”, deepfake saldırganlarının da, AI üzerine araştırma geliştirme sürecini yöneten bilim gruplarının da, üzerinde en çok çalıştıkları yöntem olarak dikkati çekiyor. Ancak deepfake yöntemleri bununla sınırlı değil. Deepfake furyası, insanın sesini kolonlamaktan, tüm vücudunu ve vücut hareketlerini sentezlemeye kadar, hiçbir boş alan bırakmayacak biçimde geniş bir yelpazeye yayılıyor. Hatta bu yöntemlerin arasında, bir deepfake klasiği niteliğindeki, AI ters üretken ağların (GAN) klasik çalışma metotlarının dışına çıkanlar ve deepfake niteliği tartışmaya açık olanlar bile var.

Ses, hileye en uygun yöntem

Ses takası; deepfake videolarda olduğu gibi, hedefin sesini taklit etmek için bir makine öğrenme algoritmasına dayanıyor.  Deepfake sesi şu anda deepfake videodan çok daha esnek bir yapıya sahip bulunuyor. Deepfake ses profili oluştururken, “eğitim verileri” algoritmasını besleyecek ses modeli için, hedefin ses verileri, çoğunlukla konuşmalar, sunumlar, kurumsal videolar ve röportajlar gibi halka açık kaynaklardan kolayca toplanabiliyor. Yeterince sağlam bir deepfake ses profili oluşturulduktan sonra, sahte sesin okunmasına yönelik senaryolar için, “konuşma metni” yazılımları bile yeterli oluyor. 

Kusursuz bir derin ses için, en gelişmiş ağ, en az 20 dakikalık ses dinleyerek bir ses profili oluşturabilir. Bununla birlikte, şimdiye kadar deepfake saldırganlarının, kusurları gizlemek için zekice arka plan gürültüsü kullandıkları dikkat çekiyor. Örneğin, parazitli bir cep telefonu bağlantısından çağrı yapan veya yoğun bir trafik gürültüsüne sahip bir alandan görüşme yapan birini taklit etmek, karşı tarafın kusurları fark etmesini engelliyor. Bu nedenle, deepfake ses takasları, deepfake siber saldırılarının adli kayıtlara giren ilk örneklerinden birini oluşturuyor. İngiltere’deki Almanya merkezli bir şirketin CEO’sunun sesi taklit edilerek, sahte para transferi talimatı yoluyla gerçekleştirilen dolandırıcılığın faturası, çeyrek milyon dolara yaklaşıyor. Belki ses takası, gelecekte yazılacak Deepfake Tarihi’nde, yüz takası pornoları gibi bir milat olamayacak. Ancak, sıkça hatırlatmak durumunda kaldığımız bu ilk deepfake suçu, her zaman önemli bir kilometre taşı olarak anılacak.

Tümüyle sahte ve sentetik olmayan deepfake yöntemi…

Hızlandırma yavaşlatma; deepfake teknolojisinin doğasına bire bir uymamakla birlikte, son derece kolay yöntemlerle de, videolar manipüle edilerek, deepfake etkisi yaratabileceğine güzel bir örnek oluşturuyor. Hedef bu kez tümüyle sahte ve sentetik değil. Ekranda konuşan gerçekten ABD Temsilciler Meclisinin sözcüsü Nancy Pelosi. Ancak Facebook’tan dağılan video, yüzde 25 oranında yavaşlatılmış ve sözcükler doğru kullanılamıyormuş gibi görünmesi için ses değiştirilmiş. Pelosi, sanki sarhoş bir halde konuşmaya çalışıyor. Video, Politika Watchdog adlı bir Facebook sayfası tarafından gönderildi ve eski New York belediye başkanı Rudy Giuliani de dahil olmak üzere geniş çapta bir tweet ağı ile paylaşıldı. Gönderi daha sonra silindi, ancak saldırının kimin tarafından yapıldığı açığa çıkmadı. 

Vücut hareketlerini yansıtma; deepfake sentetik medya teknolojisinin, hızla gelişen bir başka alanını oluşturuyor. Tam vücut sentezlemeyi esas alan bu yöntemin en dikkat çeken çalışmasını, Ağustos 2018’de California Üniversitesi Berkeley araştırmacıları ortaya koydu. Bu çerçevede, derin öğrenme algoritmalarının profesyonel bir dansçının hareketlerini amatörlerin bedenlerine nasıl aktarabildiğini gösteren “Everybody Dance Now” başlıklı bir makale ve video yayınlandı.  Ayrıca, 2018’de, Almanya’daki Heidelberg Üniversitesi’nden Dr. Björn Ommer liderliğindeki bir araştırma ekibi, insan hareketlerini gerçekçi bir şekilde gerçekleştirmek için kullanılan makineler hakkında bir makale yayınladı. Tüm insan vücudunu sentezlemek için, diğer deepfake yöntemlerinde olduğu gibi Rakip Üretken Ağlar ya da kısa adıyla GAN kullanıyor Yüzleri sentezleme süreçleri ile tüm vücutlar arasında kritik farklılıklar bulunuyor. Heidelberg Üniversitesi Görüntü İşleme İş Birliği (HCI) ve Disiplinler Arası Bilimsel Bilgi İşlem Merkezi (IWR) bilgisayar vizyonu profesörü Björn Ommer, yüz sentezi hakkında daha fazla araştırma yapıldığını ve daha büyük ilerleme sağlandığını savunuyor. Çünkü herhangi bir dijital kamera veya akıllı telefon, yüz tanıma, gülümseme algılama gibi görevler için gerekli teknolojiye sahip bulunuyor. Bu tür uygulamalar gelir elde ederek, daha fazla araştırmaya kaynak sağlayabiliyor. Ommer için daha ilginç olanı, her insan yüzü farklı görünse de, yüzün bütün bir insan vücudu ile karşılaştırıldığı zaman, çok fazla değişkenliğin olmaması. Ommer’e göre, tüm vücudun sentezlenmesi ile ilgili algoritmaların, GitHub gibi platformlardan yaygın biçimde erişilebilir hale gelmesi, birkaç yıl alacak. Dans ve atletizm gibi alanlarda ilginç ticari uygulamalara ufuk açsa da, dezenformasyon riski, günümüzün kutuplaşmış siyasi ikliminde şimdiden endişe yaratıyor. 

Videolarda sentetik hokus pokus yöntemi

Videolardan nesne silmek; geliştirme sürecinde olsa da ürkütücü deepfake yöntemleri arasında ön sıralarda yer alıyor. Videolarda hareketli nesneleri görünmez kılmak, düzeltme ya da kalite artırma gibi meşru gerekçelere dayandırılıyor. Ancak yüksek manipülasyon potansiyeli, kötü niyetli kullanımlar için de, karşı konulmaz fırsatlar yaratacağı benziyor. Tabi ki, bununla da sınırlı kalmayacak. Olmayanları var göstermek için, videolara gerçekçi nesneler eklemek için, AI destekli uygulamalar, yakında sinema endüstrisinin teknoloji uzmanlığı gerektiren, zorlu manuel yöntemlerinin yerini alacak.  

Hareketli nesneleri videolardan zahmetsizce kaldıran AI destekli yazılımlar, zaten erişime açık durumda. GitHub.com’a “zllrunning” kullanıcı adlı bir geliştirici tarafından eklenen yazılım, videolardaki hareketli nesneleri izlemek için kullanılan “SiamMask” ve görüntüleri kayıttan silmeyi esas alan “Deep Video Inpainting” adlı iki eğitim modelinden ilham alıyor. Bir nesneyi görüntüden silmek için yapmanız gereken tek şey, etrafına bir kutu çizmek ve belli belirsiz izleri dert etmezseniz, yazılım gerisini sizin için hallediyor. Singapur’daki Nanyang Teknoloji Üniversitesi’nden araştırmacılar da, Mayıs 2019’da aynı işleve sahip bir algoritma sundu. “Derin Akış Tamamlama” ağı kullanarak videodaki eksik bölgeleri dolduran metot, DAVIS ve YouTube-VOS veri setleri üzerinde, kalite ve hız açısından, üst düzey performans sergiledi. Adobe da, video düzenleme uygulaması After Effects’te de benzer bir özelliğe yer vermeye başladı. Adobe Research tarafından geliştirilen ve MAX 2017’de sunulan Project Cloak teknolojisi, zaten daha o günlerde, istenmeyen piksellerin sahnenin görünümüyle en iyi şekilde eşleşen yenileriyle nasıl değiştirileceğini ortaya çıkaran bir algoritmaya sahip bulunuyordu. 

Photoshop ile manipüle edilmiş statik fotoğraf görüntüleri bile, dünya çapında suçlular ve nefret satıcıları için, bugüne kadar önemli bir silah olmuştu. Sentetik deepfake medya ise, erişim hızı ve psikolojik etki alanı bakımından çok daha tehlikeli. Video ve ses daha ikna edici, hafıza ve duygu üzerinde daha güçlü bir etkiye sahip. Zaman daralıyor, siber düşman sinsice çok cepheden saldıracak.

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: