En Korkunç İnandırıcılığa Sahip; Canlı Deepfake

Bond filmlerinden bildiğimiz görüntülü iletişim teknolojisi, önceleri kesintisiz kaliteli bir görüşme için, pek de ucuz olmayan video konferans sistemleriyle hayatımıza girdi. Sonra baktık ki, Skype, Whatsapp, Facebook Messenger, Face Time, Google Duo ve Hangouts başta olmak üzere, yüzlerce uygulama, canlı görüntülü sohbeti, çevrimiçi sıradan kullanıcılar için, çocuk oyuncağına dönüştürmüş. Bedava görüntülü sohbet uygulamaları mesafeleri kaldırıp, akıllı cihaza sahip herkesin, yüz yüze canlı iletişimine olanak sağlarken, yaklaşan küresel siber tehdide karşı, bizi belki de en korumasız hale getiriyor…

Teknoloji tarihinin en büyük siber tehdidi olan ve deepfake olarak adlandırılan sentetik medyalar konusunda, gelişmiş batı toplumlarından başlayan farkındalık giderek yayılıyor. Diğer yandan, yapay zeka (AI) ile geliştirilen rakip üretken ağların, makine öğrenmesine dayalı algoritmaları sayesinde, sıradan kullanıcılar bile, biraz uğraşarak da olsa, sahte videolar üretip, sosyal medya aracılığıyla yayabiliyorlar. Farkındalık mı daha hızlı artıyor, yoksa kötü niyetlerle kullanıldıklarında birer siber silaha dönüşebilen deepfake videolar mı, henüz bunu ölçmek mümkün değil. ABD’de yaklaşan 2020 seçimleriyle birlikte, seçmenin demokratik iradesinin sahte videolarla baskı altına alınmasından duyulan endişe artınca, bu yeni nesil siber terör hakkında, duyarlılık gelişmeye başladı. ABD, en yakın tehdidin kendi toplumunu hedef alması üzerine, “deepfake bilinçlendirme kampanyası” niteliğinde güçlü PR faaliyetlerine yöneliyor. Diğer yandan, Facebook’un 10 milyon dolar ödüllü yarışması gibi teşviklerle, siber güvenlik sağlayıcıların, sahte videoyu gerçeğinden ayırt edecek acil güvenlik teknolojileri geliştirmesi destekleniyor. Bu tür çabalar da çevrimiçi farkındalığı artırmaya katkı sağlıyor.

Söylediklerinizi anlayan ve anlık cevaplar veren; canlı deepfake…

Yakın gelecekteki deepfake salgınının hedefindeki çevrimiçi kullanıcıların, en azından önemli bir bölümü, bu konuda kuşkusuz daha da bilinçlenecek. Böylece, onlar karşılaştıkları her videoyu izlerken, gerçekliğinden şüphe duyma alışkanlığını zaman içinde kazanabilirler. Hatta, bu bilinçli çevrimiçi izleyiciler, gerçekliğinden tereddüt ettikleri video dosyalarını, Zemana Deepfake Detection SDK başta olmak üzere, dünya çapında bugün sadece birkaç siber güvenlik sağlayıcısının geliştirip çevrimiçi kullanıcılara sunduğu, “deepfake dedektörü” niteliğindeki yazılımlar yardımıyla kontrol edebilirler. Siber güvenlik sağlayıcıların deepfake medyayı çözümleme ve çevrimiçi kullanıcıyı uyarma yeteneği geliştikçe, bu tür saldırıların yol açacağı zarar da azalacaktır. Böylece bir süre sonra, kötü niyetli deepfake üreticileri, belki Youtube, Facebook, Instagram başta olmak üzere, sosyal ağlardan çevrimiçi kullanıcıların ekranlarına yaydıkları her video ile izleyicilerin tümünü kandırmayı başaramayabilirler. Peki ya, deepfake saldırısı, “belirsiz zamanlı bir video” ile değil, “gerçek zamanlı, anlık bir görüntülü iletişim” yöntemiyle gerçekleştirilirse? O zaman da gafil avlanmamayı sağlayabilecek miyiz?

“Gerçek zamanlı deepfake saldırısı”, örneğin Skype gibi anlık bir görüntülü iletişim uygulamasından sizi arayan bir kişinin, “ele geçirdiği” tanıdığınız bir kişiye ait yüzü ve sesi, sahte ve sentetik biçimde kullanarak, sizi tanıdığınız kişiyle görüştüğünüze inandırması anlamına geliyor. Sesten ibaret görüntülü olmayan deepfake medyalar, gerçeklikleri konusunda belki bir biçimde şüphe uyandırabilir. Ama, tanıdığınız kişi, kanlı canlı biçimde telefonunuzun ekranında görüntülü olarak sizinle sohbet ediyorsa, her söylediğinizi anlayıp, anında kabul edilebilir mantıklı yanıtlar veriyorsa, ondan şüphe etmek, diğer deepfake videolara göre çok daha güç olabilir. Bu nedenle, “canlı deepfake” saldırılar, belki de en korkunç inandırıcılığa sahip olanlar arasında, en ön sırada yer alacak.

Yüzünüzü çaldırmak mı, sahte bir yüzle kandırılmak mı daha kötü?

Deepfake video üretenler, bir kişinin yüzünü ve hatta kendi yüzlerini, başka birinin yüzü ile değiştirmek için, yapay zeka (AI) teknolojisinin Deep Learning adı verilen, makine öğrenmesine dayalı özelliğinden yararlanıyorlar. Öğrenebilen algoritmalara sahip sinir ağları, yüzleri kodlayabiliyor ve bu kodları çözerek, “gerçeklik algısını kör edebilecek” inandırıcılıkta, sahte sentetik takas yüzler geliştirebiliyor. Bu sentetik deepfake yüzlerin geliştirilmesinde, sinir ağının eğitimi için, kişinin mevcut bir videosu, farklı pozlarda görüntüleri ve hatta tek kare fotoğrafı bile yeterli olabiliyor.  Sinir ağı, her bireyin yüzünün özelliklerini öğrendikten sonra, kişinin daha önce hiç görmediği pozlarda nasıl görüneceğini “hayaletmeye” başlıyor. Böylece, jest ve mimikleriyle birlikte, video sentetik yüz oluşturuluyor ve çok gerçekçi bir “yüz takası” gerçekleştirilebiliyor. Üstelik korkunç inandırıcılığa sahip bu yüz takası, aynı yöntemle geliştirilen ses takası ile desteklenerek, anlık görüntülü mesajlaşma uygulamaları üzerinden canlı deepfake saldırıları gerçekleştirilebiliyor. Siz akıllı cihazınızın ekranında, tanıdığınız kişinin sahte sentetik yüzü ve sesi ile gerçek zamanlı bir biçimde canlı sohbet gerçekleştirdiğinizi sanıyorsunuz. Tanıdığınız bir yüzü takas ederek, sizinle canlı görüntülü sohbet eden bir deepfake saldırganının, sizi o olduğuna inandırdığında, neler yapmanızı sağlayabileceğini hayal etmek bile ürkütücü. Kendisine para göndermenizi sağlayabilir, gizli bir bilginizi edinip sizi zarara uğratacak biçimde kullanabilir, o yüzün gerçek sahibi ile ilgili duygularınızı ve kararlarınızı yanlış yönlendirebilir. Sizinle canlı sohbet eden deepfake takas sentetik yüzün, gerçekten tanıdığınız kişi olduğuna inandığınızda, artık tümüyle korumasız durumdasınız.

Chat Roulette gibi görüntülü sohbet sitelerinde, takas sahte bir yüzle, komik tepkiler alıp, eğlenceli zaman geçirmek mümkün. Ancak yüzü çalınan, siz de olabilirsiniz.  Bir fotoğraf karesi ya da videonuzdan yüzünüz çalınarak, canlı deepfake takas yüzü olarak kullanıldığını ve böylece bir görüntülü sohbet uygulamasında kimliğinizin canlı olarak taklit edildiğini düşünün. Başınıza kim bilir neler gelir. Yüzünüzü ve sesinizi ele geçiren siber saldırgan, sizi asla yapmayacağınız bir davranışın, bir suçun ya da bir porno görüntünün objesi haline getirebilir. Yüzünüzü kötü niyetli deepfake video üretene çaldırmak da tıpkı sahte bir takas yüzle kandırılmak kadar, korkunç ve zarar verici olacaktır…

Hızlı bir bilgisayar ve birkaç derin kütüphane ile 48 saat yeterli…

Kötü niyetli olmayan meraklı kullanıcılar için bile, deepfake yüz takası macerası yaşamak için, bir hafta sonu deneyimi yeterli olabiliyor. Bunun için, örneğin 4 çekirdekli i7 işlemcili oldukça hızlı bir bilgisayar gerekli. Resimlerdeki ve videolardaki yüzleri tanımak ve takas etmek için, derin öğrenmeyi kullanan FaceSwap ve Youtube videolarından resim çekmeyi kolaylaştıran Faceit dosyalarının kütüphanelerine Github.com üzerinden zaten kolayca erişilebiliyor. Gerçeğe en yakın sentetik yüzü elde etmek için, modeli 48 saatten fazla bir süre boyunca eğittikten sonra, gayet iyi sonuçlar elde edilebiliyor. Web kamerasındaki gerçek zamanlı görüntü, çok iyi bir kare hızında çalışıyor. Görüntü kalitesi açısından da dikkat çekici bir sorun yaşanmıyor. Geçtiğimiz Eylül’de MIT’deki teknoloji konferansında, gerçekleştirilen canlı deepfake Putin röportajı, birkaç yıl içinde tehlikenin kapıda olduğuna işaret ediyor. Bir amatör kullanıcının, kolayca erişip sonuç alabildiği deepfake olanaklarının, profesyonel siber tetikçilerin elinde, nasıl tehlike saçacağını kavradıkça, siber güvenliğin değeri daha da iyi anlaşılıyor…

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: