Video Konferans Makyajı, Deepfake’e Davet mi?

Daha 6 ay öncesine kadar, deepfakelerin video konferans teknolojisinin handikaplarından yararlanarak, bunu çevrimiçi görüşme ve toplantılar için bir güvenlik zaafına dönüştürmesinden endişe ediliyordu. Deepfake teknolojileri, kısa bir aradan sonra bu alanda şimdi karşımıza daha da kafa karıştıracak bir biçimde çıkıyor. Çevrimiçi kullanıcılara, kendilerini daha iyi hissettirecek, hem de tasarruf ettirecek, daha kaliteli bir görüntülü konuşma vaat ediyor.

Sentetik medyanın giderek daha büyük bir çevrimiçi tehlikeye dönüşüyor olma nedeni, henüz bu yolla gerçekleştirilen siber saldırılar değil. Büyüyen tehlike, bu saldırılar için şartların büyük bir hızla giderek daha uygun hale geliyor ya da getiriliyor olması.  Yani deepfake teknolojilerindeki kolay erişilebilir gelişmeler, bunları kötü niyetle kullanabilecek olanları adeta dürtüyor. Onlara, farklı meşru kılıflar altında, hazır, rahat, kolay imkanlar sunuyor. Geriye sadece sunulan deepfake sentetik ses ve görüntü üretme olanaklarını, nasıl bir saldırı, sahtekarlık ya da dolandırıcılığa alet edilebileceği konusunda, yapay zekayı (ai) şeytani zeka ile birleştirmek kalıyor.

Her ölümcül tehlike, o tehlikeyi elinde tutanlar için, aynı zamanda büyük bir güç haline gelir. O yüzden, özellikle bu tür sarsıcı teknolojiler, daima meşru görülebilir ve hatta desteklenebilir, olumlu amaçlarla gerekçelendirilir. Nükleer gücün nasıl insanlık dışı bir silaha dönüşebileceğini, insanlık atom bombası ile on yıllar süren ağır bir bedel ödeyerek anladı. Sentetik biyolojinin eseri olan biyolojik silahlar ise, nefret suçunun giderek en kontrolden çıkmış araçlarına dönüşüyor. Şimdi sırada, sentetik medya mı var? Bugün hoşumuza giden, işe yarar bulduğumuz, duyularımızı ve algımızı ilizyonla manipüle eden sentetik medya, yarın başkalarının bize karşı kullandığı bir silaha dönüşmeyecek mi? O zaman, yine böyle görmezden gelip, eğlenceli bulmayı sürdürebilecek miyiz?

Sentetik medya teknolojileri başıboş gelişiyor

Covid-19 pandemisinin tüm dünyada iş hayatı ve sosyal yaşamı dijitalleşmeye zorladığını, hayatın giderek daha çok çevrimiçi bir yapıya büründüğünü yaşayarak görüyoruz. Pandemi öncesinde de çevrimiçi iletişim ve dijital medya, zaten sosyal medyanın manyetik çekim gücüyle, hayatı giderek dijital ekranlara hapsediyordu. Pandemi sonrasında, alışverişten iş toplantılarına, eğitimden sohbete ve hatta siyasete kadar her şeyin dijitalleşmesi, hayatın olağan akışı haline geldi.

Sentetik medyanın, Yeni Tip Koronavirüs gibi, henüz herkese bulaşmamış olması, bu alanda da büyük bir salgının her an baş göstermeyeceği manasına gelmiyor. Ama biyolojinin sentetikleşmesi sürecinde, ölümcül tehdit nasıl laboratuvarlardan sokağa taşmadan önce görmezden gelindi ise, sentetik medya teknolojileri de o kadar başıboş gelişiyor.

Video konferans için tehlike görülürken…

Pandemi sürecinde, Zoom başta olmak üzere, video konferans uygulamalarının önlenemez yükselişinin, deepfake saldırıları için uygun bir iklim yarattığı biliniyordu. Nitekim çevrimiçi video konferans oturumlarını hackleyerek, davetsiz misafir olarak, katılımcıları mağdur eden ve Zoombombing adı verilen saldırılar gecikmedi. Gerçek zamanlı deepfake teknolojisi de saldırı amaçlı olmasa bile, Elon Musk profilinin etkisinden de yararlanılarak, bu süreçte ilk kez denenmiş oldu.

Ali Aliev adlı bir programcı 6 ay kadar önce deepfake’leri gerçek zamanlı olarak oluşturmak için geliştirdiği yöntemi, Zoom’da sergiledi. Aliev projesini test etmek için, ünlü teknoloji milyarderi Elon Musk deepfake’i ile ‘yanlışlıkla’ davetli olmadığı bir çevrimiçi toplantıya girdi. Böylece en çok ses getiren Zoombombing’in kahramanı oldu. Reaksiyonlara bakılırsa, gerçek zamanlı bir deepfake, yaygın çözünürlük ve kare hızı düşüşleri nedeniyle Zoom formatında yeterince ikna edici olabiliyor. Ve habersiz katılımcıların yüzlerindeki şaşkın bakışlar Aliev’in amacına ulaştığını ispatlıyor.

Bu teknolojinin adı Avatarify. Aliev tarafında,n İtalya’daki Trento Üniversitesi’ndeki araştırmacılar tarafından üretilen “Görüntü Animasyonu İçin Birinci Derece Hareket Modeli” adlı açık kaynaklı ai kodu kullanılarak geliştirilmiş. Avatarify, başka bir kişinin yüzünü gerçek zamanlı olarak üst üste getiriyor. Avatarify akış sırasında aksamadan çalışıyor. Bununla birlikte, işlemcisi güçlü, örneğin birinci sınıf bir oyun bilgisayarı ile en azından programlama ve ai hakkında temel bir altyapı gerekiyor.

Denemek isteyenler için, GitHub’dan erişilebilen Avatarify, Albert Einstein, Eminem, Steve Jobs, Mona Lisa, Barack Obama, Harry Potter ve Ronaldo olarak listelenen, dünyaca ünlü modelleri kullanıcılarına sunuyor. Ayrıca geliştiricisinin verdiği bilgiye göre, modeli eğitmek de gerekmiyor. Sadece resimleri klasöre koymak gerekiyor. Yani iyi ya da kötü belli bir niyeti ve hedefi olan, teknolojiye yabancı olmayan, zamanı, hırsı, donanımı yeterli olanlar için, sentetik bir profille canlı bir video konferans görüşmesini manipüle edebilmek, hiç de olanaksız değil. Başınıza gelse eğlenceli bulur muydunuz?

Deepfake şimdi de video konferans kalitesini artıracak

Daha 6 ay öncesine kadar, deepfakelerin video konferans teknolojisinin handikaplarından yararlanarak, bunu çevrimiçi görüşme ve toplantılar için bir güvenlik zaafına dönüştürmesinden endişe ediliyordu. Deepfake teknolojileri, kısa bir aradan sonra bu alanda şimdi karşımıza daha da kafa karıştıracak bir biçimde çıkıyor. Çevrimiçi kullanıcılara, kendilerini daha iyi hissettirecek, hem de tasarruf ettirecek, daha kaliteli bir görüntülü konuşma vaat ediyor.

Ekran kartları üreten teknoloji şirketi Nvidia, geliştirdiği yeni ürünü Maxine’i dijital ekosisteme sundu. Doğrudan video konferans son kullanıcılarına yönelik olmamakla birlikte, video konferans platformlarının arka planda kullanacağı yeni bir ai teknolojisi olan Maxine, çevrimiçi görüntülü görüşmelerde yeni bir çığır açacağa benziyor.

Bant genişliğinden tasarruf, en cazip havuç

Maxine, video konferans hizmeti geliştiricileri için tasarlanmış bulut tabanlı, ai ile güçlendirilmiş bir yazılım geliştirme kiti sunuyor. Bu yeni sistemle, video konferans görüşmelerinde video için bant genişliği kullanımının onda birine ineceği söyleniyor. Bu tabi ki, maliyetleri aşağı çeken bir bonus. Özellikle, internet kotalarının sınırlı olduğu durumlar düşünüldüğünde son kullanıcılara önemli bir tasarruf imkânı sunuyor. Bu özellik, düşük bant genişliklerinde yüksek çözünürlük sunması açısından da önem taşıyor.

Bu sistem, bir anlamda gerçek zamanlı deepfake canlandırması yapan Avatarify gibi çalışıyor.  Diğer video konferans sistemlerinde olduğu gibi ilk başta bir referans görüntü karşı tarafa gönderiliyor. Devamında ise, mevcut uygulamalarda olduğu gibi, bant genişliğinin çoğunu kullanan görüntü piksellerinin gönderilmiyor. Onun yerine yüz ifadesinin temel hareketleri algılanıp, başlangıçta gönderilen referans görüntüsünün canlandırılması yapılıyor. Bir anlamda çekilen fotoğraf ile yeni bir animasyon oluşturuluyor ya da kişinin gerçek görüntüsü deepfake avatara dönüştürülüyor.

Bant genişliği düşerken, çözünürlük ve görsel temas artıyor

Maxine ile bant genişliği problemine karşı vaat edilen bir başka çözüm de, düşük kalitede gönderilen videoların yapay zekâ ile çözünürlüklerinin artırılıyor olması. Internet hızı iyi olmadığı için, gönderebildiği görüntünün çözünürlüğü örneğin 360p olan bir kullanıcı, bu görüntüyü karşı tarafa bulut tabanlı ai sayesinde 720p’ye yükselterek daha kaliteli bir görüntü kalitesiyle ulaştırabiliyor.

Maxine video konferans kullanıcılarının göz teması problemini ortadan kaldırmayı sağlıyor. Diğer katılımcılar ve sunumlardan dolayı oluşan yoğunluk nedeniyle, video kamera yerine sürekli ekrana bakıyor olmak, her bir katılımcının video konferans görüntüsünde açı problemlerine yol açıyor. Kullanıcının gözünün ve yönünün çoğunlukla kamera ile eşleşmemesi yüzünden diğer kişilere değil, uzaklara, yukarıya, aşağıya bakıyor gibi bir görüntü ortaya çıkıyor. Bu durumu çözmek için sunulan özellik sayesinde, kullanıcının yüzü yapay zekâ algoritması ile döndürülerek karşısındakilere bakıyormuş gibi gösteriliyor. Yüzü yeniden aydınlatma özelliği görüntü kalitesini artırırken, arka plandaki sesler kısılarak, ses kalitesi de yükseltiliyor.

Gelişmeye mi sevinelim, tehlikelerden mi çekinelim?

Diyeceksiniz ki, ne var bunda? Çevrimiçi görüntülü konuşmak, zaten zorunlu bir iletişim biçimi haline dönüşmüş durumda. Ne güzel, uzaktan iletişim sorununa, bir de bant genişliği yeterli olmayınca, video ve ses kalitesindeki düşüklük ile sık sık hattan düşme gibi sorunlar ekleniyordu. Teknik sorunların azalması veya ortadan kalkması sayesinde, daha çok iletişime konsantre olabileceğiz.

Ancak Maxine’in video konferanstaki görüntü ve ses akışının doğallığını manipüle eden kozmetik özellikleri, ai’nin deepfake yansımasına yönelik olumsuz ve kaygı vericisi etkisi hakkında, doğal olarak rahatsız edici bazı soruları akla getiriyor.

Maxine, video beslemelerindeki yüzleri değiştirmek için, üretici rakip ağlar (GAN) adı verilen ai modellerini kullanıyor. En iyi performans gösteren GAN’lar, örneğin var olmayan insanların gerçekçi portrelerini veya kurgusal objelerin anlık sentetik görüntülerini oluşturabiliyor. Maxine’i kötü niyetle kullanmaya kalkışanlar, bir video beslemesindeki aydınlatmayı geliştirebilir ve kareleri yanıltıcı biçimde gerçek zamanlı olarak yeniden düzenleyemezler mi?

Bilgisayarla görme algoritmalarındaki, siyahi ten rengine yönlik açığa çıkarılan önyargı, Zoom’un sanal arka planları ve Twitter’ın otomatik fotoğraf kırpma aracındaki gibi, daha koyu tenli insanları rahatsız edebiliyor. Nvidia, Maxine’i geliştirmek için kullandığı veri kümelerini veya ai modeli eğitim tekniklerini detaylandırmadı. Ancak bu teknolojiyi kullanacak video konferans platformunun, siyah yüzleri açık tenli yüzler kadar etkili bir şekilde manipüle edebileceğinin bir garantisi var mı?

Dijital makyaj, ruha iyi gelir mi?

Irkçı önyargı sorununun da ötesinde, yüz iyileştirme algoritmalarının her zaman zihinsel olarak sağlıklı olmadığı gerçeği var. Yani, başkalarını aldatmak kadar tehlikeli bir başka durum, insanın bunu yaparken kendisini de aldatabiliyor olması.  

Bu tehlikenin, bireyin ve toplumun psikolojisini nasıl etkileyebileceğini, gelecekteki bir başka yazıya bırakalım. Ama, deepfake tehdidi, sinsice kendi varlıksal gerçekliğimizi bile zedeleyebilecek noktaya gelmekte. Farkında mısınız?

Posted by Bülent Kızanlık

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.