Deepfake Tespitinde “Biz Sizi Ararız” Teknolojisi

Yüzlerce ai şirketi deepfake teknolojileri geliştirmeye yatırım yaparken, büyük bölümü start-up ölçeğindeki sadece bir düzine girişim, tarihin bu en büyük siber tehdidine kafa tutmaya çalışıyor. Deepware AI dışında dünyada hiçbir deepfake tespit modeli geliştiricisi, kendi teknolojisini henüz web sitesi üzerinden çevrimiçi kullanıcılara açabilmiş değil. Vaat ve iddia ettikleri teknolojilerle ilgili son kullanıcıları, şimdilik sadece videolarla bilgilendiriyor ve başvuru formlarına yönlendiriyorlar.

Deepfake tespit modeli geliştirmeye yönelik ar-ge yarışı, ilk ürünlerini vermeye başlamış görünüyor. Ancak, Deepware AI dışındaki yapay zeka (ai) girişimleri açısından manzaranın pek de şeffaf olmadığını, önceki yazılarda aktarmaya çalıştık. Ticarileşmiş diğer ai girişimlerinin, tescilli ve bir bölümü de patentli olduğu iddiasıyla, “dedektör, doğrulama uygulaması veya tarayıcı” gibi isimler altında pazara sunduğu teknolojiler, henüz çevrimiçi son kullanıcıya ulaşabilmiş değil.

Örneğin deepfake tespit girişimlerinin ilklerinden olan Amber, web sitesinde patentli bir güvenlik çözümü vaat ediyor. Ancak Amber Authenticate’e çevrimiçi doğrudan ulaşmak olanaklı değil. Geliştirilen uygulamayı Amber Video’nun web sitesinde bulamayanlar, “API’lerimize ve web / mobil uygulama paketimize erişmek için bizimle iletişime geçin” mesajıyla karşılaşıyorlar. Amber Video’nun da, deepfake tespit modeli dışında, doğrulama sistemlerine de yatırım yaptığı belirtiliyor.

%90’ı aşan performans iddiası, ölçülebilir değil

İsrail Silahlı Kuvvetleri Özel Harekat Bölümü’nde görev yapmış 11 siber güvenlik uzmanından oluşan bir kadroya sahip olan Cyabra, özel sektör ve devlet kuruluşlarına, GAN’lar tarafından üretilen deepfake sentetik medya için geliştirdiği algılama aracını sunuyor. Observer’a, Yüz Canlandırma Manipülasyonları (FAM) adlı bir algoritma geliştirdiklerini anlatan Cyabra kurucu ortağı Yossef Daar, %90’ı aşan bir performans iddiasında buluuyor. Buna karşın Cyabra, web sitesinden sadece görüntü anonimleştirme ile ilgili geliştirdiği modeli çevrimiçi kullanıcılara ücretsiz deneyimleme olanağı sağlayabiliyor. Deepfake algılama aracı için, kullanıcıları diğerleri gibi başvuru formuna yönlendiriyor.

Deepfake tespit aracı kategorisinde sayılabilecek oyunculardan Sherlock AI, geçen yıldan bu yana faaliyetlerini sürdürüyor. Denetim aracı geliştirmek için, deepfake ile aynı derin öğrenme teknolojisini kullanma stratejisinden hareket ettiği belirtilen Sherlock AI’nin, entegre bir evrişim modeli geliştirdiği belirtiliyor. Şirketin getsherlock.ai adresinde yer alan web sitesinde ise, geliştirdikleri deepfake tespit modelinin nasıl çalıştığı hakkında sadece bir video yayınlamakla yetinilmiş görünüyor. Sitede, demo ya da API için, Amber ve Cyabra’daki gibi bir başvuru formuna bile yer verilmiyor.

Prototipler gecikiyor mu?

Deepfake tespit dedektörü geliştirmek üzere yola çıkan İsviçreli Quantum Integrity ise, ar-ge çalışmalarını Lozan’daki İsviçre Federal Teknoloji Enstitüsü (EFPL) iş birliğiyle yürütüyor. EPFL Multimedya Sinyal İşleme Grubu’ndan Touradj Ebrahimi ve Quantum Integrity CEO’su Anthony Sahakian, deepfake algılama yazılımının ilk prototipini bu yıl Haziran ayında yayınlamayı planladıklarını açıklamışlardı. Buna karşın şirketin web sitesindeki “Hemen Başlayın” butonu, diğer girişimlerde olduğu gibi çevrimiçi kullanıcıları hala bir iletişim formuna yönlendiriyor.

Daha öne Nato’da görev yapmış, ai ve siber güvenlik uzmanları tarafından kurulan Estonyalı Sentinel de, deepfake tespit teknolojisi geliştirmeye odaklanmış. Hedefini, “dünyada 1 milyar insanı bilgi savaşından korumak ve internetin güven katmanı haline gelmek” olarak duyuran şirket, bir ay kadar önce iki melek yatırımcıdan toplam 1 milyon 350 bin dolar yatırım aldı. Bu yatırımcılar, Skype kurucu ortağı ve DeepMind’ın ilk yatırımcısı Jaan Tallinn ile İngiltere merkezli çevrimiçi para transfer hizmetleri sunan TransferWise’ın kurucu ortağı Taavet Hinrikus’du. Geçtiğimiz günlerde ABD Başkanlık Seçimi öncesi tabloya işaret etmek üzere yayınladığı Deepfakes 2020 Araştırması ile dikkat çeken şirket, 2020 de deepfakes üretiminin bir öncesi yıla göre %900, yani 9 kat arttığını duyurdu. Sentinel’in web sitesinde de, çevrimiçi kullanıcılar için geliştirilen deepfake tespit aracını test etme olanağı sunulmuyor. Sadece “Demo Ayırtın” butonu yer alıyor.

Hindistan’da ABD Başkanlık Seçimi haberleri takip altında

Geliştirdiği sahte video algılama ürünleriyle kullanıcılarını deepfakes tehlikesinden koruma iddiası taşıyan FakeNet AI, web arayüzü ve API’sinin, sahte videoları doğrulukla ve hızlı bir şekilde tespit etmek için makine öğrenimi teknolojisini kullandığını bildiriyor. FakeNet AI, bu yıl Facebook’un Hindistan’daki içerik denetleyicisi News Mobile işbirliği gerçekleştiriyor. NewsMobile, ABD Başkanlık seçimleri sürecinde, Hindistan’da yayılan haber ve içerikleri denetlemek için FakeNet AI’nin deepfake tespit modelinin beta sürümünü kullanıyor.

NewsMobile ve onun teknoloji ortağı FakeNetAI, Uluslararası Doğruluk Kontrol Ağı (IFCN) ve Facebook tarafından gerçekleştirilen IFCN Facebook Küresel İnovasyon Yarışması’nda, önceki ayın sonunda ikinci turu kazanan 5 proje arasında yer aldılar. Bir doğruluk kontrolü inovasyon girişimi olan yarışmada, FakeNet AI işbirliği, NewsMobile’e inovasyon mücadelesini kazanan 5 küresel proje arasından tek Asya temsilcisi olma fırsatını sağladı. FakeNet AI, ayrıca deepfake videolardaki endişe verici artış kapsamında, medyaya güveni geri kazanmaya yardımcı olma hedefiyle, bigideascontest.org internet sitesi üzerinden üniversite öğrencilerine yönelik Büyük Fikirler Inovasyon Yarışması düzenledi. FakeNet AI de tüm bu iddialı projelere karşın, geliştirdiği deepfake tespit aracına ücretsiz erişim sağlamak için, çevrimiçi kullanıcıları web sitesindeki başvuru formuna yönlendiriyor.

Teknoloji yerine makale

Digger Deepfake Algılama, Samsung Next’in “Sentetik Medya Manzarası” tablosunda adı geçmeyen, ancak deepfake tespit modeli geliştirmeye odaklanan bir proje. Google Haber Girişimi Avrupa Programı’nın bir parçası olan Dijital Haber İnovasyon Fonu (DNI Fonu) desteğiyle gerçekleştirilen Digger’ın proje ortakları arasında Alman medya kuruluşu Deutsche Welle, Fraunhofer Dijital Medya Teknolojileri Enstitüsü (IDTM) ve ATC İnovasyon Laboratuarı yer alıyor. Digger’ın web sitesinden ise sadece makaleler paylaşılıyor.

Assembler de, eski adı Google Ideas olan ai odaklı teknoloji kuluçka merkezi Jigsaws LLC ile Google Research’ün işbirliği ile faaliyet gösteriyor. Girişim, “gerçekçi sahte görüntüler, video ve ses yaratma teknolojileri karşısında, değiştirilmiş sentetik medyayı ayırt etmek ve dezenformasyonun yayılmasını önlemek amacıyla geliştirilen deneysel bir platform” olarak tanımlanıyor.

Assemler projesi kapsamında, özellikle StyleGAN tipi deepfake medya için, bir medya detektörü geliştirildiği vurgulanıyor. Assambler’in web sitesinde, belli işleve sahip dedektörlerin, genellikle farklı görüntü işleme türlerini doğru bir şekilde algılayamadığı dile getiriliyor. Örneğin, kopyalama ve yapıştırma yoluyla işlenen görüntüleri tanımlamak için tasarlanmış dedektörlerin, görüntü parlaklığındaki değişiklikleri algılayamadığı kaydediliyor. Bu nedenle, birden çok dedektörden gelen sinyalleri kullanarak eğitilen deneysel bir dedektör, “topluluk modeli” oluşturulduğu duyuruluyor. Topluluk modeli, birden fazla görüntü işleme türünü tanımlayabildiğinden, sonuçların ortalama olarak herhangi bir tekil dedektörden daha doğru olduğu vurgulanıyor.

Hany Farid’in teknolojisi, ABD seçimlerinde test ediliyor

Kurucuları arasında, Twitter,Blogger, Medium gibi birçok küresel projenin kurucuları ve geliştiricilerinden olan iş insanı Christopher Isaac (Biz) Stone, dünyaca ünlü dijital görüntü analizi uzmanı Prof. Hany Farid ve Arizona Üniversitesi’nden ai araştırmacısı Rao Kambhampati’nin yer aldığı AI Vakfı, kar amacı gütmeyen bir kuruluş olarak 27 milyon dolarlık bir fon toplamayı başardı. Twitter ve Google ile birlikte Microsoft ile de işbirliği gerçekleştiren AI Vakfı, sahte sentetik medyayı tespit için geliştirdiği Reality Defender teknolojisi ile özellikle 2020 ABD Başkanlık Seçimleri için medya kuruluşları ve siyasi kampanyalara, gerçeklikten uzaklaşmamaları için destek veriyor.

Telefon güvenlik uygulaması

Peerwise, görüntülü ve sesli görüşmelerde, görüşülen kişinin gerçekten o olup olmadığını tespit etmeye yönelik, kullanıcılarını deepfake kimlik avından korumaya yönelik bir telefon uygulaması. Uzaktan iletişimde gerçek zamanlı kimlik doğrulaması sağlama iddiasındaki uygulama, sadece bir kez yüz yüze görüşme ile telefon üzerinden teyit edilen gerçek kimlikleri, sonrasında herhangi bir iletişim kanalındaki sanal etkileşim sırasında, kriptografik olarak kontrol ederek, bir Güven Puanı hesaplıyor. Ancak web sitesi, henüz uygulamayı indirmek için bir adres göstermiyor.

Santral ve çağrı merkezlerine ses koruması

Pindrop tarafından geliştirilen tescilli Deep Voice biyometrik motorunun, dünyanın ilk uçtan-uca derin sinir ağı tabanlı hoparlör tanıma sistemi olduğu belirtiliyor. Deep Voice’ın arayanlar ister bir interaktif sesli yanıt sistemi (IVR) ile etkileşimde bulunsun, ister bir santral operatörü ya da müşteri temsilcisiyle konuşsun, otonom araçlar ve internet arama motorları ile aynı teknolojiyi kullanarak, daha kısa sürede daha doğru kimlik doğrulaması sunabildiği vurgulanıyor. Geliştirilen ses biyometrik teknolojisinin, aramalarda arka plandaki sesleri ortadan kaldırarak yalnızca arayanın sesine odaklandığı belirtiliyor. Böylece ses değiştirme, kaydedilmiş seslerden sentezleme ve simüle edilmiş seslere kadar çeşitli saldırıları tanımlamaya olanak sağladığına işaret ediliyor. Deep Voice, yoğun çağrı trafiğine sahip büyük şirketler ve çağrı merkezleri için, ses güvenliği vaat ediyor.

Henüz geliştirdikleri teknolojileri, son kullanıcıya çevrimiçi sunamıyor olmaları, kuşkusuz deepfake’e karşı teknoloji savaşı veren bu bir avuç ai girişiminin ar-ge çabasını değersiz kılmaz. Deepfake tehlikesi kapıdayken, onların aralarından, beklenmedik çıkışlar yaparak, bu yarışta öne geçmeye çalışanlar olacaktır. Keşke, deepfake algılama teknolojisi geliştirmeye yönelen girişimlerin sayısı, deepfake teknolojisi geliştirenler kadar hızla artsa ve çevrimiçi geleceğe daha güvenli bakabiliyor olsak.

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: