Deepfakes Savunması Kişiselleştirilebilir mi?

Deepfakes’e karşı %100 güvenlik sağlayacak genel bir tespit modeli geliştirmek, zaman alacak gibi görünüyor. O halde, deepfake’inin üretilmesi büyük zararlara yol açacak hedefler için, kişiselleştirilmiş biyometrik video ve ses güvenliği, caydırıcı bir çözüm olabilir mi?

Yapay zeka (ai) yardımıyla üretilen ve deepfakes olarak adlandırılan sahte sentetik medyanın, kişi ve kurumlara yönelik büyük bir siber tehdit olduğu kadar, düşmanla ve terörle mücadelede, ulusal güvenlik açısından da, ne denli büyük bir tehlike olduğunu, geçen yazıda açıklamaya çalıştık. Bu yüzden, bilim nasıl insanoğlunun yerkürede varlığını ve sağlığını korumak için Covid-19’a karşı önlem ve çözüm geliştirmeye çalışıyorsa, çevrimiçi dünya da deepfakes ile öyle mücadele etmeye çalışıyor.  Özellikle Silahlı Kuvvetler gibi deepfakes riski daha büyük olan kurumlar, etkin bir siber güvenlik modeli geliştirilene kadar, kişiselleştirilmiş özel çözümlerle, savunmalarını güçlendirmeye çalışıyor.

Biyometrik video ve ses veri kaydı, deepfakes’ten korur mu?

Deepfakes’e karşı önlem ve çözüm geliştirmeye yönelik siber güvenlik girişimleri, iki kanaldan ilerliyor. Facebook ve Google gibi çevrimiçi dünyanın devleri öncülüğünde ve onların desteğiyle, bir yandan sahte sentetik görüntü ve sesleri gerçeğinden ayırt edebilecek tespit modeli geliştirmeye yönelik ar-ge girişimleri, doludizgin devam ediyor. Diğer yandan, güvenlik temeline dayanan kurumlar, deepfakes’e karşı kurumsal riskleri bertaraf etmeye yönelik olarak, biyometrik video ve ses üzerinden, hedef odaklı kişiselleştirilmiş spesifik siber savunma kalkanı oluşturmaya çalışıyorlar. Bu noktada şu soru sorulabilir: Deepfakes’e karşı %100 güvenlik sağlayacak genel bir tespit modeli geliştirmek, zaman alacak gibi görünüyor. O halde, deepfake’inin üretilmesi büyük zararlara yol açacak hedefler için, kişiselleştirilmiş biyometrik video ve ses güvenliği, caydırıcı bir çözüm olabilir mi?

Videonun kimlik doğrulama aracı olma niteliği arttıkça, risk büyüyor

“Deepfake paramıza da göz dikti” başlıklı geçmiş bir yazımızda, “Müşteri Video Kimlik Doğrulama” sistemine geçen batılı bankaların, deepfakes riski üstlendiklerinden söz etmiştik. Uluslararası Finans Denetim Kuruluşları, “Dolandırıcılık, Kara Para Aklama ve Terörün Finansmanı” (AML) ile mücadelede, bankalara getirdiği “Müşterileri Tanıma” (KYC) yükümlülüğünü esnetmiş ve Avrupa Birliği 20 Mayıs 2017 tarihli Dördüncü Para Aklama Direktifleri düzenlemesiyle, Avrupalı bankalara müşterilerine “video görüşmesi” yoluyla kimlik belirlemenin yolunu açmıştı. Bankalar böylece, müşterilerine şubeye gelmeden, web ya da mobil uygulama üzerinden, yasal kimlik belgelerini taratmaları koşuluyla, video görüşme ile bankacılık işlemlerini gerçekleştirme hizmeti başlattılar.  Ama bu kez de videodaki kişinin gerçek mi, yoksa gerçek zamanlı bir deepfake mi olduğunu ayırt etmek, temel sorun haline geldi.

“Gördüğümüz, duyduğumuz kişi, ya gerçekten olduğunu sandığımız kişi değilse” kaygısı, zaten deepfakes tehdidinin ta kendisi. İşte ABD Ordusu, bu soruna kişi odaklı çözüm getirmek ve deepfakes şüphesini gidermek için kolları sıvadı. ABD Başkanı Trump’ın da imzaladığı 2020 Savunma Bütçesi kapsamında, özellikle Çin ve Rusya’dan endişe duyan ABD Kongresi kesenin ağzını açtı. Ulusal İstihbarat Ofisi’ne bağlı Gelişmiş İstihbarat Projeleri Araştırma Ajansı (IARPA) tarafından, deepfakes tespit modelleri geliştirmek üzere düzenlenecek yarışmada ödül olarak dağıtılmak üzere, yıllık 5 milyon dolarlık bütçe sağlandı. ABD Savunma İleri Araştırma Projeleri Ajansı (DARPA) araştırmacıları da MediFor Projesi kapsamında, görüntülerin veya videoların bütünlüğünü, değiştirilip değiştirilmediğini otomatik olarak tespit etmeyi hedefleyen teknolojiler üzerinde çalışıyorlar. MediFor Programı, manipülasyonları tespit edebilen ve manipülasyonların nasıl yapıldığını detaylandırabilen uçtan uca bir medya adli tıp platformu oluşturmayı amaçlıyor. Pentagon, işte tüm bu girişimleri yeterli görmemiş ya da kısa vadede sonuç vereceğine inanmamış olacak ki, en azından kendi yapılanmasını güvence altına alabilmek için, kişi odaklı biyometrik deepfakes önlemlerini de eşzamanlı olarak devreye soktu.

ABD Ordusu, deepfakes hedeflerini biyometrik medya veri tabanı ile karşılaştırıyor

Maryland’daki Aberdeen Proving Ground Savaş Yetenekleri Geliştirme Komutanlığında, Bilim ve Teknoloji Direktörlüğü araştırmacıları, biyometrik güvenlikle ilgili, acil operasyonel talepleri karşılamak için çaba harcıyorlar. Direktörlüğün İstihbarat Sistemleri ve İşleme Bölümü, Silahlı Kuvvetler ve İstihbarat mensuplarının sahadaki güvenliğini artırmak ve onları deepfakes tuzaklarından korumak için, iki biyometrik sistem üzerinde çalışıyor. Video Kimliği Toplama İstismarı Önleme (VICE) ve Ses Biyometrik Kimliği İstismarı Önleme Sistemi (VIBES) adlı bu iki sistem, medyayı (fotoğraf, video, ses dosyası) tespit etmek için, yetkili biyometrik kimlik platformlarıyla etkileşime giriyor. Biyometrik sistemler, kimlikleri veri tabanında kayıtlı medya ile eşleştirerek, kimlik güvencesi sağlıyor. Bu da, kişinin belli bir görev için veya sisteme erişim konusunda yetkilendirilmesi ya da tehdit niteliği taşıdığı hakkında, karar vermeyi daha güvenli hale getiriyor.

10 yıllık biyometrik medya veri tabanı

VICE ve VIBES olarak adlandırılan her iki biyometrik sistemin, fotoğraf, video, ses veya başka medyalardan oluşan, 10 yıllık bir veriyi içerdiği belirtiliyor. Geliştirilen algoritmaların ise, medya veri tabanıyla eşleştirmede, oldukça iyi sonuçlar ortaya koyduğu kaydediliyor.  Biyometrik iki sistem sayesinde, ses ve görüntü verilerini eşleştirerek gerçek olanlar ile deepfakes’i ayırt etme olanağı doğuyor. Örneğin, bir IŞİD liderinin videosunda, sesin o kişinin gerçek ses kimliğiyle eşleşmediği belirlenmiş.  Kuşkusuz Silahlı Kuvvetler ve İstihbarat görev ve yetki kademelerinde yer alan herkesin, video ve ses biyometrik kimlik kayıtları, bu stratejik medya veri tabanında yer alıyor. Böylece, komuta kademesinin talimatlarının gerçekliğinden, sahada birlikte görev yapacak kadroların güvenliğine, arama kurtarma hedeflerinin doğru ve etkin tespitine kadar, ulusal güvenliğin birçok alanında, biyometrik ses ve video kimliği eşleştirmesiyle, deepfakes tuzakları savuşturulmaya çalışılıyor.

Biyometrik video kimlik doğrulamasının, ABD’de ulusal güvenlik rolü Savunma Bakanlığı ile sınırlı değil. Ana ürünü, sunucu tabanlı video ve fotoğraf adli analiz sistemi MXSERVER olan Tygart Technology, ABD’deki eyalet ve federal hükümet müşterilerine, biyometrik tanıma altyapısı sağlıyor. Şirket, video ve fotoğraf koleksiyonlarını aranabilir kaynaklara işleyerek, görüntü eşleşmesi yoluyla ulusal güvenliğe katkıda bulunuyor.

Biyometrik güvenlik pazarında deepfakes bilmecesi…

Küresel biyometrik pazarının, 2018-2023 arasında yıllık yüzde 30’un üzerinde rekor bir büyümeyle, 30 milyar dolar civarında artış kaydedeceği tahmin ediliyor. Bulut tabanlı abonelik hizmetleri güvenlik pazarı ile Pentagon’un İleri Kimlik Doğrulama Teknolojileri talebinin, biyometrik güvenlik sektöründeki büyümeye ivme kazandıracağı öngörülüyor. Avustralya Dijital Dönüşüm Ajansı (DTA) da, biyometrik kimlik doğrulamayı myGov vatandaş hizmetleriyle entegre edeceğini duyurdu. 

Biyometrik güvenlik alanında uzman birçok kişi, 2020 yılından itibaren beklenen en önemli tehdidin “sentetik kimlik” olduğunu vurguluyor. Belirlenmesi en zor dolandırıcılık türlerinden biri kabul edilen sentetik kimlik sahtekarlığının artacağı ve özellikle finansal kuruluşların, bunu önlemek için biyometrik kimlik doğrulama alanında teknoloji geliştiren şirketlerin kapısını çalacağı belirtiliyor. Kuruluşlar tabi ki, deepfakes tarafından kolayca kandırılamayan güçlü ve güvenli biyometrik tarama sistemi arayışı içinde olacaklar. Biyometrik güvenlik şirketleri ise, sentetik kimliklere karşı daha sofistike kimlik doğrulama teknolojilerine yatırım yapmak durumunda kalacaklar. Örneğin ses biyometrik kimlik doğrulama ve çağrı için sahteciliği önleme teknolojileri alanında çalışan Pindrop’un Pazarlama Direktörü Ben Cunningham, geçen Kasım’da gerçekleştirilen SpeechTEK Konferansı’nda deepfakes tehdidi karşısındaki etkinliklerini artırma çabalarını aktardı. Cunningham, çağrı merkezine gelen sesli çağrıların çıktılarını, biyometrik kimlik doğrulaması için analiz ederken, artık kulağın duyamayacağı ses verilerine yoğunlaştıklarını ifade etti.

Deepfakes’in %95’i, biyometrik güvenliği aşıyor iddiası

Biyometrik güvenlik sektörü, yüksek güvenlik kriterlerine uygun, kesin matematiksel modellere sahip biyometrik süreçlerine, çok güveniyor olabilir. Biyometrik teknolojiler sayesinde, girdinin gerçek bir kişimi mi, yoksa bilgisayar tarafından oluşturulmuş bir video mu olduğunu anlayabileceklerini savunan, türlü tezler öne süreceklerdir. Çünkü bu, en gelişmiş teknolojiye yatırım yapan ülkelerin silahlı kuvvetlerinden, uluslararası finans kuruluşlarına kadar, müşterilerin bol sıfırlı bütçelerle satın almalar gerçekleştirdiği, milyarlarca dolarlık bir pazar. Buna karşın, biyometrik güvenliğin deepfakes karşısında aciz kaldığını ortaya koyan araştırma da hiç yabana atılacak türden değil.

İsviçre’de, kar amacı gütmeyen bir kuruluş olan Idiap Araştırma Enstitüsü, konuşma işleme, bilgisayarla görme, biyometrik kimlik doğrulama, multimodal etkileşim ve makine öğrenimi alanlarında araştırmalar yapıyor. Enstitü’den Pavel Korshunov ve Sebastien Marcel’in yaptığı araştırmaya göre, deepfakes’in % 95’i biyometrik yüz tanıma sistemlerini kolayca aşıyor. Korshunov ve Marcel’e göre, mevcut yüz tanıma sistemleri, Üretken Çekişmeli Ağlar (GAN’lar) kullanılarak oluşturulan yüksek kaliteli sahte videolara karşı savunmasızlar. Buna göre, GAN tarafından oluşturulan sentetik sahte yüzlerin, veritabanı ile eşleştirilmeleri yeterli değil, otomatik olarak algılanmasını sağlayacak bir modele ihtiyaç var. Araştırmacılar, GAN tabanlı bir algoritma ile dönüştürülmüş yüzleri olan deepfake videolar oluşturmak için, açık kaynaklı yazılımlar kullandılar. VGG ve Facenet sinir ağlarına dayanan son teknoloji yüz tanıma sistemlerinin, % 95 yanlış kabul oranları sonucu, deepfake videolara karşı savunmasız olduğunu açıkladılar.

Gerçek olan şu ki, deepfakes ile mücadele; yöntemi, modeli ve teknolojisi ne olursa olsun, saldıranlarla savunanlar arasında, yapay zekaya (ai) dayalı bir algoritmalar savaşıdır. Ve bu savaşta, şimdilik taraflardan hiçbiri mutlak bir üstünlük iddiası içinde olamaz. Anlık olarak üstünlüğü kim ele geçirirse, diğer taraf ağır bedel öder.

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: