AI Şirketleri “Deepfake Algılama” Yatırımını Göze Alamıyor mu?

Deepfake tehlikesi kapıya dayanırken, gerçeği çevrimiçi dijital saldırılardan korumak için, deepfake algılama teknolojisi geliştirme mücadelesini sürdüren yapay zeka (ai) şirketlerinin sayısı, belki iki elin parmakları kadar.  Deepfake teknolojileri hızla hiper gerçekçi düzeye yaklaşıyor. Ancak ai şirketleri, deepfake tespit modeli geliştirme yatırımlarından giderek uzaklaşıyor.

2020’ye damga vuran pandemi; yerkürenin dijital dönüşüm sürecini hızlandırıyor ve çevrimiçi ekonomiye ivme kazandırıyor. Yapay zeka (ai) Çağı’na geçiş, yeni “çevrimiçi teknoloji yatırım alanları” ortaya çıkardı. Üstelik ai sektöründe, bilgi ve uzmanlık, finansal sermayeden önce geliyor. Bu yüzden, yaşı ve iş deneyimi ne olursa olsun, ai’ye odaklanmış, dinamik ve gelişime açık çekirdek insan kaynağı, start-up ölçeğinde yapılanarak küresel rekabette yer alabilmek için yeterli oluyor. Son birkaç yıla damga vuran ai devriminde, yeni kurulan start-up’ların bazıları boylarından büyük projelerle, hızlı büyüme sağlayabiliyorlar.

Deepfake ekonomisinde 10 yatırım alanı

Deepfake eko-sistemi de giderek ai ekonomisinin lokomotifi haline geliyor. Sentetik medyaya yönelik yeni gelişen iş alanları ile oluşan deepfake ekonomisini incelemeyi, bir başka yazıya bırakalım. Ancak pek çok sektörü sarsacak dev bir ekonominin ayak seslerinin şimdiden duyulduğunu vurgulamakla yetinelim. Teknoloji devi Samsung’un yenilikçi girişimler için yatırım platformu olan Samsung Next, hızla büyüyen bu eko-sistemi Syntheticmedialandscape.com web sitesiyle gözler önüne seriyor. Yayınlanan küresel tabloya göre, sentetik medya yatırım alanları 10 ana başlıktan oluşuyor.

Yüzlerce şirket deepfake geliştirmekle, 15 şirket toplumu korumakla uğraşıyor

Global bir içerik istatistiğine ulaşmak mümkün görünmese de geleneksel ve dijital medyada yayınlanan sentetik medya ile ilgili araştırma ve makalelerin, en iyimser tahminle yarıdan fazlasının “deepfake tehlikesi” ile ilgili olduğunu öngörmek yanlış olmaz. Oysa Samsung Next’in “Sentetik Medya Manzarası”na bakılırsa, deepfake tehdidine yönelik siber güvenlik, yani “deepfake tespiti”, bu alandaki 10 yatırım başlığından sadece birini oluşturuyor. Örneğin sentetik medyanın “Konuşma ve Ses Sentezi” ile ilgili teknoloji geliştirenler başlığı altında 40’dan fazla, “Avatar Sentezi” başlığı altında ise 30’dan fazla şirket sıralanıyor.Sentetik medyaya yönelik siber güvenlik konusunda ise manzara ise hiç iç açıcı değil. Samsung Next’in “Sentetik Medya Manzarası”nda, “Tüketici Koruması” başlığı altında sadece 15 şirket ve marka yer alıyor.

Deepfake tehlikesine yönelik tüketiciyi korumaya odaklandıkları belirtilen az sayıdaki şirketin tümü “deepfake tespit modeli” geliştirmek için mi ar-ge çalışmaları gerçekleştiriyor? Tabi ki hayır. Bu 15 şirket ve markanın yarısı da, deepfake algılama araçları dışındaki teknolojilere odaklanmış görünüyor. Geçmişte bu konuda çalışma gerçekleştirenlerin bile, edindikleri ai birikimini başka alanlara yönlendirdikleri dikkat çekiyor. Sanki birkaç gözü kara ai şirketi dışında, diğerleri daha kolay ve hızlı kar elde edebileceklerini düşündükleri farklı alanlara kayıyor. Endişeleri arttırması gereken durum şu ki, deepfake teknolojileri hızla hiper gerçekçi düzeye yaklaşıyor. Ancak ai şirketleri, deepfake tespit modeli geliştirme yatırımlarından giderek uzaklaşıyor.

Kimi Dessa gibi satılıyor…

Samsung Next’in, “Tüketici Koruması” listesinde yer alan ai şirketlerinden Dessa, deepfake tespitinden uzaklaşarak farklı ai teknolojilerine yönelenlere iyi bir örnek olarak görülebilir. 2016 yılında Toronto Üniversitesi nedeniyle dünyada ai’nin doğum yeri kabul edilen Kanada’nın Toronto kentinde, bir ai şirketi olarak kurulan Dessa, 2017 sonrası özellikle derin seslere yönelik Deepfake tespit modeli geliştirmeye yoğunlaşmıştı. Dessa, Şubat ayında Amerikalı finansal hizmetler ve mobil ödeme şirketi Square tarafından satın alındıktan sonra, finansal alanda teknoloji geliştiren bir ai şirketine dönüştü. Dessa, Square’e satılmadan önce, RealTalk adlı tescilli konuşma sentezi modeliyle popüler podcaster Joe Rogan’ın sesini kopyalayarak dikkat çekmişti. Dessa, derin sesleri algılamak üzere geliştirdiği dedektörü ise, kendi dedektörünü üretmek isteyenler için açık kaynak koduyla GitHub’dan yayınlıyor.

Kimi Truepic gibi tespit yerine doğrulamaya yöneliyor…

Deepfake’e karşı tüketiciyi korumak için çalışan şirket ve markalar listesindeki Truepic, kendisini “fotoğraf ve video doğrulama platformu” olarak tanımlıyor ve “internete yeniden güven kazandırma” iddiası ile ortaya çıkıyor. Şirketin geliştirdiği Truepic Vision’ın değiştirilen görüntülere yönelik bir entegre kontrollü yakalama teknolojisi olduğu belirtiliyor. Kapsamlı dolandırıcılık önleme ve tespit testleri paketi aracılığıyla, fotoğraf manipülasyonuyla mücadele ettiği ifade ediliyor. Vision uygulamasıyla yakalanan tüm görüntülerin doğrulanmış meta verilere sahip olduğu, düzenlenmemiş olarak belirlendiği ve orijinaller olarak onaylandığı kaydediliyor. Bu teknolojiden yararlanmak için, görüntü kaydedecek tarafın uygulamayı cihazına indirmesi gerekiyor. Truepic’in web sitesindeki “Ücretsiz Başlayın” butonu tıklandığında, uygulama indirilmiyor, sadece Truepic Vision uygulaması için Pro ve Kurumsal Paket seçenekleri karşınıza çıkıyor. Bu seçenekler, “Bize Ulaşın” ve “Demo Planlayın” butonlarıyla, “Biz sizi arayalım” formlarına yönlendiriliyor.

Truepic, geçtiğimiz Ağustos ayında, Adobe, Twitter ve New York Times ile birlikte, oluşturulan İçerik Doğrulama Girişimi’nde (CAI) yer aldı. Girişimin, dijital sahtekarlıklara karşı, fotoğraf ve videolara güveni yeniden sağlamak üzere yol çıktığı açıklandi. CAI, hem kameralar hem de akıllı telefonlar gibi donanımlara ve Photoshop gibi yazılımlara entegre edilebilecek bir fotoğraf ve video kimlik doğrulama sistemi için, açık bir standart ortaya koydu. Sistem, bir fotoğraf veya video ilk çekildiğinde ve ardından herhangi bir şekilde her düzenlendiğinde, dijital bir imza kaydediyor. Kullanıcılar, görüntülerin kaynağına ve üzerinde yapılan değişikliklere ilişkin bu kaydı görebiliyor. Truepic’in Ar-Ge Başkan Yardımcısı Şerif Hanna, DFDC birincisi modelin %65’lik deepfake tespit performansını, “Yazı tura atmaktan biraz daha iyi” şeklinde küçümsese de geliştirdikleri teknolojinin de bir deepfake tespit modeli olduğunu söyleyebilmek mümkün değil.

Sertifika ve filigran, sadece orjinallik sorgulandığında işe yarar

“Güvenilir medya yakalama uygulaması” olarak tanımlanan Serelay Idem de Truepic’i ve CAI girişimini çağrıştıran bir doğrulama teknolojisi. Serelay Idem, kullanıcının fotoğraf ve videoyu çektiği anda, o medyaya ilişkin orijinal kayıt bilgilerini, silinemez biçimde dijital olarak sertifikalandırıyor. Yani, o medyanın orijinal mi, manipüle edilmiş mi olduğunu doğrulamak için orijinal kayıt bilgileriyle karşılaştıran bir uygulama.

Adı “Sentetik Medya Manzarası”nda Tüketici Koruması başlığı altındaki 15 girişim arasında yer almayan Attestiv ise, sigorta sistemine yönelik geliştirdiği ai paketi kapsamında, medya üzerinde manipülasyonu belirlemek ve dolandırıcılığı önlemek için blockchain teknolojisini kullanan bir doğrulama sistemi sunuyor.

Neural Hash da Stanford Üniversitesi Bilgisayar Bilimleri öğrencileri Nikhil Cheera ve Rohan Suri tarafından geçen yıl geliştirilen, henüz ticarileşmemiş bir tür dijital medya filigran teknolojisi.  Neural Hash, içerik üzerinde silinmez bir dijital filigran oluşturabiliyor. Saldırganlar videoyu ya da videodaki yüzleri değiştirseler ve sesi bozsalar ya da hangi değişiklikleri yaparlarsa yapsınlar, dijital imza silinmiyor ve bu imza her zaman orijinal içeriği ayırt etmeyi sağlıyor.

Kuşkusuz tüm bu medya doğrulama teknolojileri, sadece o teknolojiler kullanılarak yapılan kayıtlara ve tüm görüntülü içeriklerin orjinalliğini sorgulayan çevrimiçi kullanıcılara koruma sağlıyor. Deepfake tehdidinin kötü niyetli saldırgan tarafı da bilinçsizliği yüzenden mağdur olan çevrimiçi kullanıcı tarafı da, bu sistemin dışında kalıyor.

Sensity tespit ettiği deepfakeleri veritabanı olarak sunuyor

AI şirketi Deeptrace’in görsel tehdit istihbarat platformu Sensity, izlediği 452 kaynak üzerinde izleme yaparak, görsel tehditleri tespit etmeye çalışıyor. Sensity, böylece kullanıcılarına kamuya mal olmuş kişilerle ilgili olanları arayabilecekleri en kapsamlı deepfake veri tabanını sunduğunu iddia ediyor. Sensity’nin web sitesinden indirilebilen Sensity Tespit API’sinin ise, özellikle yüzde değiştirme ve GAN’lar tarafından üretilen yeni yüzlere yönelik olarak, görüntüler ve videolar üzerinde bir dizi otomatik özgünlük testi çalıştırdığını duyuruyor. Testlerin, en yeni AI tabanlı medya manipülasyonu ve sentez tekniklerini tespit etmek için tasarlandığı vurgulanıyor.

Deepfake’e karşı deepfake ile koruyan da var…

Deepfake tespitinin çok dışında, tüketici koruma vaadinde bulunan, hatta bunu deepfake geliştirerek yaptığını savunan şirketler de var. Örneğin Syntonym, deepfake teknolojisini kullanarak, yüzlerdeki biyometrik verileri Avrupa Birliği Genel Veri Koruma Yönetmeliği’ne (GDPR) uygun biçimde anonimleştiriyor. Böylece görsel verilerin gizliliğini ve güvenliğini sağladığını iddia ediyor. Gerçek yüzleri sentetik avatar yüzlerle değiştirerek, yeni ai algoritmaları geliştirmek isteyenlere, coğrafi özelliklere uygun anonim eğitim ve test verisi sunan Syntonym’un, tüketiciyi deepfakeden korumaya yönelik girişimler arasında yer alması ise biraz tartışmalı görünüyor.

Aynı listede yer alan Brighton AI’nin Kimlik Koruma Paketi (IPS) de, görüntü ve video verilerindeki kişisel bilgileri korumak için, görüntüleri kaliteli biçimde otomatik olarak anonimleştiriyor. Böylece Syntonym gibi, geliştiricilere video işleme için kişisel verilerin korunması standartları ile uyumlu anonim veri sağlıyor.

Anti-yüz tanıma uygulaması D-ID

D-ID kimlik koruma uygulaması ise, fotoğraf ve videolardaki biyometrik verileri yüz tanıma araçları tarafından tanınmaz hale getirmek üzere, anti-yüz tanıma çözümü vaat ediyor. İsrailli bir güvenlik şerketi olan D-ID’nin tescilli algoritmasının, herhangi bir fotoğrafı korumalı bir sürüme yeniden sentezlemek için, en gelişmiş görüntü işleme ve derin öğrenme tekniklerini birleştirdiği belirtiliyor. Gözle fark edilemeyecek işlem sonucunda, yüz tanıma algoritmaları tarafından tanınmaz hale getirilen görüntü üzerinde deepfake teknolojileri ile yüz takası yapılamayacağı öne sürülüyor. Syntonym gibi D-ID teknolojisinin de GDPR’ye uygun olduğu vurgulanıyor.

Deepfake karşıtı teknoloji ürettiği halde Samsung Next’in hazırladığı şemada yer almayan ZeroFOX ise, doğrudan bir deepfake algılama aracı geliştirmiyor. ZeroFOX, deepfake tespit modeli geliştiriciler için Deepstar adını verdiği açık kaynak kodlu bir araç seti sunuyor. Deepfake içerikleri tespit etmeye yönelik tekniklerin oluşturulmasına, test edilmesine ve geliştirmesine yardımcı olmak için tasarlandığı belirtilen Deepstar araç setine, GitHub üzerinden ulaşılabiliyor.

Deepfake tehlikesi kapıya dayanırken, gerçeği çevrimiçi dijital saldırılardan korumak için deepfake algılama teknolojisi geliştirme mücadelesini sürdüren ai şirketlerinin sayısı, belki iki elin parmakları kadar.  Küresel deepfake ordusu ile hiç son bulmayacak bir kurtuluş savaşı mücadelesine girişen, gözü pek ai şirketleri hangileri mi? Onları da bir sonraki yazıda anlatalım…

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: