Derin Güçlerle Küresel Deepfake Savaşı’nda; Bir Düzine Gözüpek AI Şirketi Ve Bir Don Kişot

Sayıları bir düzineyi bulan ticarileşmiş ai girişiminden, Deepware AI dışında hiçbiri, iddia ettiği sentetik medya algılama teknolojisini, son kullanıcıya çevrimiçi sunamıyor olsa da, değerli bir amaç için ar-ge yarışını sürdürüyorlar. Geliştirdiği Deepware Scanner’ı, büyük bir özgüvenle tüm dünyadaki çevrimiçi son kullanıcılara sunan Deepware AI ise, adeta bir edebiyat klasiği olan Don Kişot’takine benzer, gerçek üstü bir kahramanlık sergiliyor.

Savaşlar, salgınlar ve afetler milyonlarca cana mal oluyor. Dijital çağ, diğer yandan insan beynini hedef alıyor. Bu şartlarda %100 güvende hissetmek pek olanaklı değil. Ama bu durum, insanoğlunun korunma güdüsünü ve ihtiyacını ortadan kaldırmıyor. Kimi trafik kazalarından, kimi salgın hastalıklardan, bazısı beklenen bir depremden, en zor durumdakiler ise bitmek bilmeyen savaşlarda nereden geleceği belli olmayan bir bombalı saldırıdan korunmak için önlem almaya çalışıyor. Birçoğuna insanoğlunun neden olduğu tehlikelerden %100 korunamayacağımızı biliyoruz. Yine de sahip olduğumuz olanaklarla korunmaya çalışmaktan vazgeçmiyoruz. Dijital çağın çevrimiçi tehlikeleriyle ilgili durum da farklı değil. %100 güvende olamasak da korunmaya ihtiyacımız var.

Derinlerden gelen siren sesleri yükseliyor

Derin teknolojinin, en yeni ve bugüne kadarki en güçlü silahı konumundaki yapay zeka (ai) yardımıyla, beyinleri ele geçirerek, insanlığı gerçeğe karşı körleştirme ve köleleştirme yolunda kararlı adımlarla ilerlediği, çokça konuşulan bir distopya senaryosu. Sentetik medyanın bireylere, kurumlara, toplumlara, demokrasiye, temel hak ve özgürlüklere, sahtekarlık ve dezenformasyon yoluyla büyük zararlar verecek bir saldırı silahına dönüşmesi sürecinde, çevrimiçi geri sayım sürüyor. Belki ABD Başkanlık seçimleri, belki onun hemen sonrasında. Ama çok uzak bir gelecekte değil.

Üç yıl kadar önce, Deepfakes kullanıcı adlı kimliği belirsiz bir siber saldırgan, pornonun etkisinden de yararlanarak Reddit.com’un derinliklerinde fitili ateşledi. Sonrasında binlerce eğlence ve teknoloji meraklısı ile prodüksiyon ve ai şirketleri, üniversitelerdeki ar-ge grupları, teknoloji odaklı sivil toplum organizasyonları, sahte sentetik medyayı, hiper gerçekçi bir kaliteye ulaştıracak deepfake teknolojilerini geliştirmek için yarışa girdi. Herkes, ürettiği modelleri internette açık kaynaklı biçimde paylaşarak; başkalarını da teşvik edecek eğitim videoları yayınlayarak, yangını daha da körükledi.

Makine öğreniminin Koronavirüs’ü…

Tespit edilen ve paylaşılan bazı çarpıcı deepfake video ve ses örnekleri ise, asla yanlış bir güvenlik duygusu ya da tehlikenin kontrol altına alındığı izlenimine yol açmamalı.  Ming Hsieh Elektrik ve Bilgisayar Mühendisliği Bölümü’nden Prof. Bart Kosko, “Bilgisayarlar daha güçlü ve öğrenme algoritmaları daha karmaşık hale geldikçe, deepfake’lerin oluşturulması kolaylaşırken tespit edilmesi zorlaşacak. Deepfake’ler makine öğreniminin koronavirüsüdür” uyarısında bulunuyor. Nitekim, Prof. Kosko’nun yüksek lisans öğrencileri Apurva Gandhi ve Shomik Jain, deepfake görüntülerin küçük değişikliklerle en gelişmiş dedektörleri bile nasıl kandırabileceğini yayınladıkları bir makale ile ortaya koydular.

Google Brain’in eşzamanlı araştırması, Gandhi ve Jain’in makalelerine atıfta bulunurken, California San Diego Üniversitesi’nden bir ekip de deepfake videolar hakkında benzer sonuçlara ulaştı. Günümüzün son teknoloji deepfake dedektörleri, evrişimli sinir ağlarını kullanıyor. Gandhi ve Jain, bu derin sahte dedektörlerin, bir görüntüdeki stratejik olarak seçilmiş sadece birkaç piksel değerinde küçük değişikliklerle savunmasız hale getirilebileceğini ortaya koyuyorlar. “Tıpkı bir virüsün küçücük bir mutasyonunun, bir aşıyı işe yaramaz hale getirmesi gibi, sentetik medyadaki küçük karışıklıklar da aynı şeyi son teknoloji deepfake dedektörler için yapabilir” uyarısında bulunuyorlar. Makalelerinin sonuçları, mevcut güvenlik sistemlerinin bu alandaki savunmasızlığını ortaya koyuyor. Görüntüleri bozduklarında, deepfake tespit modellerinin belli bir veri kümesi için deepfake tespit performansı %95’ten, %0’a kadar düşebiliyor. Pandemi ve ABD Başkanlık seçiminin gergin bekleyişinde, deepfake algılama teknolojilerine yönelik bu tehlikenin çok önemli olduğu vurgulanıyor.

Küresel deepfake müttefiklerine karşı, gerçeği nasıl savunacağız?

Küresel müttefik deepfake ordusu, her yöntemi deneyerek yaşadıkları dünyayı mahvedebilecek sentetik medya silahını geliştirmeyi sürdürüyor. Gün gelip her yanda sirenler çalmaya başladığında, çevrimiçi saldırılara karşı aklımızı ve toplumsal düzenimizi nasıl koruyacağız? Hangi savunma sistemi ile önlem alacağız? O gün gelip çattığında duyularımızın ve sezgilerimizin gerçeği korumaya yetmeyeceği bu kadar açıkken, kontrolden çıkmakta olan ai’nin dengesiz gücüne karşı, hangi savunma teknolojisine umut bağlayacağız?

Tıpkı nükleer başlıklı füzeler ile füze savunma sistemleri örneğinde olduğu gibi, silahın gücü, savunma ve güvenlik teknolojilerini de stratejik açıdan daha kritik bir değere taşıyor. Sentetik medyayı tespit araçları, deepfake teknolojileriyle boy ölçüşebilir düzeye geldiklerinde, siber güvenlikte yeni bir çığır açacak, belki de milyar dolarlık değer yaratacaklar. Djital çağın amansız teknoloji rekabeti, bu kadar değerli bir ar-ge için, üstelik zaman bu kadar daralmışken, gerekli ve yeterli yatırımı yapabiliyor mu? Bugün itibariyle hayır.

Şimdilik kaybedilmiş görülen savaşın bir düzine kahramanı

Sadece üç yıla sığan deepfake devriminin, bilim tarafındaki en önemli iki lideri, tıpkı GAN teknolojisinde olduğu gibi, birlikte çalışan iki rakibe benzetiliyor. GAN teknolojisinde nasıl bir yapay sinir ağı sentetik medya üretiyor, diğeri ise hataları bulup, sentetik medyayı geliştirecek geri beslemeyi yapıyorsa, Doç. Hao Li ile Prof. Hany Farid’in işlevi de öyle değerlendiriliyor. Güney Kaliforniya Üniversitesi’nden Doç. Hao Li, dünyanın en önemli deepfake teknoloji geliştiricisi kabul edilirken, Kaliforniya Üniversitesi Berkeley’den Prof. Hany Farid, dijital görüntü analizinde liderliği üstleniyor. Prof. Farid, deepfake eko-sistemindeki orantısız güce dikkat çekiyor ve “Video sentez tarafında çalışan sayısı 100 ise, dedektör tarafında çalışan 1’dir” saptamasında bulunuyor.

2017 yılında kurulan ve deepfake algılama teknolojisi alanındaki girişimlerin ilklerinden olan Amber Video’nun kurucusu ve CEO’su Shamir Allibhai de geçen yıl Observer’a, deepfake tespit mücadelesinin kaybedilmiş bir savaş olduğunu söyledi. Çünkü, geliştirilecek ai tabanlı deepfake algılama modelinin, sürekli yenileri piyasaya çıkan deepfake teknolojilerinin tümüyle aynı anda baş edebilmesi, öngörülebilir gelecekte mümkün görünmüyor. Uluslararası birçok üniversitede, bu alanda yürütülen ar-ge çalışmalarının akademik çıktıları, farklı bir izlenim uyandırıyor olabilir. Ancak, deepfake tespit teknolojisi geliştirerek, bunu ticari bir ürüne dönüştürdüğü iddiası ortaya koyan, tüm dünyada çoğunluğu start-up ölçeğindeki ai girişimlerinin sayısı, sadece bir düzine kadar.

Deepware AI, Google’da ilk sırada, diğerleri henüz kaçak dövüşüyor

Dikkat çekici olan şu ki; Deepware AI dışındaki ticari ai girişimlerinin, müşterilerine geliştirdikleri deepfake algılama modelini sunma konusunda, sadece iddiaları ve vaatleri var. Gerçekten böyle rünleri var mı ya da performansları hangi düzeyde, henüz bilemiyoruz. Çünkü, Zemana girişimi olan Deepware AI dışında, markalaşmış hiçbir kurumsal ai girişimi, performansı ne olursa olsun, sentetik medya algılama teknolojisini, son kullanıcıya çevrimiçi test edip kullanabilmesi için sunabilmiş değil. Deepware.ai’nin Google’daki “deepfake detection” arama sonuçlarında, ilk sayfada listelenen tek ai şirketi olması ve deepware.ai’nin ilk sayfada Facebook ve Microsoft deepfake haberlerinden sonra 6. sırada listelenmesi, bu açıdan sürpriz olmasa gerek.

Deepware AI, deepware.ai internet adresindeki web sitesinden, geliştiriciler için ticari Uygulama Programlama Arayüzü (API) ve Yazılım Geliştirme Kiti (SDK) paketleri sağlamakla yetinmiyor. Türkiye merkezi ve Bosna ofisindeki ai mühendisleriyle iki yıldır geliştirmeyi sürdürdüğü deepfake tespit modeli Deepware Scanner’ı, web sitesinden dünyanın her yanındaki son kullanıcıların çevrimiçi erişimine ve kullanımına sunuyor. Deepware AI, son kullanıcıların video dosyalarını sisteme yükleyerek ya da Youtube linklerini girerek, çevrimiçi anlık deepfake taraması yapabilmelerine olanak sağlıyor.

Deepware AI dışında, sadece bir önceki yazıda belirttiğimiz Deeptrace’in görsel tehdit istihbarat platformu olarak tanımladığı Sensity, kendi web sitesinden geliştiricilerin ücretli kullanım için API indirmesine olanak tanıyor. Ancak, zaten bu ai girişimi, temel faaliyet alanını, deepfake algılama değil, doğrulama platformu olarak belirliyor.

Deepware Scanner’ın yeni sürümü çok yakında

Deepware AI, faceswap, voiceswap, deepnude, deep-phishing, fakenews gibi sahte sentetik medya içerikleri üretmeyi sağlayan çok boyutlu deepfake tehdit yumağına karşı, etkili bir çözüm sunmak üzere ürettiği Deepware Scanner’ı geliştirmeye devam ediyor. Çok katmanlı mekanizmasıyla manipüle edilmiş videoları anında yakalamak üzere programlanan Deepware Scanner, çevrimiçi son kullanıcıların yanı sıra, hükümetlere, sosyal medya platformlarına, anlık mesajlaşma aplikasyonları ile haber ve medya platformlarına, dijital içeriklerdeki ai sahteciliğini, daha zarar oluşmadan tespit etme olanağı sunuyor. Deepware Scanner’ın deepware.ai web sitesinden erişilebilen BETA versiyonu, çok yakında yeni sürümüyle güncellenmiş olacak.

Deepware Scanner; sosyal medya ağları, medya kuruluşları, devlet kurumlarına yönelik geliştirilmiş versiyonlarıyla, her platforma entegre edilebiliyor. Gerçeğinden ayırt edilebilmesi giderek zorlaşan sahte ses ve videoların, hızla yayılıp bir kaosa yol açmadan tespit edilmesi için, herhangi bir platforma kolayca entegre edilebilen “Deepware Scanner”, arka planda güçlü bir şekilde çalışıyor. Böylece, o platformda izlenen veya dinlenen dosyanın çevrimiçi taramasını, yer ve zamandan bağımsız olarak gerçekleştirebiliyor. Deepware Scanner, yapısı değiştirilmiş, orijinal olmayan sentetik medyayı tespit ettiğinde, izleyici ya da dinleyiciyi uyarıyor ve sahte içerikle kandırılmaktan koruyor.

Henüz kapalı kutu olan deepfake algılama teknolojileri içinde, bir Don Kişot hikayesi…

Geliştirdikleri deepfake algılama teknolojilerini şimdilik yeterli düzeyde görmedikleri için ya da başka stratejik nedenlerle, henüz çevrimiçi son kullanıcılarla şeffaf biçimde paylaşmayı tercih etmeyen ticarileşmiş ai girişimlerini, bir sonraki yazıda aktaracağız. Geliştirme sürecindeki yeni deepfake tespit modelleri konusunda, bu ai girişimlerinin birçoğu, erken evrede uluslararası fon ve yatırımcı destekleri elde ediyor; kamu kuruluşları, uluslararası organizasyonlar, global teknoloji ve medya devlerinden iş ortaklıkları yoluyla katkı sağlıyorlar.  Bu olanaklardan yararlanmadan, teknoloji geliştiren ve geliştirdiği teknolojiyi büyük bir özgüvenle tüm dünyadaki çevrimiçi kullanıcılara sunan Deepware AI’nin bugünkü mücadelesi, bir edebiyat klasiği olan Don Kişot’taki gerçek üstü kahramanlığı akla getiriyor.

Unutulmamalı ki, Don Kişot’un kendi gerçekliğindeki güçlü canavarlar ile olan mücadelesi, Cervantes’in kaleminden insanlığın umuda yolculuğunda, imkansız bir kahramanlık destanıdır. Ve zor görünen her mücadele, aslında bir tür Don Kişot öyküsüdür. Nitekim, siber güvenlik alanında, geçmişin teknoloji devi olarak bilinen markalar bile, konuyla ilgileniyor görünseler de henüz somut bir yeni teknoloji ile ortaya çıkabilmiş değiller. Kimbilir belki de gelecekte satın almaya değer görecekleri deepfake algılama teknolojisinin geliştirilmesini bekliyorlardır.

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: