Sosyal Medya, Deepfake’in Mayın Tarlası mı Olacak?

Sosyal medya çağına geçişte, hackerlar hemen sosyal ağlara el attı. Virüsler ve casus yazılımlar, sinsice sosyal medya paylaşım linklerine gizlendi. Yanılıp da tıklayanların, bilgileri ve bilgisayarları hedef alındı. Antivirüs ve Antispyware güvenlik yazılımlarıyla önlem alınıp, sorunlar giderilmeye çalışıldı. Siber güvenlik zekası, siber saldırı zekası ile kıyasıya bir mücadeleye girişti, çoğu zaman da kazanan taraf oldu. Oysa şimdi tehdit ve tehlike daha büyük. Saldırının hedefinde, bilgisayarımız ya da bilgilerimiz değil, her şeyimizle biz varız. Yapay zeka (ai) çağının yeni nesil siber saldırganları, doğrudan şahsımızı, aklımızı, kişiliğimizi, varlığımızı, güvenliğimizi, itibarımızı, kısaca her şeyimizi tehdit ediyorlar.

Şimdi temel bir soru ve sorunla karşı karşıyayız. Modern çağın gelişiminde, iletişim ve etkileşim ağımız bu kadar genişlememişken, küçük hayatlarımız içinde biz kendimizi koruyor, devletin kolluk kuvvetleri de güvenliğimizi sağlıyordu. Sonraları örneğin dev konut ve ticaret komplekslerini hayatımıza katanlar, “sorumluluk taşıyanlar” olarak, ekstra güvenlik çözümlerine ihtiyaç duydular. Örneğin AVM yönetimleri, “çocukları, araçları ve özel eşyalarının güvenliğine dikkat etmeleri” konusunda, müşterileri için uyarı anonsları yapmakla yetinmedi. AVM’deki herkesin güvenliği korumak için, özel kadrolara ve güvenlik teknolojilerine yatırım yaptı. Peki aynı durum sosyal medya kuruluşları için de geçerli değil mi? Milyonlarca insanı bir araya getirerek, iletişim ve etkileşimlerini sağlayarak büyük paralar kazanan sosyal medya kuruluşları, bu platformlarda güvenliği sağlamak için, ne kadar sorumluluk üstlenecekler?

Sosyal medya devlerine, “bize korku filmi yaşatmayın” uyarısı

Makine öğrenmesi niteliğine sahip yapay zeka (ai), geliştirilen algoritmalar sayesinde, insan zekasının sınırlarını aşan yeteneklere ve üretkenliğe ulaşıyor. Bir insanın yapabileceklerinin çok ötesine geçen üretken ağlar (GAN) kötü niyetlerle kullanıldıklarında, insanın kendi eliyle yarattığı yapay canavara dönüşebiliyor. Yapay zekanın yan ürünü olarak, “masum bir eğlence aracı” gerekçesiyle akıllı cihazların kameralarına eklenen deep fake uygulamalar da, çok yakında “hayatları karartacak” bir siber silah haline gelecek gibi görünüyor. Biraz meraklı ve sabırlı sıradan kullanıcılar için bile, erişimi ve kullanımı hiç de zor olmayan deep fake uygulamalar, gerçeğinden ayırt edilmesi zor videolar üreterek, bir “sahte gerçekliğe” yol açabiliyorlar. “Gerçeklik algısını kör edebilecek kadar gerçeğinden ayırt edilemeyen” deep fake ürünü sentetik medya, herkesi gerçekte olmayanların olduğuna, söylenmeyenlerin söylendiğine inandırabiliyor. Bu “yalan rüzgarının” ulaştığı ve inandırdığı insan sayısı arttıkça, sosyal medyanın herkes için, bir “Elm Sokağı Kabusu” yaşatma riski, hiç de uzak bir olasılık gibi görünmüyor.

ABD’li senatörler Mark Warner, D-Va ve Marco Rubio, Ekim ayı başında, sosyal medya şirketlerini “derin sahtekarlık” videolarının yayılmasıyla mücadele etmek için yeni politikalar ve standartlar oluşturmaya çağırdılar. Senatörler, dünyanın en yaygın 11 sosyal ağı olan, Facebook, Twitter, TikTok, YouTube, Reddit, LinkedIn, Tumblr, Snapchat, Imgur, Pinterest ve Twitch’e gönderdikleri mektupta, sosyal medya üzerinden Amerikan demokrasisine yönelik potansiyel tehdide işaret ederek, harekete geçme ve önlem alma çağrısında bulundular. Warner ve Rubio, ABD’de yaklaşan 2020 Seçimleri’nin deep fake saldırganları açısından bir “gövde gösterisi” arenasına dönüşmesi kaygısını paylaştıklarını ortaya koydular. ABD’de politikacıların, deep fake ile ilgili “iş işten geçmeden” önlem almaya yönelik girişimleri birkaç koldan sürüyor. New York’lu ABD Temsilciler Meclisi üyesi Yvette Clarke “Deepfakes Hesap Verebilirlik Yasası”nı 2019 Haziran ayında Meclis’e sundu. Tasarı, Temsilciler Meclisi ve Senato’da kabul edilip yasalaşırsa, sentetik medya üreticilerinin sahte videolar ve ses kayıtlarına uyarıcı dijital filigranlar ve açıklama metinleri eklemeleri gerekecek. Aksi halde, derin sahte medyalar suç sayılacak. 

Diğer yandan kullanıcının filmlere ve TV şovlarına yüzünü yerleştirebileceği ücretsiz bir sahte” yüz değiştirme” uygulaması olarak Eylül’den beri kullanımda olan Zao, Bloomberg’in raporuna göre, Çin’de viral bir hızla yayılıyor. Deep App. gibi başka deep fake uygulamalarına da, üstelik kullanım kılavuzlarıyla birlikte, internetten zaten kolayca erişilebiliyor. Bu demektir ki, çok yakında, kıskançlık, nefret, haksız rekabet gibi türlü kötü duygu ve niyetlerle, sıradan insanların da porno ya da suç niteliği taşıyan, sahte sentetik videoları üretilerek, sosyal medyadan hızla yayılabilir.

Sosyal medya, suça alet olmaktan nasıl kurtulacak?

Zaten bu hızlı yayılma gücü, sosyal ağları, bundan kaçınmaya çalışsalar da, “deep fake’in çaresiz suç ortağı” konumuna sürüklüyor. En iyimser bakış açısıyla, sosyal medya kuruluşları, bunu engelleyecek bir çözüm bulamazlarsa, dağıtım kanalı olarak kullanıldıkları sahte sentetik medyalara, “istemeden yardım ve yataklık etmekle suçlanabilecek” bir pozisyona doğru hızla ilerleyecekler.

Black Hat ve RSA Konferansı gibi, yakın tarihli uluslararası girişimler de ortaya koyuyor ki, deep fake tehdidi, siber güvenlik endüstrisinin son zamanlarda üzerinde yoğunlaştığı, acil çözüm bekleyen bir sorun haline geldi. Sosyal medya devleri de kaçınılmaz olarak, deep fake riskine karşı güvenlik teknolojisi geliştirme girişimlerini destekleyen, talep ve teşvik eden bir pozisyon almış durumdalar. 

Facebook ve Google çözüm arıyor

Platformlarında yayınlanan dezenformasyon nitelikli sentetik medya miktarını azaltmak için adımlar atmaya çalışan sosyal medya devlerinden Facebook, 2019 Eylül ayında, deep fake konusunda bir veri seti hazırlayarak, bu alanda güvenlik geliştirmeye yönelik bir yarışma başlattığını duyurdu. Facebook’un CTO’su olan Mike Schroepfer imzasıyla yayınlanan yazılı açıklamada, deep fake niteliğindeki medyaların algılanması konusunda, araştırma geliştirme çalışmalarına katkı sağlamak amacıyla, sahte videolardan oluşan bir veri setinin, gönüllü aktörlerin katılımıyla hazırlandığı açıklandı. Bu kapsamda, hazırlanan veri setinden de yararlanarak, çevrimiçi medyalarla sunulan bilgilerin doğruluğunu tespit edecek kriter ve teknolojiler geliştirilmesine öncülük etmek üzere, Deepfake Detection Challenge (DFDC) adıyla bir yarışma başlatıldığı da duyuruldu. Microsoft Ortaklığı ve Cornell Tech, MIT, Oxford Üniversitesi, UC Berkeley, Maryland Üniversitesi, College Park ve Albany-SUNY Üniversitesi’nden akademisyenlerin işbirliğiyle gerçekleştirilen proje ilgili olarak, Mike Schroepfer, Facebook’un vereceği ödülü 10 milyon dolar olarak açıkladı. Aynı ay içinde, benzer bir girişim de Google’dan geldi. Ocak ayında, benzer amaçla bir “sentetik konuşma veri seti” yayımlayan Google, 24 Eylül’de de, “daha özgür ve güvenli bir internet” vizyonu ile hareket eden Jigsaw’la birlikte, Münih Teknik ve Napoli Federico II Üniversiteleri ile de ortaklaşa olarak, geniş bir derin sahte sentetik videolar dizisi yayınladı. Google, FaceForensics’i sentetik video algılama yöntemlerinin geliştirilmesine yardımcı olmak için, teknoloji geliştiricilerin kullanımına sundu.

Güvenlik endüstrisinin, deep fake tehlikesi karşısında sosyal sorumluluğunu yerine getirebilmesi için, sosyal medyaya ne kadar yardımcı olabileceğini ise, bekleyip görmek gerekecek

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: