Pornografi Tehdidini Zayıflatmak, Deepfake Tehlikesini Geriletebilir

Bugün deepfake içeriklerin %95’ini oluşturduğu öngörülen intikam pornoları, artık özel hazırlanan deepfake porno sitelerinde yayınlanıyor. Deepware AI olarak, geliştirdiğimiz ilk çevrimiçi deepfake tarama ve algılama motoru Deepware Scanner’a, Adult Scanner fonksiyonu kazandırarak, “Deepfake Pornografisi” ile mücadelede, çok önemli bir gelişmeye öncülük ediyoruz.

İnsan bedeninin, insanlık tarihinin en büyük sömürü aracı olması, ne ironik değil mi? İnsan varlığının çok değerli bir yarısını oluşturan kadınlar, tarih boyunca çoğunlukla bu sömürünün hedefi olmuş. Kadını metalaştırarak sömürme girişimi, insanın sadece fiziksel varlığını değil, artık dijital varlığını da istismar etmeye yöneliyor. Bu saldırıdan, bazen saldırıya uğrayan kişinin haberi bile olmuyor ya da farkına vardığında iş işten geçmiş oluyor. Yetişkin içerikleri kavramıyla meşrulaştırılan bu kirli sömürü biçimi, üstelik sadece kadınları değil, çocukları ve gençleri de hedef seçiyor.

Deepfake porno siteleri türedi

Yapay zekanın (AI) yol açtığı sentetik medya ve deepfake teknolojisi sayesinde, insanlar farkında olmadan, çoğunlukla sosyal medyadan yüzleri çalınarak, video ya da fotoğraf türünde bir yetişkin içeriğinin objesine dönüştürülüyor ve bu yolla istismar edilebiliyorlar. 2017 yılında Reddit.com’da yayınlanan ilk deepfake video içeriği olan ve büyük bir hızla yayılarak bugün deepfake içeriklerin %95’ini oluşturduğu öngörülen intikam pornoları, artık özel hazırlanan deepfake porno sitelerinde yayınlanıyor ve sosyal medyada viral hızla dolaşıma giriyor. Sıradan insanlar da psikolojik sorunları ya da ihtiraslarına yenilerek, farklı kötü niyetlerle, giderek artan bir oranda yetişkin deepfake içeriklerin amatör üreticileri arasına katılıyorlar. Uzmanlar, masum insanların kurban seçildiği çevrimiçi dolaşımdaki yetişkin içerikli deepfake video sayısının bu yıl 180.000’e, gelecek yıl ise 720.000’e yükseleceğini tahmin ediyorlar.

İnsan zihninin en büyük zaafı haline gelen yetişkin içeriklerini kontrol altına almadan, deepfake tehdidi ile mücadele pek mümkün görünmüyor. Deepware AI olarak, geliştirdiğimiz ilk çevrimiçi deepfake tarama ve algılama motoru Deepware Scanner’a Adult Scanner fonksiyonu kazandırarak, bu alanda çok önemli bir gelişmeye öncülük ediyoruz.

Kim kazanıyor, kim kaybediyor?

Hindistan merkezli pazar araştırma kuruluşu Absolute Markets Insights’ın Çevrimiçi Porno Pazarı 2019-2027 Araştırması’na göre, çevrimiçi küresel yetişkin içerik pazarı 2019 yılı için 35,17 milyar dolar olarak hesaplanıyor. Pandemi ve kripto parayla içerik aboneliği sayesinde, pazarın %15,12’lik büyüme sağlayarak, geçen yıl 40 milyar doları aştığı tahmin ediliyor.  Böylesine dev bir ekonomiye hükmeden pornografi sektörü, artık insanoğlunun içgüdüsel tatminine yönelik içerikler üretip satışa sunmakla yetinmiyor. Pornografi salgınını topluma yayarak, amatör içerik üreticiliğini teşvik ve tahrik ediyor. Yetişkin içeriklerin müşterisi olmakla yetinmeyenler, kolay erişilebilir mobil uygulamalar ve kullanıcı dostu web arayüzleri yardımıyla, kurban seçtikleri kişinin pornografik deepfake içeriklerini üretme olanağına sahip oluyorlar. Başkasına zarar vermeye çalışken, gelecekte kendilerinin ya da bir yakınlarının benzer bir saldırının kurbanı olabileceğini ise, hiç hesaba katmıyorlar.

Çoğunlukla, yüzleri yetişkin içerikli medyadaki çıplak bedenlere eklenerek istismar edilen kurbanların yaşamları altüst oluyor. Bu tür görüntüler çevrimiçi dolaşıma sürüldüğünde, görüntülerin gerçek olup olmadığı ise fazlaca sorgulanmıyor ya da giderek önemini kaybediyor. Seçilen kurbanlar, itibarlarını, onurlarını, eşlerini, ailelerini, sosyal çevrelerini, işlerini, eğitim ve kariyer olanaklarını, geleceklerini ve sahip oldukları değerli her şeyi, bir anda kaybetme tehlikesi ile karşı karşıya kalıyorlar.

İntikam pornosu, en tehlikeli şantaj yöntemi

Yetişkin içeriği türündeki deepfake medya, kurban seçilen kişiye yönelik taciz ve itibar cellatlığı niteliğiyle, çok tehlikeli bir saldırı silahına dönüşüyor. Ancak bu saldırı, söz konusu deepfake medya çevrimiçi dolaşıma çıkarıldığında gerçekleşmiş oluyor. Oysa, çevrimiçi dolaşıma girmeden önceki aşamada, bu yolla kimlerin, kendilerine yönelen hangi karanlık tehdit ve şantajlara boyun eğdiğini ya da gelecekte bu yolla hangi kirli amaçlara karşı konulamayacağını belki de hiç bilemeyeceğiz. Sex içerikli sahte sentetik medya, daha muhafazakar toplumlarda, sonuçları asla göze alınamayacak kadar ağır bir şantaj yöntemi haline dönüşebilir.

Kadınlar başta olmak üzere, özellikle politikacı, bürokrat, diplomat, gazeteci, yazar, aktivist, kanaat önderi gibi, konumları, görevleri ve misyonları itibariyle, ülkenin ve toplumun yararını her şeyin üzerinde görmesi gerekenler, yetişkin içerikli deepfake medya içerikleriyle tehdit edildiklerinde, bunlara ne ölçüde karşı koyabilecekler? Özellikle, Ortadoğu ve Kuzey Afrika gibi daha muhafazakar coğrafyalarda, bu tür tehditlere nasıl direnip, toplumun menfaatini savunmaya devam edebilecekler?

Araştırmacı gazeteciliğin bedeli, ülkenin yarısına servis edilen sahte çıplak görüntüler

Rana Eyyub (Ayyub), Hindistan’da insan hakları ihlalleri ve yolsuzluklar gibi siyasi skandalları açığa çıkaran araştırmalarıyla adını duyurmuş, ünlü bir Müslüman araştırmacı gazeteci. Genç kadın gazeteci-yazar, dünya deepfake tarihinin daha 6. ayında ülkesinde yaşadığı intikam pornosu saldırısını, o günlerde ABD merkezli haber sitesi The Huffington Post’ta kaleme aldı.  Rana Eyyup, huffingtonpost.com’un “Daha Az Sıradan Olan Hayatlar” bölümünde, 21 Kasım 2018 tarihinde yayınlanan, “Beni Susturmak Amaçlı Deepfake Porno Olayının Kurbanıyım” başlıklı yazısında, muhalif olarak bilinen bir araştırmacı gazeteci olduğu için, sosyal medyada uzun süredir kadın düşmanı taciz ve nefret mesajlarına hedef olduğunu anlattı. Her zaman bunun yalnızca çevrimiçi nefret olduğuna kendini inandırarak, tehlikeyi görmezden gelmeye çalıştığını anlatan Rana Eyyub için, 2018 Nisan’ında her şey iki günde değişti.

8 yaşındaki Keşmirli bir kız çocuğa tecavüz edildiği için ülke çapında kutuplaşma ve gerilim hakimken, Rana Eyyub Hindistan’da çocuklara yönelik cinsel istismarcıların nasıl korunduğunu anlatmak üzere, BBC ve El Cezire’deki TV programlarına davet ediliyor.  Ertesi gün sosyal medyada, kendisinin sosyal medya hesabından yayınlanmış olduğu iddia edilen bir dizi sahte tweet dolaşmaya başlıyor. ‘Hindistan’dan nefret ediyorum’ ve ‘Çocuk tecavüzcülere bayılıyorum ve bunu İslam adına yapıyorlarsa destekliyorum’ gibi mesajlar taşıyan bu sahte tweetleri, bir gün sonra dağıtıma konulan 2,5 dakikalık bir intikam pornosu ve çevrimiçi linç kampanyası izliyor. Üstelik, kendi yüzünün kullanıldığı videonun, whatsapp üzerinden ülkedeki cep telefonlarının en az yarısına ve sosyal medyaya dağıldığını, muhalif olduğu BJP partisinden bir kaynak, kendisine e-posta ile haber veriyor.

Hukuk, deepfake karşısında adaleti sağlamaya yetmiyor

Twitter, Facebook ve Whatsapp üzerinden yürütülen taciz kampanyası, insan onuru ve tahammülünü aşan bir sınıra ulaştığı halde, iddiasına göre polis ve mahkeme onun başvurularına kayıtsız kalıyor. Bu arada söz konusu video on binlerce kez paylaşılıyor, yüzbinlerce taciz içerikli yorum yapılıyor. Olay uluslararası boyut kazanıp, Birleşmiş Milletler raportörleri devreye girince ve Hindistan hükümeti nezdinde uyarıda bulununca, hukuki süreç devreye giriyor. Ancak genç kadın gazetecinin yaşadığı büyük travma nedeniyle, zaten iş işten geçmiş oluyor.

Rana Eyyub, Siber Taciz alanında çalışmalar yürüten Boston Üniversitesi Hukuk Fakültesi’nden Prof. Danielle Citron ile birlikte, 30 Ekim 2020’de NPR’deki TED Radyo Saati programına katıldı.  Kadın gazeteci, 2010 yılında bir yolsuzluk haberi nedeniyle hapse girmesine neden olduğu Modi Hükümeti’nin önemli bir bakanının, bu olayların yaşandığı dönemde, Hindistan’daki en güçlü ikinci adam konumunda olduğuna dikkat çekti. Eyyub, yaşadığı travma nedeniyle 5 gün ölü gibi yattığını ve 6 ay evden çıkamadığını anlattı. Prof. Citron ise, kışkırtıcı çevrimiçi sahte içeriklerin, diğer doğru ve gerçek içeriklerden 10 kat hızlı yayıldığına vurgu yaptı.

Pornografiye bariyer, deepfake’e tespit

“Deepfake Pornografisi”, aslında çift katmanlı bir toplumsal tehlike niteliği taşıyor. İnsan bedenini istismar eden pornografinin, şiddet eğilimini teşvik eden müstehcen niteliğiyle, bireyin psikolojisi ve toplumun ahlaki değerleri üzerinde ortaya çıkardığı tahribatı anlatmaya gerek yok. Bu istismarın çocuklar ve gençler üzerindeki travması daha da büyük. Buna bir de bu tür medya içeriği ile hiçbir ilgisi olmadan, bilgisi ve rızası dışında bu istismara alet edilen deepfake kurbanlarının yaşadığı travmayı eklediğinizde, iki aşamalı bir önlemin ne denli yaşamsal olduğu daha net ortaya çıkıyor. Deepfake’in bu en tehlikeli ve zararlı türüne karşı, hem bu nitelikteki medya içeriklerin kontrolsüz erişilebilirliğini önlemek, hem de aldatıcı deepfake niteliklerini açığa çıkarmak gerekiyor.

Deepware Adult Scanner, Deepfake Pornografisi ile mücadelenin fitilini ateşledi

Deepware’in AI mühendisleri tarafından geliştirilen, AI temelli çok katmanlı deepfake tarama ve algılama motoru Deepware Scanner ile deepware.ai web sitemiz üzerinden dünyada ilk kez çevrimiçi kullanıcılara, ücretsiz video tarama ve deepfake olasılığını raporlama olanağı sunmuştuk. Deepware AI olarak, Deepware Scanner ürünümüze, yine dünyada ilk kez Adult Scanner filtresi ekleyerek, “Deepfake Pornografisi” ile mücadelenin de fitilini ateşlemiş olduk.

Deepware Scanner’a eklenen Adult Scanner filtresi, gelişmiş AI algoritmaları sayesinde, pornografik video içeriklerini belirliyor. Video linki üzerinden ya da dosya halinde taratılan videonun, pornografik içerik taşıması durumunda, tarama ve raporlama sırasında görüntülenmesini bloke ediyor. Böylece sistem, tarama yaptıran kullanıcıyı taratılan videonun herhangi bir sahnesindeki müstehcen içeriği görüntülemekten koruyor. Ayrıca, video deepfake olsun ya da olmasın, Deepware Scanner’da yapılan taramanın rapor çıktısı nedeniyle, pornografik videonun arama motorları kanalıyla başka kullanıcılara ulaştırılması da önlenmiş oluyor.

Deepware Scanner, pornografik içerik taşıdığı için görüntülenmesini engelliyor olsa da, videonun deepfake olup olmadığını, tarama yaptıran kullanıcıya bir olasılık oranı halinde raporluyor. Sonuç olarak, Deepware Scanner’da bir videoya deepfake taraması yaptıran kullanıcı, hem tarama ve raporlama sırasında, pornografik görüntüleri izlemekten ve videonun dağıtılmasına alet olmaktan korunuyor, hem de videonun gerçekliği ile ilgili olasılık konusunda bilgilendiriliyor.

Yetişkin içerikli pornografik deepfake görüntüler, çevrimiçi dolaşıma girse de ya da kurbanlar şantaja boyun eğse de, ödenecek bedel çok yüksek olacak. Karanlık niyetleri gerçekleştirmek için, kolayca üretilebilen yetişkin içerikli deepfake medya, ya kısa sürede kontrolden çıkarsa… İstismar, taciz ve şantaj amaçlı, sosyal mühendisliğe dayalı toplumsal linç girişimleri, ortak akıl, adalet ve vicdanı ortadan kaldırdığında, dünya ne hale gelir? Bu tablo ortadayken, pornografi istismarını önlemeden, deepfake ile mücadeleden söz etmek, ne kadar inandırıcı olabilir?

Posted by Bülent Kızanlık

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.