Deepfakes, Gerçekleri Ortaya Çıkarmaya Yarar mı?

Deepfakes’in, en yeni ve ironik meşruiyet denemesini sorgulamaya çalışacağız: Çevrimiçi dilde; yapay zeka (ai) yardımıyla dijital ses, metin ve video formatında üretilmiş, tüm yalan, dolan, hile, sahtekarlık, manipülasyon ve dezenformasyonun ortak adı olan deepfakes; gizli gerçekleri ortaya çıkarmaya da yarar mı?”

Kurgu, sahte ve yalan; deepfakes’in temel yapı taşları. Zaten çevrimiçi dünyanın,”insanlığa yönelik tarihin en büyük siber tehdidi” algısı da onun bu yapısından kaynaklanıyor. Reddit.com’daki “Deepfakes” kullanıcı adıyla, dünya çapında bir siber tehlike markası üreten derin mucidi de kuşkusuz böyle olsun istemişti. Gerçeği, dijital teknolojiyle eğip büküp, değiştirerek, inandırıcı sahte gerçekler üretmek, sadece bir çılgının bireysel kötülük obsesyonundan kaynaklanıyor olmasa gerek. Deepfakes’in 3 yıla yaklaşan gelişimine bakıldığında, arkasında daha organize bir küresel vizyon bulunduğu rahatlıkla söylenebilir. Deepfake ar-ge’sine, sağlık, eğitim, spor, sanat, iletişim gibi farklı alanlarda, insanlık için faydalı gözüken birçok proje ile meşruiyet kazandırılması da, bir yönüyle bu öngörüyü destekler nitelikte. Ama bu yazının konusu, tartışılan komplo teorilerini tekrarlamak değil. Sadece, deepfakes’in, en yeni ve ironik meşruiyet denemesini sorgulamaya çalışacağız:

Çevrimiçi dilde; yapay zeka (ai) yardımıyla dijital ses, metin ve video formatında üretilmiş, tüm yalan, dolan, hile, sahtekarlık, manipülasyon ve dezenformasyonun ortak adı olan deepfakes; gizli gerçekleri ortaya çıkarmaya da yarar mı?”

Sadece suçlular mı gizlenir?

Demokrasi ve hukukun, bireyin haklarını ve güvenliğini koruduğu özgür dünyada, sadece suçluların ve saldırganların, açığa çıkıp yakalanmamak için saklandıklarını sanıyorsanız, yanılıyorsunuz. Dünyanın her yerinde, kötüler ve suçlular, çoğunlukla güçlü ve organize oldukları için, kamu yararına onları ifşa etme cesaretini sergileyenler de, olası saldırıların hedefi olmaktan çekinirler. Korunmak için de kimliklerini gizlemek zorunda kalırlar. Üstelik güçlü, tehlikeli saldırganlar, sadece mafya, terör ve casusluk örgütleri gibi illegal yapılarla da sınırlı kalmaz.  Dünyanın her yerinde, nüfuz sahibi politikacılar, iş insanları, üst düzey yöneticiler, dini liderler, sivil siyasi oluşumlar, küresel şirketler, uluslararası kuruluşlar, hatta kamunun güvenlik ve adalet kurumlarındaki suç odaklı yapılanmalar, hukuka ve insan haklarına aykırı eylemleri ya da yolsuzlukları açığa çıkmasın diye, şiddet silahını kullanırlar. Cesur ve namuslu kamu görevlileri, gazeteciler, fikir önderleri ve hukuk insanları, bunlarla ilk mücadele edenlerdir. Ayrıca yine bunların haksız ve hukuksuz eylemleri nedeniyle mağduriyet yaşayan, özgürlüklerini, varlıklarını, sevdiklerini ya da sağlıklarını yitiren sıradan insanlar da onları ele verebilir. Yaşanan gizli kalmış suçları su yüzüne çıkarıp, suçluların yakalanmalarını sağlayabilirler. İşte açığa çıkmamış ve failleri yakalanmamış suçları ve suçluları ifşa edip, onları adliyeden önce kamu vicdanı mahkemesine çıkaracak cesareti sergileyenlerin, bu süreçte ve sonrasında güvende kalabilmeleri gerekir. Bu yüzden de kimliklerinin gizlenmesine ihtiyaçları vardır.

Kese kağıdı ve kadın çorabının yerini deepfake mi alacak?

X kuşağı ve öncesi oldukça iyi hatırlayacaktır. Özellikle, güç odaklarınca işlenen suçlar ve yapılan yolsuzluklar, gazete sayfalarında ya da TV ekranlarındaki haber programlarında, tanıkların açıkladığı gizli bilgi ve belgelerle açığa çıkarılırdı. Suçluları ifşa eden tanıklar, tanınmamak için kafalarına kese kağıdı ya da kadın çorabı geçirerek açıklamalarda bulunurlardı. Sonraları teknoloji geliştikçe, gizli tanıkların kimliklerini gizleyebilmek için sesleri değiştirilmeye, görüntülerdeki yüzleri flulaştırıcı buzlama efektleriyle kapatılmaya çalışıldı. Hatta ulusal güvenlik ve adliye makamları, gizli tanık koruma programlarıyla, önemli davalardaki güçlü ve tehlikeli suçluları açığa çıkaranları korumaya çalıştılar.  Gizli tanıkların açığa çıkmamaları için, estetik cerrahi müdahaleler ile onlara farklı bir fiziksel görünüm ve yeni kimliklerle yeni bir hayat sağlamaya çalıştılar. Gelişmelere bakılırsa, artık bu kadar zahmete gerek kalmadı. Deepfake teknolojileriyle, gizli tanıkların yüzleri dijital olarak kolayca değiştirilebilecek, hatta gerçekte hiç var olmayan birinin yüzüne ya da fiziksel görünümüne de bürünebilecekler. Sesleri de sentezlenerek tanınmaz hale getirilebilecek. Böylece, kimlikleri açığa çıkmadan, saldırıların hedefi olmaktan korkmadan, gizli kalmış gerçekleri açıklayabilecek, en güçlü ve tehlikeli suçluları ortaya çıkarabilecekler.

Deepfake’li belgesel

ABD’nin dünyaca ünlü, en saygın yayın kuruluşlarından The New York Times, haberi 1 Temmuz’da, “Deepfake Teknolojisi Belgesel Dünyasına Giriyor” başlığı ile duyurdu. Deepfake destekli belgesel, Hollywood ile birlikte, batı medyasının, sanki insan hakları savunusunun ötesine geçerek, daha çok bir popülarite kazandırma kampanyası boyutuna vardırmış gibi gözüktüğü, eşcinsellikle ilgiliydi. Wikipedia’daki bilgiye göre, eşcinsel hareketi LGBT hakkındaki araştırmacı gazeteciliği ile tanınan ve kendisi de eşcinsel olan Amerikalı belgesel yapımcısı David France, yeni belgesel projesi ile nytimes.com’da üst üste iki gün haber konusu oldu.

İlk haber, David France’nin Çeçenistan’daki eşcinselleri konu alan yeni belgeselinin yayınlanmaya başladığını, ikinci haber ise, söz konusu belgeselde deepfake teknolojisinin kullanıldığını aktarıyordu. ABD’nin önde gelen ücretli TV yayın gruplarından HBO’da “Çeçenya’ya hoş geldiniz” adıyla 30 Haziran’da yayınlanmaya başlayan belgeselde, bu ülkedeki gelenekçi kesimin, gay ve lezbiyenlere sosyal baskı ve şiddet uyguladığı öne sürülüyordu. 2017-2019 arası çekilen belgeselde, Rusya’daki aktivist eşcinsellerin, Çeçen hemcinslerini yaşadıkları baskıdan kurtarmak için bu ülkeden gizlice kaçırmaya çalıştıkları iddia ediliyordu.

Gönüllü aktivist yüzlerle, yüz takası

New York’lu gazeteci ve film eleştirmeni Joshua Rothkopf, nytimes.com’daki haberinde, belgeselde yer alan Çeçen eşcinsellerin kimliklerini saklamak için, dijital manipülasyona başvurulduğunu duyurdu. Habere göre, belgeselin post prodüksiyonunda onların yüzlerini değiştirmek için, gelişmiş bilgisayar teknolojisiyle farklı yüzler, inandırıcı biçimde onlara giydirildi. Gizli güvenli evlerde saklandığı öne sürülen eşcinsellerle yapılan röportajlarda, deepfake teknolojilerinden yararlanılarak onların yüzü yerine kullanılan yüzlerin ise, gönüllü aktivistlerin yüzleri olduğu belirtildi.

Belgeselin görsel efekt sorumlusu, bu alanda 30 yıllık Hollywood deneyimine ve “Harry Potter Gizli Oda” gibi güçlü referanslara sahip Ryan Laney, yönetmeni deepfake kullanımı konusunda ikna etmiş. Bir belgeselin kısıtlı bütçesinde, derin öğrenmenin en iyi çözüm olduğunu savunan Laney, gizlice deepfake düzenleme paketi kurmuş ve yüzleri gizli tutabilmek için sürekli çevrimdışı çalışmış. Yüzleriyle belgeselde rol almayı kabul eden gönüllüler ise, David France tarafından Instagram ve diğer sosyal ağlardan bulunmuş. Azınlıktaki cinsel eğilimlere sahip aktivistlerden oluşan gönüllüler, bu deepfake operasyonu için, belgeselde yüz yakalama uzmanı olarak görev yapan prodüktör Jonny Han’ın kamerasının karşısına geçmişler.

Deepfake’in gri tonu

Belgesel alanındaki uzmanlığı ile tanınan, San Francisco Eyalet Üniversitesi’nden Profesör Bill Nichols, “Yüzümüz, kimliğimizin özü, vücudumuzun en seçkin özelliği. Gerçek yüzün olmaması, çoğu durumda bir rahatsızlık hissi uyandırır “diyor. Nichols, buna karşın deepfake’li belgesel için bir açık kapı bırakıyor. “Ancak bu belgesel bir öznenin kimliğini gizlerken yine de karmaşık duygusal bağlara izin veren yeni bir tür yumuşak maske tanımını temsil edebilir. Çok büyük girişim ve bence işe yarıyor” diyor.

David France ise, “deepfake’in insanların söylediklerini ve yaptıklarını değiştirmesi hiçbir şeyi değiştirmez. Deneklerimin kendi hikayelerini anlatmalarına olanak sağlıyor“ görüşünü ileri sürüyor. France, sorulması gereken asıl soruyu da yine kendisi soruyor: “Yine de neden deepfake kullanılan bir belgesele güvenelim?” Ona göre etik tartışması her belgesel için geçerli, o yüzden bu kendi deyimiyle, “sürece güvenmekle ilgili bir konu.” France, deepfake kullanımı ile ilgili belgeselini şöyle savunuyor: “Her teknolojinin ahlaki açıdan iki yönü var. Belgeselimizin kanıtladığı şey, bunun doğru bir şekilde yapılabileceğidir”

Çevrimiçi sahte sentetik tarih tehlikesi

“Çeçenya’ya hoşgeldiniz” belgeseli, gerçekleri ne ölçüde yansıtıyor, buna Çeçenler başta olmak üzere uluslararası toplum karar verir. Ancak belgeseldeki deepfake tercihi, küreselleşmenin teknolojideki gelişmelerle derinleşen ahlaki çelişkilerine, bizce ironik bir örnek. Çünkü belgesel, tarihe ve olaylara; kişiler, bilgiler ve belgelerle tanıklık eden, gazeteciliğin etik açıdan hassasiyeti en yüksek alanlarının başında geliyor. Oysa artık, sahte sentetik yüzler, belgesellerde gerçekleri ortaya çıkarıp sergilemenin güvenli bir yolu olarak sunuluyor. Dönemlere ve olaylara tanıklık edenlerin bile sahteleştiği yeni dijital düzende, tarihi gerçeklerin teknolojiyi elinde tutanlarca ırkçılık, islamofobi gibi saplantılarla çarpıtılmasından ve böylece çevrimiçi sahte sentetik bir dijital tarih kurgulanmasından endişe duymalıyız. Gelecek kuşaklara gerçekleri miras bırakabileceğimizi kim garanti edebilir?

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: