Güvenlik Kameraları Deepfake’e Karşı Ne Kadar Güvende?

Dijitalleşen dünyamızda, görüntü işleme teknolojilerindeki hızlı ilerleme, görüntü gözetim cihazlarını, güvenliğimizin en önemli silahı haline getirmişti. Oysa şimdi o silah, “güven duygumuzu” mu hedef almaya başladı? Artık “her gördüğümüze ve duyduğumuza” güvenemeyecek miyiz? Şimdi bunu tartışmanın ve küresel büyük felaketi yaşamadan önce acil çözüm bulmanın tam zamanı.

Metropollerde, emniyet güçleri tabi ki her noktada hazır bulunamaz. Ama kolluk kuvvetlerinin olmadığı en kör noktalarda bile, kapalı devre görüntü akışı sağlayan CCTV güvenlik kameraları vardı. Kentlerin, meydanların, özel ve kamu binalarının en akla gelmeyecek noktaları bile, polis ve güvenlik kameralarıyla korunur bir yapıya bürünmüştü. Hatta, ülkeler istihbaratlarını, uydular ya da insansız hava araçlarındaki görüntüleme teknolojileriyle elde ettikleri verilere dayandırır, güvenlik strateji ve politikalarını, elde ettikleri bu video görüntülerine göre yönlendirir hale geldiler.

Ama gelin görün ki, elde edilen video görüntüler üzerinden sağlanan bu “güven duygusu” uzun sürmedi. Yapay Zeka’nın (AI) kötü amaçlı kullanımı, görüntü işleme teknolojileriyle bir yaman çelişkiye yol açınca, güvenlik sistemlerinin en güçlü silahı geri tepmeye başladı. “Makine öğrenmesi” yoluyla “Derin bir gerçek dışı gerçeklik” üretebilen yapay zeka teknolojisi, “gerçeklik algımızı” manipülasyona açık hale getirdi. Yapay zekanın yansıması olarak geliştirilen uygulamalarla, neredeyse gerçeğinden ayırt edilemez biçimde üretilen “derin sahte” videolar, kötü niyetli kullanıcıların elinde, adeta biyolojik silah kadar tehdit edici bir saldırı aracına dönüştü. 

Biyolojik silah kadar tehdit edici

Deepfake videoların, her an ülkelerin görüntülü güvenlik ve adliye sistemlerine sızarak, milli istihbarattan adli delillere kadar her alanda, bir “görme bozukluğu”na neden olabileceğini, artık tüm bilim ve teknoloji kuruluşları, ulusal ve uluslararası güvenlik örgütleri kabul ediyor. Gerçekle sahte arasında “güvenliği körleştiren” bu algı karmaşası, aslında ülkeler ve uluslararası toplum için korkutucu bir “güvenlik zaafiyetini” ifade ediyor. Artık biliyoruz ki, bir düşman ülke, terör ya da suç örgütünün, aralık kalan güvenlik kapısından sızabilmesi, telafisi çok güç felaketlere yol açabilir.

Dünyada barışı ve güvenliği ilgilendiren tüm konularda, uluslararası en üst kuruluş konumundaki Birleşmiş Milletler’in de, deepfake tehtidine kayıtsız kalması beklenemezdi. Nitekim bu yıl 2 Nisan’da, New York’taki Birleşmiş Milletler Genel Merkezi’nde, “Yapay Zeka ve Robotik: Suç, Terörizm ve Güvenliğin Geleceğini Yeniden Şekillendirmek” konulu bir arama konferansı gerçekleştirildi. Birleşmiş Milletler Bölgelerarası Suç ve Adalet Araştırmaları Enstitüsü’nün (UNICRI) koordinasyonunda INTERPOL yöneticilerinin de yer aldığı toplantıya, çeşitli ülkelerden delegeler ile BM içindeki ve dışındaki farklı kuruluşlardan temsilciler katıldı. UNICRI’nin Iraklı Başkanı toplantıda uzmanlardan, belki de hiç alışık olunmadık biçimde, yapay zekanın bir insanın davranışlarına erişen en üst düzey yeteneklerini sergilemelerini istedi. Toplantıya katılan uzmanlar UNICRI Yönetmeni Bartsiotas’ın 1 dakikalık sahte deepfake videolarını hazırlayıp, katılımcılara izlettiler. İzlerken gülüşmelere yol açan deepfake videonun ardından, bu teknolojinin emniyet güçleri açısından ortaya koyacağı olumsuz sonuçları anlatan bir video daha gösterildi. Katılımcıların yüzündeki gülümsemenin yerini, dehşet ve kaygı aldı.

Birleşmiş Milletler’deki bu toplantı ortaya çıkardı ki, deepfake teknolojisinin oluşturduğu tehlike konusunda uluslararası bir mutabakat bulunuyor ve bu tehlikeyi bertaraf edebilmek için uluslararası yönetişime ihtiyaç duyuluyor. Yine bir delegenin toplumlardaki eşitsizlikten yola çıkarak, polis memurlarının yalnızca küçük bir yüzdesinin kadın olduğuna vurgu yapması, bu nedenle yapay zeka (AI) algoritmalarının bir erkeğin bakış açısından önyargı yansıttığını anlatması, toplantının ilginç notlarından biriydi. Yapay zekanın ırklara karşı önyargısı da gündeme geldiğinde, bir başka delege algoritmaların çok bilinmeyen belirsiz bir dil konuşan insanlara nasıl önyargılı olabileceğine değindi.

INTERPOL İnovasyon Merkezi Müdürü Anita Hazenberg’in ev sahipliğindeki panelde New York Polis Departmanı İstihbarat ve Terörle Mücadele Yardımcısı Vekili John Miller, deepfake tehtidine karşı teknolojik mücadelenin, emniyet güçlerine görüntülü güvenlik ürünleri tedarik eden özel şirketlerin sorumluluğunda olduğunu savundu. NYPD’de, çok fazla teknolojik yenilik olamayacağından söz eden Miller, teknolojik önlem geliştirmesini hükümetlerden bekleyemeyeceğimizi, bunları özel sektör firmalarının geliştirip, hükümetlerin de emniyet kuvvetlerine bunları sağlayacak bütçeleri oluşturmaları gerektiğini ifade etti.  Eski bir ABD diplomatı ve küresel ilişkiler danışmanı olan Geoffrey Odlum ise, özel sektör teknoloji şirketleri ile ABD güvenlik ve silahlı kuvvetler teşkilatları arasında bir kopukluk olduğunu ileri sürerek, bu şirketlerin hükümetle çalışmaktan hoşnut olmadığına işaret etti. 

Terörle mücadele ve istihbarat savaşları

Terör ve uluslarası güvenlik alanında yaşanmış deneyimler de, görüntülü güvenliğin önemine işaret eder nitelikte. Örneğin, 2008 Bombay Saldırılarından hemen sonra, kesinti ve parazitler nedeniyle seslerden teröristleri teşhis etmenin mümkün olmadığı, kullanılabilecek tek kanıtın gözetim video kaydı olduğu ortaya çıktı. Ancak gelinen noktada, deepfake teknolojileri gelecek başka olaylarda bu kameraları bir şekilde taklit etme ihtimalini düşündürmeye başladı. Benzer bir örnek de, 2010 yılında, Dubai’de Hamas’ın önde gelen isminin öldürülmesiydi. Ancak yerel güvenlik kuvvetleri, birkaç saat içinde olayı çözdü ve üst düzey profesyoneller olsalar da, şüphelileri teşhiş edebildi. Kapalı devre görüntülü izleme sistemi CCTV’nin bulunduğu bir ülkede bu tür operasyonların nasıl yürütülmesi gerektiğini birileri mutlaka yeniden düşünüyorlardır. Başvuracakları yöntem, kuşkusuz gözetleme sistemlerini kırmak ve delilleri değiştirmek için bir yol bulmak olacaktır. Nitekim deepfake’e önlem için gerçekleştirilen çalışmalarda, çoğu kitlesel gözetim sisteminin saldırıya uğramasının kolay olduğu, çünkü bunların hiçbirinin izinsiz girişlere karşı dayanıklı olması için tasarlanmadığı anlaşıldı. Ve tüm dünyada, bunları hedef alan yeni teknikler ortaya çıktı.  Özellikle ülkeler arasındaki istihbarat savaşlarında, bu konu çok kritikti. Örneğin, ABD’de 2016 seçimleri öncesi Demokratların sunucusuna saldırarak, e-maillerine erişim sağlayan ve hükümetle bağlantılı oldukları iddia edilen Rus hack grubu APT29 Cozy Bear’ın ofis video gözetim sistemine, Hollanda Gizli Servisi AIVD’nin sızmayı başarması, dikkat çekici oldu. Hollanda Gizli Servisi, bu sayede, rus ekibinin çalıştığı Kızıl Meydan’daki binaya giren çıkan ajanların görüntülerine erişti. Görünen o ki, deepfake teknolojisi ile bu tür operasyonları, istihbarat teşkilatları ile terör ve diğer suç örgütleri de farklı amaçlarla giderek daha fazla deneyecekler.

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: