Deepfakes, AI Destekli Ulusal Güvenliği Kör Eder mi?

Görüntü, istihbaratın can damarıdır. Sahadan görüntü akışı kesilirse, ulusal güvenlik operasyonu, kör, sağır ve dilsiz kalır, başarı şansı azalır. İstihbarat görüntüleri gerçek değilse, sentetik olarak üretilmiş, değiştirilmiş, manipüle edilmiş ise ne olur? O zaman, sahadaki savaş daha operasyon merkezi ekranında kaybedilmiş olmaz mı?

Yapay zeka (ai), bilgisayarların ve makinelerin geleneksel olarak insan zekası gerektiren görevleri yerine getirme yeteneği olarak algılanıyor. Temel ai teknolojileri de, insan beynine benzer yapay sinir ağları, matematiksel optimizasyon ve istatistiksel yöntemler yardımıyla, belirli görevleri yerine getiren bilgisayar sistemleri olarak geliştiriliyor. AI genellikle insan bilişiyle ilişkili görev ve süreçleri gerçekleştirmek için, algoritmaları eğitmek ve beslemek üzere büyük miktarda veri kullanıyor. Mevcut ai teknolojilerinin çoğu, görüntülerdeki nesneleri tanımlamak gibi belirli bir görevi gerçekleştirmek için tasarlanmış “dar” bir amaca hizmet ediyor. Spesifik dar hedeflere yönelik ai teknolojilerine, özellikle ulusal güvenlik alanında giderek daha fazla başvuruluyor. 

AI içerikli politik ve bilimsel yazıların çoğu, insan müdahalesi olmadan hedefleri tespit edip yok eden “katil robotlar” gibi, ölümcül otonom silah sistemlerine odaklanıyor. Oysa ai çok daha çeşitli ulusal güvenlik görevlerinde yaygın olarak kullanılıyor. AI, otonom uçaklar veya gemiler gibi fiziksel sistemleri çalıştırmak için kullanılan yazılımın, önemli bir parçasını oluşturuyor. Uydu görüntülerindeki hedefleri sınıflandırmak için makine öğrenmesinin kullanılması örneğinde olduğu gibi, ai bazen analitik süreçlerin bir parçası olarak da değerlendiriliyor.  Her iki durumda da ai kendi başına bir askeri unsur değil. Ancak, ulusal güvenlik görevlerinin ve sistemlerin verimliliğini sağlayan, önemli bir güç ve dayanak olma özelliği taşıyor.

Savaş sahada mı, operasyon merkezinde mi kazanılır?

Savaş – aksiyon filmlerinde, dizilerde ya da onları aratmayan savaş ya da terörle mücadele haberlerinde mutlaka görmüşsünüzdür. Ulusal güvenlik operasyonları için mutlaka bir dijital harekat merkezi kurulur. Küresel teröristler ya da düşman ülkenin askeri unsurlarıyla sahada gerçekleştirilen mücadele, yapay zeka (ai) destekli en gelişmiş entegre dijital görüntü analizi olanaklarına sahip bu üslerden yönetilir. Sahadaki ulusal güvenlik birimleri, dijital operasyon merkezindeki üstlerinin talimatlarına göre hareket ederler. Operasyon merkezini yönetenler ise, uydular ya da insansız hava araçları gibi gökyüzündeki dijital kaynaklardan elde ettikleri görüntü verilerini ai tabanlı algoritmalarla analiz ederek, en stratejik kararları oluştururlar. Görüntü, istihbaratın can damarıdır. Sahadan görüntü akışı kesilirse, ulusal güvenlik operasyonu, kör, sağır ve dilsiz kalır, başarı şansı azalır. İstihbarat görüntüleri gerçek değilse, sentetik olarak üretilmiş, değiştirilmiş, manipüle edilmiş ise ne olur? O zaman, sahadaki savaş daha operasyon merkezi ekranında kaybedilmiş olmaz mı?

Ulusal güvenlik, tabi ki sadece ülke sınırları ötesindeki ya da yerleşim alanları dışındaki askeri operasyonlardan ibaret değil. Geniş manada kamu düzeni diye tarif ettiğimiz toplumsal barış ve huzuru hedef alan tehditler, çeşit çeşit. Kentlerdeki terör eylemleri, anarşiye yol açan toplumsal hareketler, protesto gösterileri, sokak çatışmaları, büyük trafik kazaları, sel, yangın, deprem gibi afetler ve hatta soygun, gasp, yağma gibi asayişe yönelik saldırılar, kamu güvenliği açısından büyük tehlikelere yol açar. Kentlerin ve ülkenin güvenliğinden sorumlu olan kamu otoritesi, kritik bölgelerden başlayarak şehirleri, otoyolları ve tüm stratejik alanları CCTV kameralı güvenlik sistemleriyle gözler, denetler ve kontrol altında tutar. Güvenlik güçleri ile sağlık ve itfaiye ekipleri gibi birimlerin, öngörülen ya da beklenmedik tehlikelere, en hızlı ve etkili biçimde müdahalede bulunabilmeleri, güvenlik kameralarından elde edilen görüntülü veri akışına bağlıdır. “Güvenlik kameraları deepfake’e karşı ne kadar güvende?” başlıklı geçmiş bir yazımızda, manipüle edilmiş sentetik görüntülü içeriklerin, CCTV güvenlik kamerası ağına sızma riskinden söz etmiştik. Ama deepfakes’in toplumsal tehdidi, yerleşim alanlarındaki CCTV güvenlik kamerası ağıyla sınırlı değil.

Hava savunması, deepfakes’e karşı savunulabilecek mi?

Covid-19 Yeni Tip Koronavirüs Pandemisi sürecinde, birçok ülkede, kent merkezlerindeki karantina, sosyal mesafe ve maske denetimleri bile dron kümelerinden elde edilen görüntü akışıyla gerçekleştiriliyor. Yaşamı gözetim altında tutan, gökyüzündeki görüntülü ulusal güvenlik ağı, kamu otoritesini yanıltacak bir dezenformasyon kaynağına dönüştüğünde, kritik güvenlik kararları zaafa uğrayabilir. Hiper gerçekçi sentetik görüntüler, zamanında doğru ve gerekli müdahaleyi yapabilme olanağını ortadan kaldırabilir. Ulusal güvenliğin gökyüzündeki dijital görme yetisine yönelik, çağın en büyük tehdidi olan deepfakes, bu yönüyle ulus devletlerin, yakın gelecekteki en tehlikeli gizli düşmanı olmaya aday. Geçmişte hava savunması denince, ilk akla gelen yüksek teknolojili hava araçlarından oluşan filo gücü olurdu. Şimdi ise, hava savunma sistemini, deepfakes’e karşı savunmak gerekiyor.

Havadan gelecek casusluk girişimi ve saldırılara karşı, askeri, siyasi, ticari ve uluslararası müşterilere ai destekli otonom dron güvenlik teknolojileri sunan Citadel Defense, geçen ay bu konuda önemli bir adım attı. ABD Özel Kuvvetleri, Hava ve Deniz Kuvvetleri’ne geniş bir coğrafyada hizmet veren şirket, deniz ticaret filoları, petrol kuyuları ve rafineriler gibi değerli varlıkların havadan gelecek saldırılara karşı korunmasına yönelik sistemler de sağlıyor. Citadel Defense, kimlik sahtekarlığı taktiklerine karşı yeni bir savunma yapılanması oluşturuyor. Şirket geçen ayın sonunda düşman sahteciliği taktiklerine karşı güçlü bir savunma için, deepfake teknolojilerindeki yapay sinir ağlarını içeren yeni bir yazılımın piyasaya sürüldüğünü duyurdu. Şirketin açıkladığına göre yazılım, güvenlik istihbarat ekipmanlarını karıştırmaya yönelen, artan düşman taktikleriyle mücadele etmek üzere tasarlandı. “Adversarial Networks” adlı çözüm, Citadel’in Titan C-UAS dron savunma sistemi platformuna dağıtılacak.

Düşman dronu ile deepfakes’i ayıran sinyal sınıflandırma modeli

Citadel Defense CEO’su Christopher Williams, tıpkı anti-virüs programlarının yazılım istismarlarını tespit etme yöntemlerine sahip olması gibi, Titan’ın da kimlik sahtekarlık istismarlarına karşı proaktif bir şekilde savunma yapan otomatik yöntemlere sahip olduğunu söyledi. Williams bu amaçla Titan’a yeni derin öğrenme yetenekleri eklediklerini, böylece drone donanımlı düşmanı kör etmeyi amaçladıklarını ifade etti. Citadel Defense CEO’su tartışmalı karmaşık radyofrekans ortamlarında bu yolla düşmanın herhangi bir avantajı ya da güvenli hareket olanağı elde etmesini önlemeyi hedeflediklerini belirtti. Sistemde, tescilli görüntü oluşturma algoritmaları kullanarak geliştirilen sınıflandırma modelleri, tespit edilen bir sinyalin gerçekliğini ölçüyor. Sınıflandırma modelleri, sinyalin gerçek bir dron mu, yoksa düşman tarafından istihbarat ekipmanını kandırmaya çalışan sentetik biçimde üretilmiş sahte bir sinyal mi olduğunu belirlemeye yardımcı oluyor.

ABD, Siber Kuvvetler Komutanlığı’na milyar dolarlar harcıyor

ABD Silahlı Kuvvetleri, Siber Komutanlığı’nı (ARCYBER) bundan tam 10 yıl önce kurdu. ARCYBER’in, siber eğitimleri ve dijital savaş gücünü artıran siber tatbikatlarına, her yıl milyar dolarlar harcanıyor. ABD Silahlı Kuvvetleri, dijital savaş ve gökyüzü istihbarat üstünlüğünü atmosferin de ötesine taşımak için bir büyük adım daha attı. ABD Başkanı Trump’ın Ulusal Savunma Yetkilendirme Yasası olarak da bilinen 2020 Savunma Bütçesi’ni onaylamasıyla, ABD Uzay Kuvvetleri Komutanlığı bu yıl resmen kuruldu.

AI’nin gelişen askeri kullanımı, devletlerin askeri operasyonları yürütme biçimlerini de değiştiriyor. AI temelli teknolojiler, büyük miktarda bilgiyi hızla gözden geçiren otonom dron sürüleri ve algoritmalar, kuşkusuz savaşma hızını ve askeri verimliliği artıracaktır. AI konusunda araştırma – geliştirme çalışmaları, ulusal güvenlik alanındaki karmaşık ve tehlikeli görevlere, gelişmiş doğruluk ve verimlilik kazandırmayı vaat ediyor. Ancak ulusal güvenlik ya da çokuluslu askeri operasyonlar bağlamında ortaya çıkabilecek potansiyel risklere yönelik çözümler, henüz yeterli düzeyde değil.

Veri zehirlenmesi riski, ai’nin güvenilirliğini sorgulanır kılıyor

AI destekli savaş yaygınlaştıkça, askeri iş birlikleri de giderek zorlaşacak gibi görünüyor. AI teknolojisine sahip devletlerin, ai destekli sistemleri geliştirmek ve işletmek için gereken hassas verileri müttefikleriyle paylaşmada, siyasi engelleri aşmaları kolay olmayabilir. AI destekli uluslararası güvenlik operasyonlarında, müttefiklerin paylaştıkları veriler, özellikle manipülasyona karşı onları savunmasız bırakabilir. Düşmanın kendi veri havuzlarına girebileceğinden ve verileri “zehirleyebileceğinden”, sahte veri ekleyerek veya mevcut verileri kasten kusurlu hale getirerek, ulusal güvenliklerini tehdit edebileceğinden endişe duymakta, hiç de haksız değiller.

Düşman güçler, bir ittifakın askeri komuta ve kontrol süreçlerine müdahale etmeyi amaçlayan aldatma kampanyaları başlatmak için ai kullanabilir. AI’den aynı zamanda müttefikler arasında anlaşmazlıklara yol açacak yanlış bilgilendirme kampanyaları başlatmak için de yararlanabilirler. Düşman bu biçimde, ai tabanlı hedef tanıma sistemlerini yanıltarak, sistemi askeri hedefleri gözden kaçırmaya ya da “askeri hedef değil” biçiminde sınıflandırmaya yönlendirebilir. Sivil altyapıyı, askeri tesisler olarak tanımlamaya yönelik olarak, görüntü verilerini zehirleyebilir.  En kötüsü de yanlış hedeflerin vurulmasına yol açabilir. Askeri operasyonları planlayıp yönetenler, uzun zamandır düşmanlarını savaş ve kriz dönemlerinde aldatmaya çalıştılar. 2. Dünya Savaşı’nda, müttefik kuvvetler, Nazi planlamacılarını D-Day inişlerinin yeri hakkında aldatmak için, şişme tank ve uçak tuzaklarıyla donatılmış hayali ordu görüntüleri içeren, karmaşık bir aldatmacaya başvurdu. Artık askeri operasyonlarda böyle fiziksel kandırmacalara ihtiyaç yok. Çünkü ai, dijital tuzaklar kurmak ve dezenformasyon için, deepfakes gibi ikna ediciliği çok güçlü bir silah sunuyor.

Deepfakes; ai savaşlarında kirli bir silah

Deepfakes, aslında savaş etiğine hiç uymayan kirli bir silah olarak, beklenmedik biçimlerde kullanılabilir. Düşman, sahadaki birliklere yanlış veya çelişkili emirler vermek için, üst düzey komutanların deepfake’ini üretebilir. Bunun için, medyadan veya istihbarat yoluyla elde edilen gerçek bir komutanın video veya ses kayıtlarını kullanabilir. Ya da gerçek dışı uydu istihbarat görüntüleri oluşturmak için, üretken çekişmeli ağlar yoluyla hipergerçekçi sentetik medya kurgulayabilir. Video telekonferans, telefon, e-posta veya telsiz yoluyla iletilen bu sahte komutlar ve istihbarat raporları, birliklerin düşmana yardımcı olacak şekilde, yanlış konuşlandırılmasına neden olabilir. 

İttifak askeri kuvvetleri, deepfakes yoluyla dezenformasyona karşı daha da savunmasız kalabilir. Çünkü çokuluslu komuta ve kontrol süreçlerinde koordinasyonu sağlamak daha zordur. Ulusal güvenlik operasyonlarının zaman baskısı, stres faktörleri ve karmaşıklığı, deneyimi yeterli olmayan düşük rütbelilerin, deepfake komutları hiç sorgulamadan yerine getirme olasılığını artırır. 

Deepfakes üretiminin kalitesi arttıkça ve tahrif edilmiş içeriğin gerçekliğini deşifre etmek zorlaştıkça, tüm devletler için ulusal güvenlik problemleri büyüyecek. Sadece çevrimiçi siber güvenliğimiz değil, hayatımız ve özgürlüğümüz de tehlikeye girecek… 

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d blogcu bunu beğendi: