Otomatik ve otonom sistemlerin beklendiği gibi çalışacağından emin olmanın tek yolu budur.
Pentagon’un inşa etmek için yarıştığı yapay zekâ destekli silahlar ve sistemler, önemli bir zayıflıkla birlikte geliyor: Gerçek savaş koşullarında nasıl davranacaklarını belirleyemememiz.
Savunma Bakanlığı, Ulusal Güvenlik Ajansı ve Savunma İleri Araştırma Projeleri Ajansı, bu durumu “yazılım anlama boşluğu” olarak adlandırıyor.
Kullanıcılar, sistemlerinin dijital yapı taşlarını giderek daha az anlıyor ve bu durum, sistemlerinin eylemlerini öngörememe, doğrulayamama ve güvence altına alamama sorunlarına yol açıyor.
En karmaşık yazılımlarımıza dair daha derin bir anlayış olmadan, Amerika Birleşik Devletleri’nin dünya çapındaki cephaneliği modern savaş alanlarında güvenilir olmayacak ve düşmanlar bu açıkları kullanma konusunda cesaretlenebilir.
Peki bu otonom sistemlerin gerektiği gibi çalışmasını nasıl sağlayabiliriz?
Geleneksel askeri donanımlar açık ve belirli sınırlar içinde çalışacak şekilde tasarlanırken, yapay zekâ destekli sistemler öğrenen ve uyum sağlayan otomatik karar mekanizmaları kullanır; bu da onları insan öngörüsünü aşan hata ya da manipülasyonlara açık hale getirir.
Jet motoru ya da radar sistemi gibi sonlu arıza modlarına sahip deterministik sistemler için yeterli olan geleneksel test yöntemleri, yapay zekânın karmaşıklığı karşısında son derece yetersiz kalır.
Öğrenme ve uyum sağlama hızı herhangi bir insanın takip edebileceğinden fazla olan bir sistemi — hele ki kör noktalarını hedef almaya kararlı bir düşmana karşı — hiçbir simülasyon ya da kırmızı takım testi güvence altına alamaz.
Testten daha sağlam ve daha sofistike bir şeye ihtiyacımız var. Matematiksel kanıta ihtiyacımız var.
Test yapmak, bir zincirin her halkasını tek tek kontrol ederek sağlam olduklarından emin olmaya benzer. Bu yöntem birkaç yüz halka için işe yarayabilir, ancak halka sayısı arttıkça bir zayıflığı gözden kaçırma ihtimali de artar.
Matematiksel kanıt ise farklı bir yaklaşım sunar. Halkaları tek tek kontrol etmek yerine, kanıt zincirin — ne kadar uzun olursa olsun — tamamen kırılmaz olduğunu gösterir.
Bir kanıt, temel kuralları tanımlayarak başlar: zincirin neyden yapıldığı, ne kadar kuvvete dayanması gerektiği ve halkaların nasıl birbirine bağlandığı.
Bu varsayımlar belirlendikten sonra, kanıt ilk halkanın sağlam olduğunu doğrular ve ardından mantıklı bir silsile izleyerek, birbirine bağlı tüm halkaların da sağlam olması gerektiğini gösterir.
Zincir on halkadan oluşsa da, sonsuz sayıda halkası olsa da, kanıt herhangi bir zayıf nokta olmadığını garanti eder.
İşte bu nedenle, yapay zekâ destekli askeri sistemler için kanıt vazgeçilmezdir.
Testler, bir sistemin test ortamında oluşturulan koşullar altında çalışıp çalışmadığını gösterebilir.
Ancak testler, her savaş alanını, her siber saldırıyı ya da her türlü olası manipülasyonu kapsayamaz.
Kanıt ise sistem ne tür koşullarla karşılaşırsa karşılaşsın — henüz hayal bile edilmemiş olanlar dahil — amacına uygun şekilde davranacağını garanti eder.
Bu da haklı bir güven duygusu oluşturur.
Yazılım sistemlerine tam güven duyulması teorik bir mesele değildir — bu, kanıtlanmıştır.
DARPA, Yüksek Güvenceli Siber Askeri Sistemler programında bunu gösterdi; araştırmacılar, bir quadcopter’ın uçuş yazılımını matematiksel kanıtlarla kırılmaz hale getirdi.
Bu garantiler uygulandıktan sonra DARPA, sistemi hacklemek için uzman ekipleri devreye soktu — ancak onların en iyi çabaları bile sistemin savunmasını aşmayı başaramadı.
Mesaj açıktı: Matematiksel olarak doğrulanmış yazılımlar yalnızca saldırılara direnmekle kalmaz, aynı zamanda tüm bir zafiyet kategorisini ortadan kaldırır.
Özel sektör de aynı sonuca ulaştı.
Amazon Web Services, bulut altyapısında yalnızca güvenliği artırmak için değil; daha hızlı dağıtım, daha az hata ve daha güvenilir performans sağlayarak daha iyi sistemler inşa etmek için de matematiksel akıl yürütmeyi kullanıyor.
Buradan çıkarılacak ders basittir: Kanıtlar yalnızca başarısızlığı önlemekle kalmaz, aynı zamanda yeniliği de teşvik eder.
Şimdi bu kesinlik düzeyini, modern savaşı şekillendiren yapay zekâ destekli sistemlere taşımalıyız.
Meseleyi ciddiyetle ele alalım: Tayvan Boğazı’ndaki otonom bir hava savunma sistemi yaklaşan bir füzeyi tespit ediyor.
Sistemin tehdidi sınıflandırmak ve etkisiz hâle getirmek için yalnızca birkaç saniyesi var.
Eğer Çin, henüz keşfedilmemiş bir kusuru istismar ederek sensör verilerini gizlice bozabilirse, Tayvan savunmasının en kritik bileşenlerinden birini hızla etkisiz hâle getirebilir.
Aynı durum, yapay zekâ destekli siber ve elektronik savaş için de geçerlidir.
Eğer düşmanlar, algoritmalarımızın ayırt edemeyeceği biçimlerde savaş alanı sinyallerini manipüle edebilirse, tüm operasyonlar riske girebilir.
Bu senaryolar sert bir gerçeği ortaya koyuyor: Matematiksel garantiler olmadan, ulusal savunmamızı öngörülemez ve felaketle sonuçlanabilecek sistemlere emanet ediyoruz.
Çin, otonom savaşta öncülüğü elinde tutuyor. Halk Kurtuluş Ordusu, “akıllı savaş” olarak adlandırılan modernizasyon stratejisinin merkezine yapay zekâ destekli askeri sistemleri yerleştirdi ve otonom silahlar, siber araçlar ile elektronik saldırı yeteneklerini büyük bir hızla geliştiriyor.
Amerika Birleşik Devletleri de benzer bir hızla ilerliyor, ancak hız tek başına yeterli değil.
Çin’in, hükümetin her bir kod satırını denetleyebildiği kapalı ekosistemi, kendi yeteneklerine olan güvenini artırıyor.
Açık ve parçalı bir teknoloji tedarik zincirine sahip olan ABD ise çok daha karmaşık bir sorunla karşı karşıya.
Ve bu sorun, daha sofistike araçlarla karşılanmak zorunda.
Modern çatışmalar, yalnızca en yetenekli yapay zekâ destekli sistemleri inşa edenler tarafından kazanılmayacak.
Bu sistemlerin, en kritik anlarda tartışmasız biçimde işe yaradığını kanıtlayabilenler kazanacak.
Amerika Birleşik Devletleri ve müttefikleri, matematiksel titizlikten yoksun otonom sistemleri sahaya sürme riskini göze alamaz.
Bu sadece bir test meselesi değil; bu, bir ulusal güvenlik zorunluluğudur.
Savunma topluluğu, inşa ettiğimiz her sistemin temelinde matematiksel kanıtların yer almasını sağlamak için derhal harekete geçmelidir.
Bundan daha azı, göze alamayacağımız bir kumardır.
* Bu makale, medya ortağı Defense One olan 2025 Küresel Güvenlik Forumu ile koordinasyon içinde yayımlanmıştır.
**Anjana Rajan, 2022’den 2025’e kadar Beyaz Saray’da Teknoloji Güvenliği Ulusal Siber Direktör Yardımcısı olarak görev yaptı.
Jonathan Ring ise aynı dönemde Beyaz Saray’da Teknoloji Güvenliği Ulusal Siber Direktör Yardımcısı Vekili olarak görev yaptı.