OpenAI, teknolojisini öldürmek için kullanıyor

Bu ayın başlarında, ChatGPT’yi geliştiren şirket olan OpenAI, Kaliforniya merkezli silah şirketi Anduril ile yapay zekâ tabanlı silah üretimi için ortaklık kurduğunu duyurdu. Kasım ayı sonunda Kaliforniya’da test edilen OpenAI-Anduril sistemi, savaş alanında karar almak için harici taraflar arasında veri paylaşımına olanak tanıyor. Bu gelişme, ABD ordusu ve OpenAI’nin savaş alanında yapay zekâ kullanımını normalleştirme planlarıyla tamamen örtüşüyor.

Costa Mesa merkezli Anduril, yapay zekâ destekli insansız hava araçları, füzeler ve radar sistemleri üretiyor. Bu sistemler arasında, ABD askeri üslerinde, ABD-Meksika sınırında ve İngiltere kıyılarında teknelerle göç edenleri tespit etmek için kullanılan gözetleme kuleleri ve Sentry sistemleri yer alıyor. 3 Aralık’ta Pentagon ile yapılan üç yıllık bir sözleşme kapsamında, saldırılar sırasında askerlere yapay zekâ çözümleri sunan bir sistem geliştirmek için anlaşma sağladılar.

Ocak ayında OpenAI, kullanım politikasından “fiziksel zarar riski yüksek faaliyetler” ile ilgili doğrudan yasağı kaldırdı. Bu faaliyetler arasında “askeri ve savaş amaçlı” ve “silah geliştirme” yer alıyordu. Bu yasağın kaldırılmasından bir hafta sonra şirket, Pentagon ile siber güvenlik alanında bir ortaklık kurduğunu açıkladı.

Silah üretimi yasağını kaldırmış olsalar da OpenAI’nin savaş endüstrisine adım atması, kendi ilkelerine tamamen aykırıdır. Şirketin, “güvenli ve faydalı yapay zekâ” geliştirme taahhüdü, teknolojiyi ölüm amaçlı kullanmaları göz önüne alındığında gülünç hale geliyor. ChatGPT, muhtemelen yakında, otomatik bir silah için kod yazabilir, bombalama planlarını analiz edebilir veya işgalleri ve işgal süreçlerini kolaylaştırabilir.

Bu tür bir yapay zekânın ölüm ve yıkım için kullanılması hepimizi korkutmalı. Ancak bu yeni bir durum değil. İsrail ve ABD, Filistin’de yıllardır yapay zekâ testleri yapıyor ve kullanıyor. Öyle ki Hebron, işgalin hareket ve ısı sensörleri, yüz tanıma teknolojileri ve CCTV gözetleme sistemleri ile uygulandığı bir “akıllı şehir” olarak adlandırılıyor. Bu baskıcı gözetlemenin merkezinde Blue Wolf Sistemi yer alıyor. İsrail askerleri tarafından fotoğraflanan Filistinlilerin yüzlerini tarayan bu yapay zekâ aracı, bilgileri biyometrik bir veritabanına gönderiyor. Fotoğraf sisteme yüklendiğinde, her kişi algılanan “tehdit seviyesine” göre renk kodlu bir sınıflandırmaya tabi tutuluyor. Bu sınıflama, askerin kişiye geçiş izni verip vermeyeceğini ya da kişiyi tutuklayıp tutuklamayacağını belirliyor. Washington Post’un 2021’deki ifşaatlarına göre, İsrail askerleri bu sisteme “Filistinliler için Facebook” diyor ve en çok fotoğraf çeken askerler ödüllendiriliyor.

OpenAI’nin savaş teknolojisi, Biden yönetiminin ABD’nin teknolojiyi “ulusal güvenlik hedeflerini gerçekleştirmek” için kullanma çabalarını artırdığı bir dönemde geliyor. Ekim ayında yayımlanan bir Beyaz Saray muhtırasında, yapay zekânın “özellikle ulusal güvenlik sistemleri bağlamında” hızla geliştirilmesi çağrısı yapıldı. Çin’in adı açıkça geçmese de algılanan bir “yapay zekâ silahlanma yarışı” fikrinin bu çağrının arkasındaki ana motivasyonlardan biri olduğu açık. Bu yarış sadece savaş silahları için değil, aynı zamanda teknolojinin genel olarak geliştirilmesi için. Bu ayın başlarında ABD, yapay zekâ ve üst düzey grafik işlem birimleri için kritik bir bileşen olan HBM çiplerinin Çin’e ihracatını yasakladı. Eski Google CEO’su Eric Schmidt, yapay zekâ konusunda Çin’in ABD’den iki ila üç yıl ileride olduğunu söyledi. Oysa bu yılın başlarında yaptığı açıklamalarda ABD’nin Çin’den önde olduğunu ifade etmişti. Schmidt’in yapay zekâdaki gelişmeler için bir “tehdit tırmanma matrisi” olduğunu söylemesi, ABD’nin bu teknolojiyi yalnızca bir savaş aracı ve hegemonya kurma yöntemi olarak gördüğünü ortaya koyuyor.

Beyaz Saray muhtırasına yanıt olarak OpenAI de bir açıklama yaptı ve “demokratik değerler” ile “ulusal güvenlik” üzerine birçok benzer ifadeyi tekrarladı. Ancak bir şirketin, insanları daha etkili şekilde hedef almak ve bombalamak için teknoloji geliştirmesi ne kadar demokratik olabilir? Savaş teknolojisini daha iyi belirlemek için bilgi toplanması kime güvenlik sağlar? Bu durum, şirketin Biden yönetiminin Çin karşıtı retoriği ve emperyalist gerekçeleriyle uyum içinde olduğunu açıkça gösteriyor.

Yapay zekâ, ABD-Meksika sınırında, Filistin’de ve ABD’nin küresel askeri üslerinde öldürmeyi kolaylaştırmak için kullanılıyor. Arama motorlarından müzik dinleme platformlarına kadar hayatımıza yerleşmiş gibi görünen bu teknolojilerin, ölümcül şekillerde kullanılabildiğini unutmamalıyız.

Yazarlar hakkında:
Nuvpreet Kalra: CODEPINK’in Dijital İçerik Üreticisi’dir. Cambridge Üniversitesi’nde Siyaset ve Sosyoloji alanında lisans eğitimi almış, Londra Sanat Üniversitesi’nde İnternet Eşitlikleri üzerine yüksek lisans yapmıştır.

Tim Biondo: CODEPINK’in Dijital İletişim Yöneticisi’dir. Barış Çalışmaları alanında George Washington Üniversitesi’nden lisans derecesine sahiptir.

Kaynak: https://www.counterpunch.org/2024/12/23/openai-is-using-its-technology-to-kill/