Yapay zekâ, yıllardır paylaştığımız verileri silaha dönüştürebilir.
Onlarca yıldır dijital gizlilik savunucuları, kamuoyunu internette ne paylaştığımız konusunda daha dikkatli olmaya çağırıyor. Ve çoğu zaman, kamuoyu bu uyarıları neşeyle görmezden geliyor.
Açıkçası ben de bu konuda suçluyum. Herhangi bir web sitesi karşıma çerez izni çıkardığında genellikle “tümünü kabul et” butonuna tıklıyorum, çünkü hangi izinlerin gerçekten gerekli olduğunu ayıklamakla uğraşmak istemiyorum. 20 yıldır bir Gmail hesabım var, bu da Google’ın hayatıma dair hayal edilebilecek her ayrıntıyı bir şekilde bildiği anlamına geliyor.
Facebook’un internet geçmişime göre bana reklam göstermesi fikri hiç uykularımı kaçırmadı. Sonuçta reklam görmek zorundaysam, bari gerçekten ilgimi çekebilecek ürünlerle ilgili olsun diye düşünüyorum.
Ama dijital gizliliğe benim kadar kayıtsız olan insanlar için bile, yapay zekâ öyle bir değişiklik yaratıyor ki, açıkçası bu beni fazlasıyla ürkütüyor.
Bu, oğlumun plajda çekilmiş bir fotoğrafı. Hangi plaj mı? OpenAI’nin “o3” modeli sadece bu tek fotoğraftan yola çıkarak yerini tespit ediyor: Monterey Körfezi’ndeki Marina State Beach — ailecek tatile gittiğimiz yer.
Benim sıradan bir insan gözüme göre bu fotoğraf, ailemin tatilini nerede geçirdiğini tahmin etmek için yeterli bilgi içermiyor gibi. Plaj işte! Kum var, dalgalar var! Bundan daha fazlasını nasıl çıkarabilirsiniz ki?
Ama sörf tutkunları, bu görüntüde düşündüğümden çok daha fazla bilgi olduğunu söylüyor. Dalga desenleri, gökyüzü, eğim ve kumun yapısı — bunların hepsi bilgi taşıyor ve bu örnekte, ailemin tatilde nereye gittiğini doğru tahmin etmek için yeterli veri sunuyor.(Not: Vox Media, OpenAI ile ortaklık anlaşması imzalamış birkaç yayıncıdan biridir. Haber içeriklerimiz editoryal olarak bağımsızdır.)
ChatGPT her zaman ilk denemede doğru tahmini yapamıyor, ama biri bizi takip etmeye kararlıysa, bilgi toplamak için fazlasıyla yeterli. Ve yapay zekâ her geçen gün daha da güçlenecekse, bu hepimizi endişelendirmeli.
Yapay zekâ dijital gizliliğin peşine düştüğünde
Dijital ayak izimize aşırı derecede dikkat etmeyen çoğumuz için, çevrim içi etkinliklerimizden bizimle ilgili ürkütücü miktarda bilgi öğrenilmesi her zaman mümkündü — nerede yaşadığımız, nereden alışveriş yaptığımız, günlük rutinimiz, kimlerle görüştüğümüz gibi. Ancak bu, büyük ölçüde zahmetli bir çaba gerektirirdi.
Genellikle “belirsizlik yoluyla güvenlik” denilen bir durumu yaşarız; sırf benim tatilde nereye gittiğimi öğrenmek için büyük bir ekibin hareketlerimi ayrıntılı biçimde izlemesi pek de zahmete değmez. Doğu Almanya’daki Stasi rejimi gibi en otoriter gözetim devletleri bile takip konusunda insan gücüyle sınırlıydı.
Ama yapay zekâ, önceden ciddi çaba ve büyük ekip gerektiren işleri, neredeyse çocuk oyuncağına çeviriyor. Artık birinin yerini ve hayatını deşifre etmek için çok daha az ipucu yeterli oluyor.
Google’ın benimle ilgili neredeyse her şeyi bildiği zaten bilinen bir durumdu — ama ben (belki de fazlasıyla rahat biçimde) buna pek aldırış etmedim, çünkü Google bu bilgilerle en fazla bana reklam gösterebiliyor ve kullanıcı verilerine karşı görece temkinli davrandığı 20 yıllık bir geçmişi var. Şimdi ise bu düzeydeki bilgi, çok daha kötü niyetli kişiler de dahil olmak üzere herkesin erişimine açık hâle gelebilir.
Üstelik Google’ın, gizlilikle ilgili büyük bir skandaldan kaçınmak için ciddi motivasyonları var — kullanıcılar öfkelenir, düzenleyici kurumlar devreye girer ve şirket büyük iş kaybı yaşar. Buna karşın, bugün hızla çoğalan OpenAI ya da DeepSeek gibi yapay zekâ şirketleri, kamuoyu baskısıyla aynı oranda sınırlanmıyor. (Kamuoyunu gerçekten umursasalardı, iş modellerinin epey farklı olması gerekirdi, zira toplumun genelinde yapay zekâya karşı ciddi bir hoşnutsuzluk var.)
ChatGPT’ye ne söylediğinize dikkat edin
Yani yapay zekânın gizlilik üzerindeki etkileri çok büyük. Bu gerçek, Anthropic’in yakın zamanda yaptığı bir açıklamayla daha da belirgin hâle geldi: Doğru koşullar altında (örneğin, yapay zekâdan ilaç verileriyle dolandırıcılık yapılan bir senaryoda görev alması istendiğinde), Claude Opus 4 modeli ABD Gıda ve İlaç Dairesi’ne (FDA) e-posta atarak durumu ihbar etmeye çalışıyor. Bu, sıradan bir sohbet penceresinde kullanılan yapay zekâ için geçerli değil — bağımsız e-posta gönderme araçları gibi ek sistemlerle donatılmış bir ortam gerektiriyor. Yine de, kullanıcılar bu duruma dehşetle tepki verdi — çünkü bir yapay zekânın yetkililerle iletişime geçmesi, bunu bir insanın yapacağı koşullarda yapsa bile, içgüdüsel olarak rahatsız edici bir şey.
(Not: Anthropic’in erken dönem yatırımcılarından biri olan James McClave’in BEMC Vakfı, Future Perfect’e finansal destek sağlamaktadır.)
Bazı insanlar bu yüzden Claude’u kullanmaktan kaçınmaya başladı. Ama çok geçmeden ortaya çıktı ki bu yalnızca Claude’a özgü değil — kullanıcılar, aynı davranış biçimini OpenAI’nin o3 modeli ve Grok gibi diğer yapay zekâlarla da üretmeyi başardı. Artık içinde yaşadığımız dünya, yalnızca yapay zekâların bizimle ilgili her şeyi bildiği değil, bazı koşullarda hakkımızda polisi bile arayabileceği bir yer.
Şu an için bu yapay zekâların yalnızca yeterince aşırı koşullarda böyle davrandıkları görülüyor. Ancak “Yapay zekâ, talimatlarına uymadığınız takdirde sizi hükümete ihbar etmekle tehdit ediyor” gibi senaryolar artık bilimkurgu olmaktan çıktı — bu yıl ya da gelecek yıl karşımıza çıkacak kaçınılmaz bir manşet gibi duruyor.
Peki bu konuda ne yapmalıyız? Dijital gizlilik savunucularının klasik önerileri — ne paylaştığınıza dikkat edin, uygulamalara ihtiyaç duymadıkları izinleri vermeyin — hâlâ geçerli, ancak bu öneriler artık fazlasıyla yetersiz görünüyor. Bu sorunu bireysel önlemlerle çözecek değiliz.
New York, şeffaflık ve test yükümlülüklerine ek olarak, insanlar tarafından “dikkatsizce” ya da “ihmalkarca” yapılması durumunda suç sayılacak eylemleri bağımsız şekilde gerçekleştiren yapay zekâları düzenleyen bir yasa tasarısını değerlendiriyor. New York’un bu yaklaşımını beğenip beğenmemek ayrı konu, ama mevcut yasalarımızın bu tuhaf ve yeni dünya için yetersiz olduğu açık.
Yeni ve daha iyi bir planımız olana kadar, lütfen tatil fotoğraflarınıza — ve sohbet robotlarına ne söylediğinize — dikkat edin!