Yapay Zekâ Varoluşsal Bir Risk Oluşturuyor mu? 5 Uzmana Sorduk
Günümüzde her yerde karşımıza çıkan Yapay Zeka (YZ) ürünleri, özellikle büyük dil modellerine (LLM) dayanan üretken YZ sistemleri – ChatGPT, Copilot, Gemini ve daha niceleri – hakkında birçok iddiayla karşılaşıyoruz.
YZ dünyayı değiştirecek. YZ “şaşırtıcı zaferler” getirecek. YZ gereğinden fazla abartılıyor ve balon patlamak üzere. YZ yakında insan yeteneklerini aşacak ve bu “süper zeki” YZ hepimizi öldürecek.
Eğer bu son ifade sizi irkiltti ve dikkat kesilmenize neden olduysa, yalnız değilsiniz. “YZ’nin babası” olarak anılan bilgisayar bilimcisi ve Nobel ödüllü Geoffrey Hinton, yapay zekanın önümüzdeki otuz yıl içinde insan soyunun yok olmasına yol açma olasılığının %10–20 olduğunu söyledi. Rahatsız edici bir düşünce – ancak bunun gerçekten olup olmayacağı ya da nasıl olacağı konusunda bir fikir birliği yok.
Bu yüzden beş uzmana şu soruyu sorduk: Yapay Zeka Varoluşsal Bir Risk Oluşturuyor Mu?
Beş uzmandan üçü “hayır” dedi. İşte ayrıntılı yanıtları.
Aaron J. Snoswell: Asıl Risk, Yapay Zekanın Çok Akıllı Hale Gelmesi Değil
Hayır.
Teknolojinin mevcut durumuna bakıldığında, asıl risk yapay zekanın çok akıllı hale gelmesi değil – bu araçları nasıl inşa edip kullandığımız konusunda insanların kötü tercihler yapmasıdır.
Mevcut YZ sistemleri etkileyici olsa da, temelde hâlâ “stokastik papağanlar”dır. Tahmin yoluyla zekâyı simüle eden sofistike bir desen eşleştirme süreci yürütürler. Ve giderek artan kanıtlar, bu temelin şaşırtıcı derecede kırılgan, güvenilmez ve akılcı düşünceyle – zekâdan bahsetmeye gerek bile yok – uyumsuz olduğunu göstermektedir.
Üretken YZ alanındaki mevcut teknolojik ilerlemeler etkileyici, hatta dönüştürücü niteliktedir. Ancak bu kazanımlar kademeli ve sürdürülemezdir; bu alandaki YZ geliştirme yaklaşımı ise doğası gereği sınırlıdır.
Gelecekteki teknoloji paradigmaları bu değerlendirmeyi değiştirebilir – ki bu tür ilerlemeleri öngörmek bilindiği üzere son derece zordur – ancak tüm YZ riskleri nihayetinde insan tercihlerinden kaynaklanır. Gelişen toplumlara giden yol, daha iyi insan liderler, kurumlar ve yönetişimden geçer.
İnsanlığı yok edebilecek varsayımsal bir süper zekâ hakkında spekülasyon yapmak yerine, denetim çerçevelerine ve sorumlu geliştirmeye odaklanmalıyız. Varoluşsal riskler kodun içinde gizli değildir. Varsa, bizim kararlarımızdadır.
Niusha Shafiabady: Önde Gelen Yapay Zeka Modelleri Hızla Genel Amaçlı Yetenekler Kazanıyor
Evet.
Yapay zekanın varoluşsal bir tehdit oluşturduğuna güçlü bir şekilde inanıyorum. Bugüne kadar mevcut sistemler yalnızca zayıf ya da dar YZ olarak bilinen, belirli görevler için sınırlı kapasitelere sahip sistemlerdi; insan düzeyinde zekâya sahip olan genel YZ değillerdi. Ancak, önde gelen modeller hızla genel amaçlı yetenekler kazanmaktadır ve bu durum, kötüye kullanımın büyük ölçekte gerçekleşme olasılığını artırmaktadır. YZ ne kadar yetenekli hale gelirse, insanlar üzerindeki kontrolü de o kadar zayıflar.
Yüzlerce önde gelen uzman, kamuoyunda tanınan kişi ve araştırmacı, “YZ’den kaynaklanan yok olma riskinin azaltılmasının” küresel bir öncelik olması gerektiği konusunda uyarıda bulunmuştur. Makine öğrenimi araştırmacılarına yönelik yapılan anketler, bu yüzyılda yok olma düzeyinde sonuçların ortaya çıkma olasılığını ortalama %5 olarak göstermektedir. Bu küçük bir yüzde gibi görünse de, göz ardı edilebilecek bir oran değildir.
2023 yılında Bletchley Deklarasyonu’nu imzalayan hükümetler, “felaket” risklerini kabul etmiştir. YZ araştırma laboratuvarları hâlihazırda, yapay zekanın büyük ölçekli biyolojik ve siber saldırılar için kötüye kullanımı gibi somut tehlike kategorilerini izlemektedir.
YZ kaynaklı bir varoluşsal felaket kaçınılmaz değildir, ancak sağduyu, yapay zekanın aşamayacağı şekilde uygulanabilir “kırmızı çizgiler” belirlenmesini, yeteneklerin ölçeği büyüdükçe sıkı ön dağıtım testleri ve bağımsız değerlendirmeler yapılmasını gerektirir. Çok geç olmadan şimdi harekete geçmeliyiz.
Sarah Vivienne Bentley: Yapay Zeka, Onu Kullanan İnsanlar Kadar İyidir
Hayır.
Artık hepimizin aşina olduğu üretken YZ sohbet robotlarının ötesinde, yapay zekanın daha geniş geleceği hâlâ bilinmezliğini koruyor. Nükleer enerji ya da matbaa gibi diğer devrim niteliğindeki teknolojilere benzer şekilde, YZ hayatımızı değiştirecek. Aslında çoktan değiştirdi bile. Günümüz iş piyasası tanınmaz hâle geldi, öğretim uygulamaları alışılmadıklaştı ve ister sağlık hizmetlerinde ister orduda olsun, karar verme süreci artık çoğunlukla makinelerle paylaşılıyor. Bu açıdan bakıldığında, belki de YZ bir varoluşsal tehdit oluşturuyor.
Ama sorun da burada yatıyor. YZ’den sanki uzaydan hayatımıza girmiş gibi söz ediyoruz; bu sistemlerin özerk şekilde hareket edebilmesi bu anlatıyı besliyor. Oysa YZ uzayda yaratılmadı. YZ sistemlerindeki kodları insanlar yazıyor, geliştirmeleri insanlar tarafından finanse ediliyor ve düzenlemeleri insanlar tarafından yönetiliyor. Dolayısıyla bir tehdit varsa, bu tehdit makineden değil, insandan kaynaklanıyor gibi görünüyor.
YZ, insan ırkına kuşkusuz büyük katkı sağlayabilecek olağanüstü bir araçtır. Ancak diğer tüm araçlar gibi, onu kullanan insanlar kadar iyidir. YZ devrimiyle karşı karşıya olduğumuz şu dönemde, eleştirel düşüncenin artması ve öğrenilmiş çaresizliğin azalması artık yerinde olacaktır.
Seyedali Mirjalili: En Açık Varoluşsal Yol Militarizasyondur
Evet.
YZ’nın kendi başına özerk şekilde kontrolü ele geçirip medeniyeti yok etmesinden ziyade, insanların YZ’yı medeniyeti yok etmek için kullanmasından daha çok endişe ediyorum. En açık varoluşsal yol, askerileşme ve yaygın gözetimdir. Eğer yenilik ile düzenleme arasında denge kuramazsak ve sistemleri kötü niyetli kişilerin elinden uzak tutacak yeterli, küresel ölçekte uygulanabilir güvenlik önlemleri inşa etmezsek, bu risk giderek büyür.
YZ’nın gelecekteki silahlara entegre edilmesi, insan kontrolünü azaltacak ve bir silahlanma yarışına yol açacaktır. Yanlış yönetilirse, YZ’nın ulusal güvenlikle ilişkilendirilmesi, YZ kaynaklı bir dünya savaşı riskini dahi beraberinde getirebilir.
YZ’nın oluşturduğu varoluşsal riski en aza indirmenin yollarından biri, YZ sistemlerini risk düzeyine göre sınıflandırmak ve savunma alanında nasıl kullanılabileceklerine sınırlar koymaktır; yüksek riskli durumlarda zorunlu insan denetimi şart koşulmalıdır.
Yönetişimin yanı sıra, YZ sistemlerinin dünyaya dair gerçekleri önyargısız biçimde, çarpıtmadan ve herhangi bir gündeme hizmet etmeden doğru bir şekilde temsil ettiğinden emin olmalıyız – ancak bu tek başına yeterli değildir. Güvenlik ayrıca, YZ’nın hedeflerinin insan değerleriyle uyumlu hâle getirilmesine, bu sistemler üzerindeki insan kontrolünün korunmasına ve her adımda titizlikle test edilmesine de bağlıdır. Bu şekilde, YZ sistemleriyle barış içinde bir arada yaşayabiliriz.
Simon Coghlan: Üretken Yapay Zekanın “Zekâsı” Ciddi Ölçüde Sınırlıdır
Hayır.
Yakın zamanda küresel yıkıma yol açabilecek süper zeki bir YZ’nin ortaya çıkacağına dair çok az kanıt vardır.
İnsanlık için varoluşsal risklere yönelik güncel endişeler – ve beraberindeki abartı – esasen üretken YZ alanındaki ilerlemelerden, özellikle de ChatGPT, Claude, Gemini gibi büyük dil modellerinden kaynaklanmaktadır. Bu tür YZ, kullanıcının yazdığı komuta göre, belirli bir ihtiyacı karşılayacak metinler hakkında kalıplara dayalı tahminlerde bulunur.
Pek çok uzman, bu tür YZ’nin “zekâsının” kendi çapında etkileyici olmakla birlikte, ciddi ölçüde sınırlı olduğuna inanmaktadır. Örneğin büyük dil modelleri, mantıksal, olgusal ve kavramsal anlama konusunda güvenilir bir kapasiteye sahip değildir. Bu temel yönlerden bakıldığında YZ, insanlar gibi anlayamaz ve dolayısıyla insanlar gibi hareket edemez.
Gelecekte bu sınırlamaların aşılmasını sağlayacak bir teknolojik atılım ihtimali göz ardı edilemez. Ancak bu, kesinmiş gibi de varsayılmamalıdır. Süper zeki YZ’ye dair spekülatif tehditlerin fazla vurgulanması, bugün karşı karşıya olduğumuz YZ kaynaklı gerçek zararlardan – önyargılı otomatik kararlar, iş kaybı, telif hakkı ihlalleri gibi – dikkatimizi dağıtabilir. Aynı zamanda, enerji tüketimi yüksek YZ sistemlerinin kendilerinin de katkıda bulunabileceği iklim değişikliği gibi gerçek varoluşsal tehlikelerden de uzaklaşmamıza yol açabilir.
- Aaron J. Snoswell – Yapay Zeka Sorumluluğu Kıdemli Araştırma Görevlisi, Queensland Teknoloji Üniversitesi
• Niusha Shafiabady – Hesaplamalı Zeka Doçenti, Avustralya Katolik Üniversitesi
• Sarah Vivienne Bentley – Sorumlu İnovasyon Araştırma Bilimcisi, Data61, CSIRO
• Seyedali Mirjalili – Yapay Zeka Profesörü, Torrens Üniversitesi Avustralya
• Simon Coghlan – Dijital Etik Kıdemli Öğretim Üyesi; Yapay Zeka ve Dijital Etik Merkezi Müdür Yardımcısı, Melbourne Üniversitesi
Kaynak: https://theconversation.com/does-ai-pose-an-existential-risk-we-asked-5-experts-266345