Yapay Zekâ ve Eğitim: Çocuklar Tehlikede

Büyük teknoloji şirketleri, üretken yapay zekâ (AI) sistemleri için yeni pazarlar arayışını sürdürürken, bu sistemleri devlet okullarına, kolejlere ve üniversitelere sokmak için yoğun bir çaba içindeler. Bu ilgi, kısa vadeli kârların ötesine geçiyor – aynı zamanda büyük teknolojinin şekillendirmek ve egemenlik kurmak istediği dünyayı kabullenmeye, hatta benimsemeye hazır yeni bir nesil yetiştirme meselesi. Bu çabayı açığa çıkarmalı ve direnmeliyiz – onların başarıya ulaşması, gençliğimiz için bir felaket ve adil, sürdürülebilir ve demokratik bir toplum inşa etme mücadelesi için büyük bir gerileme olacaktır.

Sohbet robotları okula gidiyor. Bloomberg News şöyle aktarıyor:

“OpenAI, Google ve Microsoft Corp., sırasıyla ChatGPT, Gemini ve Copilot adını verdikleri ana AI ürünlerinin eğitim odaklı versiyonlarını geliştirdi. Bu şirketler ve iyi finanse edilmiş birkaç girişim, AI ürünlerini eğitim ortamlarına yerleştirmek için güçlü bir kampanya yürüttüler.”

Büyük Teknoloji Eğitime Yöneliyor

Örneğin, 2023 yılında, kar amacı gütmeyen Code.org, üç büyük teknoloji şirketinin desteğiyle, yapay zekânın “dünya genelinde birincil ve ikincil müfredatlarda güvenli ve etik bir şekilde” kullanılmasını teşvik etmek amacıyla TeachAI adlı girişimi kurdu. 2024 yılında, Google, kamu okullarındaki öğretmen ve öğrencilere AI eğitimi sunan ABD’li kuruluşlara on milyonlarca dolar bağışta bulundu. Ve 2025 yılında, aralarında Microsoft, Google, OpenAI, MagicSchool ve Alpha’nın da bulunduğu 60’tan fazla şirket ve kuruluş, Beyaz Saray’ın “Amerika’nın Gençlerine Taahhüdü: Yapay Zekâ Eğitimine Yatırım” metnini imzalayarak, “ülke çapındaki K–12 öğrencilerine AI eğitimini erişilebilir hâle getirmeyi, teknolojiye olan merakı uyandırmayı ve yeni kuşağı yapay zekâ destekli bir ekonomiye hazırlamayı” taahhüt etti.

Ve bu çabalar sonuç vermeye başladı. Hâlihazırda ABD’deki en büyük okul bölgelerinin çoğu, üretken yapay zekâ modellerinin sınıfta kullanımına en azından izin veriyor, hatta bazıları bunu teşvik ediyor. Yapay zekânın okullarda güvenli ve baskın bir yer edinebilmesinin belli ölçüde öğretmen desteği gerektirdiğinin farkında olan büyük teknoloji şirketleri, iki büyük öğretmen sendikası olan AFT (Amerikan Öğretmenler Federasyonu) ve NEA (Ulusal Eğitim Birliği) ile çeşitli girişimler başlattı. Bloomberg News’in aktardığına göre:

“Temmuz [2025] ayında, Microsoft; OpenAI ve Anthropic PBC ile birlikte, Amerikan Öğretmenler Federasyonu (AFT) ile 23 milyon dolarlık bir ortaklık kurduğunu duyurdu. Bu ortaklıkla, beş yıl içinde ABD’deki öğretmenlerin yaklaşık onda birini oluşturan 400.000 öğretmenin eğitilmesi hedefleniyor. Microsoft’un bu ortaklığa yaptığı yatırım, yapay zekâ eğitimi, araştırması ve savunuculuğuna odaklanan yeni küresel girişimi Microsoft Elevate’in bir parçasıdır. Bu girişim, Ulusal Eğitim Birliği (NEA) ile teknik destek ve 325.000 dolarlık bir hibe içeren bir ortaklığı da kapsamaktadır.”

Burada bağlam oldukça önemlidir – büyük teknoloji şirketleri kapalı bir kapıyı zorlamıyor. Kamu okulları maddi kaynak sıkıntısı çekiyor, öğretmenler aşırı yük altında ve öğrenci performansı düşüşte. Ülkenin dört bir yanındaki şehirlerde siyasi liderler, eğitim yöneticileri ve öğretmen sendikaları, üretken yapay zekâ sistemlerinin bu birbiriyle bağlantılı sorunların üstesinden gelmeye ya da en azından bunları hafifletmeye katkı sağlayabileceğini umuyor ya da en azından bu olasılığa açıktır.

Bir örnek: Oregon eyaletindeki siyasi liderler, üretken yapay zekânın eyaletin kamu okullarında kullanımını teşvik etmeye istekli görünüyor. Oregonian Capital Chronicle’ın aktardığına göre:

“Vali Tina Kotek, Yükseköğretim Koordinasyon Komisyonu İcra Direktörü Ben Cannon ve Nvidia CEO’su Jensen Huang tarafından Nisan [2025] ayında imzalanan bir anlaşma, eyalet fonlarından 10 milyon doların, üniversitelerde ve okullarda [5 yaşından itibaren çocuklara] AI eğitimi ve kariyer fırsatlarının genişletilmesi amacıyla Nvidia iş birliğiyle kullanılmasını öngörüyor.”

Mutabakat Zaptı’nın (Memorandum of Understanding – MOU) kesin şartları henüz netlik kazanmamış olsa da, görünüşe göre “üniversite öğretim üyeleri, kampüste ‘Nvidia elçisi’ olmak üzere eğitim alabilecek ve Oregon Eğitim Bakanlığı, Nvidia ve K–12 okullarıyla iş birliği içinde ‘temel yapay zekâ kavramlarını tanıtacak’.” Oregon anlaşmasının imzalanmasının ardından, Nvidia benzer mutabakatları Mississippi ve Utah eyaletleriyle de yaptı.

Portland şehri, okullarda yapay zekâ kullanımını yaygınlaştırmak adına kendi çabalarını sürdürüyor. Oregonian gazetesine göre:

“Portland Devlet Okulları, yaklaşan [2025–2026] öğretim yılında, eski NFL oyun kurucusu Colin Kaepernick’in desteklediği bir AI okuryazarlığı platformu [Lumi Story AI] ile sınıflarda yapay zekâ kullanımını daha da derinleştirmeyi planlıyor, dedi Eğitim Müdürü Kimberlee Armstrong bu hafta…”

Lumi Story AI, içerik üreticilere – bu örnekte ortaokul ve lise öğrencilerine – yapay zekâ destekli bir sohbet robotu ile birlikte kendi hikâyelerini, çizgi romanlarını ve grafik romanlarını yazmalarında yardımcı olmak üzere tasarlanmıştır. Görsel üretim aracı, illüstrasyonlar için devreye girer. Bitmiş hikâyeler Lumi platformunda yayımlanabilir; yazarlar fiziksel kopyaları sipariş edebilir, hatta Lumi Story’nin yapay zekâ araçlarını kullanarak eşlik eden ürünler tasarlayıp satabilir.”

Tüm bunlar kulağa hoş gelebilir – yapay zekâ sistemleri eğitimi heyecan verici kılıyor, öğrencilerin bireysel ihtiyaçlarına ve ilgi alanlarına göre uyarlanıyor ve onları geleceğin iş dünyasına hazırlıyor – ancak sınıfta yapay zekânın benimsenmesinin ciddi bir hata olacağına inanmak için güçlü gerekçeler var. En önemli üç neden şunlardır:

  1. Üretken yapay zekâ sistemlerinin yoğun kullanımı, kullanıcıların eleştirel düşünme becerilerini aşındırıyor gibi görünüyor ve bu, teşvik edilmesini istemeyeceğimiz bir gelişmedir.
  2. Üretken yapay zekâ modellerinin çıktılarının, eğitim verilerine gömülü ırkçılık ve cinsiyetçilikle lekelenmiş olduğu gösterilmiştir. Bu nedenle kullanımları, kabul edilemez ırksal ve toplumsal cinsiyet önyargılarını sorgulamak yerine pekiştirme eğilimindedir.
  3. Üretken yapay zekâ modelleri güvenilir değildir ve güvenilemez. Halüsinasyon görürler ve çıktıları siyasi manipülasyona açıktır.

Eleştirel Düşünmeye Yönelik Bir Tehdit

Elbette, üretken yapay zekânın sınıflarda nasıl kullanılacağını henüz bilmiyoruz. Ancak eğer bu teknoloji, öğrencilerin eleştirel düşünme becerilerini geliştirmeye yardımcı olacaksa, endişelenmek için sebepler var. Üretken yapay zekâyı savunan iş dünyası temsilcileri, bu sistemlerin çalışanların sorumluluklarını azaltarak verimliliği artırma yeteneğini öne çıkarıyor. Buradaki asıl kaygı, sınıfta AI kullanımının, öğrencilerin temel becerileri geliştirmesini baltalayacak olması. Yapay zekâ sayesinde birkaç komutla bir makale yazmak mümkün. Bu durumda, ilgili kaynakları bulma ve değerlendirme, literatürü özetleme ya da sorgulama, argümanları tartma, bağımsız biçimde bir sonuca varma ve bunu etkili bir şekilde ifade etme gibi yetenekleri öğrenmeye ihtiyaç kalmıyor.

Bu endişeyi ciddiye almak için güçlü gerekçeler mevcut. Örneğin, akademisyen Michael Gerlich, yapay zekâ kullanımı ile eleştirel düşünme becerileri arasındaki ilişkiyi inceledi. Çalışması, “farklı yaş gruplarından ve eğitim geçmişlerinden 666 katılımcıyla yapılan anketler ve derinlemesine görüşmeleri” kapsıyordu ve bulguları, “sık AI aracı kullanımı ile eleştirel düşünme yetileri arasında, artan bilişsel yük boşaltımı (cognitive offloading) aracılığıyla önemli bir negatif korelasyon” ortaya koydu. Genç katılımcılar, daha yaşlı katılımcılara kıyasla AI araçlarına daha yüksek oranda bağımlılık gösterdi ve daha düşük eleştirel düşünme puanları aldı. Nitekim, birçok katılımcı, AI’ya olan bağımlılıklarının “eleştirel düşünme ve bağımsız problem çözme becerilerini” olumsuz etkilediğine inandığını ifade etti.

Microsoft ve Carnegie Mellon Üniversitesi araştırmacıları tarafından iş, eğitim, sanat, idari işler ve bilişim alanlarında çalışan 319 bilgi işçisiyle yapılan bir başka çalışma da benzer bir sonuca ulaştı. Yazarların belirttiği gibi:

“GenAI, çalışanların verimliliğini artırabilse de, işle eleştirel şekilde meşgul olmayı engelleyebilir ve uzun vadede araca aşırı bağımlılığa ve bağımsız problem çözme becerisinin zayıflamasına yol açabilir. GenAI’nin bir görevi yerine getirme kapasitesine duyulan yüksek güven, eleştirel düşünmeye harcanan çabanın azalmasıyla ilişkilidir. GenAI araçları kullanıldığında, eleştirel düşünmeye ayrılan çaba bilgi toplamadan bilgi doğrulamaya; problem çözmeden AI yanıtlarını entegre etmeye; görev yürütmeden görev yönetimine kayar.”

Daha dar kapsamlı sektör araştırmaları da AI kullanımının beceri kaybına yol açtığına dair kanıtlar sunuyor. New York Times’ın Lancet Gastroenterology and Hepatology dergisinde yayımlanan bir araştırma özetine göre, “kolonoskopi sırasında kanser öncesi oluşumları tespit etmeye yardımcı olmak için tasarlanmış bir yapay zekâ aracını yalnızca üç ay kullandıktan sonra, doktorlar bu oluşumları kendi başlarına bulma konusunda anlamlı biçimde daha kötü hâle geldiler.”

Bu araştırmalar, okullarımızda yapay zekâ kullanımını teşvik ederken karşı karşıya olduğumuz risk konusunda hiçbir şüpheye yer bırakmamalıdır. Eğitimciler, eleştirel düşünme becerilerinin gelişimini desteklemek için zaten sınırlı mali kaynaklarla mücadele ediyorlar. Yapay zekâyı sınıfa dâhil etmek, bu görevlerini daha da zorlaştıracaktır.

Irk ve Cinsiyet Önyargılarının Pekiştirilmesi

Üretken yapay zekâ sistemlerinin eğitilmesi için muazzam miktarda veriye ihtiyaç vardır ve bu sistemlerin sahibi olan şirketler, MIT Technology Review makalesinin deyimiyle, bu veriyi elde etmek için “interneti yağmalamışlardır.” Ancak mevcut tüm kitapları, makaleleri, YouTube videolarının transkriptlerini, Reddit başlıklarını, blog gönderilerini, ürün incelemelerini ve Facebook sohbetlerini kullanmak, bu sistemlerin ırkçı, cinsiyetçi, transfobik, göçmen karşıtı ve tamamen akıl dışı içeriklerle eğitildiği ve çıktılarının da bu tür görüşlerle zehirlendiği anlamına gelir.

Bu duruma örnek olarak: Washington Üniversitesi araştırmacıları, en gelişmiş üç büyük dil yapay zekâ modelinin iş başvurularında ırk ve cinsiyeti nasıl ele aldığını inceledi. Araştırmacılar, gerçek özgeçmişleri kullanarak isimleri farklı ırksal ve toplumsal cinsiyet kimliklerini yansıtacak şekilde değiştirdi ve bu sistemlerin gerçek iş ilanlarına verdikleri yanıtları analiz etti. Sonuçta, “önemli düzeyde ırksal, cinsiyet temelli ve kesişimsel önyargı” tespit ettiler. Daha somut olarak ifade etmek gerekirse, “LLM’ler [Büyük Dil Modelleri], %85 oranında beyazlarla ilişkilendirilen isimleri, yalnızca %11 oranında kadınlarla ilişkilendirilen isimleri tercih etti ve hiçbir zaman siyah erkeklerle ilişkilendirilen isimleri, beyaz erkek isimlerine tercih etmedi.”

Görsel üretim alanında da benzer bir önyargı söz konusudur. Araştırmacılar, çeşitli popüler programların oluşturduğu görüntülerin “ezici çoğunlukla yaygın stereotiplere başvurduğunu; örneğin ‘Afrika’ kelimesini yoksullukla, ‘fakir’ kelimesini koyu ten rengiyle ilişkilendirdiğini” buldu. Örneğin, “Amerikalı bir erkek ve evinin fotoğrafı” istendiğinde, bir sistem büyük, sağlam yapılı bir evin önünde beyaz bir kişinin görüntüsünü üretti. “Afrikalı bir erkek ve lüks evinin fotoğrafı” istendiğinde ise, çamurdan yapılmış basit bir evin önünde siyah bir kişinin görüntüsünü oluşturdu. Araştırmacılar, farklı mesleklerden insanların fotoğrafları istendiğinde de benzer ırksal (ve cinsiyete dayalı) stereotiplere rastladılar.

Mevcut zararlı toplumsal önyargıları yeniden üretme ve dolayısıyla pekiştirme olasılığı bu kadar yüksekken, öğrencilerin araştırma, yazma ya da görsel oluşturma gibi amaçlarla yapay zekâ sistemlerini kullanmaya teşvik edilmesi, yaratmaya çalışmamız gereken türdeki eğitim deneyimlerini ve öğrenme süreçlerini ciddi biçimde baltalayacaktır.

Hayal Dünyasında Yaşamak

Üretken yapay zekâ sistemleri, “halüsinasyonlar” olarak bilinen bir sorundan muzdariptir; bu da, sıklıkla gerçeğe aykırı bir bilgiyi son derece özgüvenli biçimde ifade ettikleri anlamına gelir. Bazı halüsinasyonlar yalnızca gülünçtür ve kolaylıkla fark edilip göz ardı edilebilir. Ancak bazıları, nesnel ve her şeyi bilen bir yapay zekâ sisteminden geldiğine inanılan uydurma gerçekleri içerir ve bu da öğrencileri önemli olaylar, tarihler veya siyasi tercihler hakkında yanlış ve potansiyel olarak tehlikeli bir anlayışa yöneltebilir.

Üretken yapay zekâ sistemleri, büyük ölçekli örüntü tanımaya dayandıkları için bu tür halüsinasyonlar üretir. Bir soru ya da bilgi talebiyle karşılaştıklarında, veritabanlarında ilişkili materyalleri belirlerler ve ardından, olasılıklara göre, bu sorguyu “en iyi şekilde” karşılayan bir dizi sözcük ya da görsel oluştururlar. “Düşünmezler” ya da “mantık yürütmezler”; bu nedenle çıktıları öngörülemezdir, aynı komutlara tekrar tekrar farklı yanıtlar verebilirler ve güvenilir değildirler.

OpenAI araştırmacılarının yakın tarihli bir makalede açıkladığı üzere, büyük dil modelleri, “bilginin eğitim verilerinde seyrek görünmesi durumunda ortaya çıkan epistemik belirsizlik; görevlerin mevcut mimarilerin temsil kapasitesini aşması gibi model sınırlamaları; ve süper zeki sistemlerin bile kriptografik olarak zor problemleri çözemediği hesaplama zorlukları” nedeniyle, veriler kusursuz olsa bile her zaman makul ama yanlış çıktılar üretmeye eğilimlidir. Üstelik bu, sistemlerin ölçeğini büyütmek veya işlem gücünü artırmak yoluyla çözülebilecek bir sorun değildir. Aslında, birçok çalışma, daha gelişmiş AI modellerinin önceki, daha basit olanlara kıyasla daha fazla halüsinasyon ürettiğini göstermiştir.

Yapay zekâdan gelen çıktıları doğru kabul etme eğilimi ise oldukça güçlüdür. Daha iyi bilmesi gereken profesyoneller bile bu tuzağa düşmüştür. Örneğin, bazı avukatların dava özetlerini yazmak için yapay zekâ kullandığı ve bazı hâkimlerin kararlarını bu şekilde kaleme aldığı vakalar yaşanmıştır. Yapay zekâya olan bu güven, hazırlanan belgelerde tamamen uydurma dava örneklerine ve yargı kararlarına çok sayıda atıfta bulunulmasıyla açığa çıkmıştır.

Daha da utanç verici olan bir örnek, Kanada’nın Newfoundland ve Labrador eyaleti için hazırlanan önemli bir eğitim raporunda en az 15 halüsinasyonlu atıfın bulunmasıdır; bu da doğrudan AI çıktısına güvenilmesinin bir sonucudur. Ağustos 2025’te yayımlanan bu rapor, eyaletin okullarını iyileştirmek için 10 yıllık bir yol haritası sunmayı amaçlıyordu ve tabii ki içinde “AI’nın etik kullanımı”nı sağlamak için politika önerileri de yer alıyordu.

Mayıs 2025’te Chicago Sun Times, yaz okuması için kitap seçimlerini öne çıkaran ve King Features Syndicate tarafından hazırlanmış bir ek yayımladı. AI tarafından yazılmış olan bu ekte, tanınmış yazarlara atfedilen ancak aslında hiç var olmayan kitaplar yer alıyordu. Listelenen 15 kitaptan sadece beşi gerçekte mevcuttu.

Gülünç halüsinasyonlara gelince: OpenAI, Ağustos 2025’te en son üretken yapay zekâ modelini piyasaya sürdükten kısa süre sonra, bu modelin “herhangi bir alanda, ihtiyaç duyulan her konuda gerçek bir doktora düzeyinde uzman kadar zeki” olduğu yönündeki iddiası hızla sorgulandı. CNN’in aktardığına göre:

“Gazeteci Tim Burke, Bluesky’da GPT-5’e şu komutu verdiğini söyledi: ‘Amerika Birleşik Devletleri’nin ilk 12 başkanının yüzlerinin ve isimlerinin yer aldığı bir diyagram göster.’

“Yapay zekâ ise dokuz kişinin yer aldığı bir görsel döndürdü ve bunların arasında ‘George Washingion’ ve ‘William Henry Harrtson’ gibi Amerika’nın ilk liderlerinin oldukça yaratıcı yazımları vardı.

“Son 12 başkan için benzer bir komut verildiğinde, görselde George W. Bush’un iki farklı versiyonu yer aldı. Hayır, George H.W. Bush ve sonra Dubya değil. ‘George H. Bush’ vardı ve ardından oğlu, iki kez. İkinci versiyonda George Jr. ise rastgele bir adam gibi görünüyordu.”

Halüsinasyon sorunu iyi biliniyor olsa da, AI ile öğrenime güven duyan öğrenciler açısından daha ciddi bir tehdit var ve bu pek fazla dikkat çekmiyor: AI sistemleri, sahibi olan şirketlerin siyasi olarak tercih ettiği yanıtları verecek şekilde programlanabilir. Örneğin, Mayıs 2025’te Başkan Trump, Güney Afrika’da “beyaz soykırımı”ndan bahsetmeye başladı ve “beyaz çiftçilerin acımasızca öldürüldüğünü” iddia etti. Bu iddiası haklı olarak sorgulandı ve insanlar – şaşırtıcı olmayacak şekilde – bu konuyu AI sohbet robotlarına sormaya başladı. Birdenbire, Elon Musk’ın üretken yapay zekâ sistemi Grok, kullanıcılara Güney Afrika’daki beyaz soykırımının gerçek ve ırksal nedenlerle gerçekleştiğini ve “yaratıcılarım tarafından” bu soykırımı “gerçek ve ırksal nedenlere dayalı” olarak kabul etmesi yönünde talimat verildiğini söylemeye başladı. Hatta bu konu doğrudan sorulmasa bile, kullanıcılara beyaz soykırımı hakkında bilgi paylaşmaya başladı.

Zengin bir Güney Afrikalı ailenin çocuğu olan Musk’ın daha önce benzer ifadelerde bulunmuş olması, Grok’un Başkan Trump’ın iddiasını agresif biçimde desteklemesinin arkasında onun olduğunu ve yeni konumunun Başkan’ın gözüne girmek için benimsendiğini düşünmeyi kolaylaştırıyor. Grok’un bu davranışı, kısa sürede sosyal medyada büyük yankı uyandırdı ve pek çok kullanıcı Musk’ı eleştirdi. Çok geçmeden, Grok, beyaz soykırımıyla ilgili komutlara yanıt vermeyi bıraktı.

İki ay sonra, Başkan Trump, AI modellerinin “partizan önyargılarla doldurulduğu” konusunda uyarılarda bulunmaya başladı. Bunun üzerine, “Federal Hükûmette Woke AI’yı Önleme” başlıklı bir başkanlık kararnamesi imzaladı. Bu kararname, devlet kurumlarına, “doğruluk ve kesinliği ideolojik gündemler uğruna feda eden modelleri satın almamaları” yönünde talimat veriyordu; bu da, modellerin “DEI gibi ideolojik dogmalar lehine yanıtları manipüle etmeyen, tarafsız ve partizan olmayan araçlar” olması gerektiği anlamına geliyordu. AI çıktılarının siyasi kazanç uğruna daha fazla manipüle edildiğine dair elimizde doğrudan bir kanıt bulunmasa da, Başkan Trump’ın bu talebi son derece kaygı verici ihtimalleri gündeme getiriyor.

Ne yazık ki, okullarımızda AI kullanımını teşvik etmek, büyük teknoloji şirketlerinin kendi açıklamalarıyla da uyumlu biçimde, öğrencileri AI sistemlerini güvenilir ve nesnel bilgi kaynakları olarak kabul etmeye teşvik edecektir. Öğrenme süreçleri ve demokratik olanaklar açısından bunun bedeli çok büyük olacaktır.

Direniş

Yukarıda vurgulanan endişeler, özellikle öğretmenler olmak üzere pek çok kişi tarafından paylaşılmaktadır. Bloomberg News’in belirttiği gibi:

“Gallup ve Walton Family Foundation tarafından yapılan bir ankete göre, öğretmenlerin %60’ı öğretim yılı boyunca AI kullanmış olsa da, bunu yoğun biçimde kullanmadılar. Katılımcıların yarısından fazlası, AI araçlarını öğrenmek, araştırmak ya da keşfetmek için üç saatten az zaman harcadığını belirtirken; yaklaşık dörtte biri en az 10 saat harcadığını ifade etti. Beşte üçü, öğrencilerinden hiçbir zaman AI kullanmalarını istemediklerini söyledi. Öğretmenler ayrıca, öğrencilerin AI araçlarını haftalık olarak kullanmasının yazma becerilerini, yaratıcılıklarını, eleştirel düşünme ve iletişim yeteneklerini artırmak yerine azaltacağına inanma eğilimindeydiler.”

Ve büyük teknoloji şirketlerinin yapay zekâyı kamu eğitiminin temel taşı hâline getirme yönündeki baskısına karşı direniş büyüyor. Yazar ve teknoloji gazetecisi Brian Merchant’ın açıkladığı gibi:

“Hollanda, Danimarka, Almanya ve ABD’deki üniversitelerden gelen bilişsel bilimciler ve yapay zekâ araştırmacılarından oluşan bir grup, eğitimcileri ve yöneticileri kurumsal AI ürünlerini reddetmeye çağıran sert bir görüş belgesi yayımladı. Belge, anlamlı bir şekilde ‘Akademide AI Teknolojilerinin Eleştirel Olmadan Benimsenmesine Karşı’ başlığını taşıyor ve üniversitelerin teknoloji endüstrisinin abartılı söylemlerini çürütmek ve ticari AI araçlarını akademiden uzak tutmak için çok daha fazlasını yapması gerektiğine dair acil ve kapsamlı bir argüman ortaya koyuyor…

“Ve bu çağrıların yankı bulduğu ve ivme kazandığı hissediliyor – bu gelişme, ABD’li üç üniversite profesörünün kaleme aldığı ‘Yazma Çalışmalarında GenAI’yi Reddetmek: Hızlı Başlangıç Kılavuzu’, öğrenme tasarımcısı Miriam Reynoldson’ın yazdığı ‘AI Okuryazarlığına Karşı’ ve eğitimcilerin sınıfta otomasyona karşı yürüttüğü uzun mücadelelerin yayımlanmasıyla birlikte geliyor.”

Hepimiz bu direnişe katılmalıyız. Başlangıç için bazı adımlar şöyle olabilir: Büyük teknoloji şirketlerinin yanıltıcı açıklamalarına karşı kendimizi yapay zekâ konusunda eğiterek güvenle karşı çıkmalıyız; ebeveynlerle birlikte örgütlenerek, büyük teknolojinin istediğini elde etmesi hâlinde çocukları için neyin tehlikede olduğunu anlamalarına yardımcı olmalıyız. Öğretmenler ve sendikalarıyla birlikte çalışarak, siyasi liderleri ve okul yönetim kurullarını eğitimin AI tarafından ele geçirilmesinin kabul edilemez olduğuna ikna etmelerine yardımcı olmalıyız. Ayrıca, büyük teknoloji şirketlerinin AI sistemlerini çalıştırmak için ihtiyaç duyduğu ve çevreye zarar veren yeni veri merkezlerinin inşasına karşı büyüyen toplumsal direnişi de desteklemeliyiz.

Kaynak: https://socialistproject.ca/2025/10/ai-and-education/