Hepsini yönetecek tek bir yapay zekâ mı olacak?

Son birkaç yıldır yapay zekâ alanındaki hikâyeyi, devasa ve her işe yarayan modeller inşa etme yarışı domine etti. Şiir yazmaktan yazılım kodlamaya kadar her şeyle başa çıkabilen dijital İsviçre çakısı benzeri modeller.

Çünkü model ne kadar büyükse, verdiği cevaplar da o kadar iyi oluyor.

Finans haberleri kuruluşu Bloomberg, analiz ve tahminlerde avantaj elde etmek amacıyla “BloombergGPT” adlı modelini oluşturdu. Bu modele, Bloomberg’in 40 yılı aşkın sürede topladığı her bir veri kırıntısı yüklendi.

Finans alanında özel olarak eğitilmemiş olan GPT-4 ise, kazanç toplantılarının duygusal tonunu analiz etme gibi görevlerde BloombergGPT’yi adeta ezip geçti (smoked it). Bloomberg’in ne kadar yüksek kaliteli ve “özel” verilere sahip olduğu önemli değildi; çünkü GPT-4, ondan 100 kat daha büyüktü.

Aynı hikâye, Google’ın genel amaçlı yapay zekâ modeli ile sağlık alanı için özel olarak eğitilmiş bir model karşı karşıya geldiğinde de tekrarlandı. Google’ın genel modeli bu yarışı rahatlıkla kazandı.

Ders: En iyi yapay zekâyı istiyorsanız, onu devasa hale getirin

Ancak şu anda köklü bir değişim yaşanıyor ve bu değişimi akıllı yatırımcıların mutlaka anlaması gerekiyor. Gelecek, her şeyi yöneten tek bir yapay zekânın hâkimiyetinde olmayacak. Gelecek, belirli görevler için optimize edilmiş, şirket içinde çalışan (on-premises) özel modellerden oluşan gelişen bir ekosistem olacak.

Bu değişimi yönlendiren üç güçlü dinamik var:

  1. En değerli varlıklarınızı güvende tutun. Bir banka, hastane veya savunma sanayi müteahhidi işletiyorsanız, en hassas verilerinizi GPT-4 ya da Claude gibi dış yapay zekâ sistemlerine gönderemezsiniz. Nokta. Düzenleyici kısıtlamalara tabi olmayan şirketler için bile, özel verilerin açığa çıkma riski fazlasıyla büyüktür. Coca-Cola Co. (KO), gizli formülünü harici bir yapay zekâya verir mi? Asla. Bu tür şirketler, verilerin güvenlik sınırlarının dışına çıkmamasını garanti altına alacak şirket içi yapay zekâ sistemlerini tercih edecektir.
  2. Bir uzmana danışın. Çin’in yapay zekâ modeli DeepSeek, “Uzman Karışımı” (Mixture of Experts – MoE) yaklaşımını öncülük ederek bize adeta bir hediye sundu. Tüm parametrelerin her problemi çözmeye çalıştığı devasa bir model yerine, MoE mimarisi modeli uzman “bölümlere” ayırıyor.Bir soru sorduğunuzda, sistem yalnızca ilgili uzman bölüme yönlendirme yapıyor. Örneğin, hesaplama işlemleri için matematik uzmanı ya da mantıksal problemler için muhakeme uzmanı devreye giriyor. Modelin yalnızca küçük bir kısmı etkinleştirildiği için, daha hızlı yanıtlar, daha düşük maliyetler ve daha yüksek performans elde ediliyor. Günümüzde tüm yapay zekâ şirketleri bu yaklaşımı benimsiyor.
  3. Benzersiz bir avantaj. Yapay zekâ modelleriyle ilgili acı gerçek şu: İstediğiniz kadar güçlü GPU’larla eğitin, eğer elinizde benzersiz veriler yoksa, modeliniz sıradan bir emtiaya dönüşür ve dibe doğru yarışa girer. Açık kaynak modeller, özel (proprietary) modellere baş döndürücü bir hızla yetişiyor.

Sürdürülebilir tek avantaj, başkalarının erişemeyeceği benzersiz verilerdir. Bu yüzden şu projelere karşı iyimserim:

o X’in sosyal ağı tarafından beslenen xAI’nin Grok’u;
o Facebook, Instagram ve WhatsApp verileriyle eğitilmiş Meta’nın modelleri;
o YouTube ve Gmail’in dev veri hazinesinden faydalanabilen Google Suite’i.

Bu durum, özel şirket verileriyle inşa edilen, şirket içi (on-premises) uzmanlaşmış modeller için de büyük bir avantaj anlamına geliyor.

Bir sonraki dalga, hepsini yönetecek tek bir yapay zekâ oluşturmak değil; her biri kendi alanını yöneten binlerce uzmanlaşmış yapay zekâ inşa etmek olacak.

Benzersiz veri varlıkları üzerine özel yapay zekâlar geliştiren şirketler, milyarlarca dolarlık değer yaratacak. Bu modeller şu anda, büyük ölçüde kamuoyunun gözünden uzakta geliştiriliyor.

Yapay zekâları beslemek

Yapay zekâ modellerine veri aktarmak, basit bir kopyala–yapıştır işlemi değildir. S&P Global’e göre, bir yapay zekâ geliştiricisinin zamanının şaşırtıcı bir şekilde %60’ı havalı sohbet robotları veya özellikler inşa etmekle değil; veri toplamak, hazırlamak ve temizlemek gibi zahmetli işler ile geçiyor.

“Veri yeni petroldür” benzetmesini mutlaka duymuşsunuzdur. Kusurlu bir benzetmedir; çünkü veriler sonsuza dek yeniden kullanılabilir ve tükendikçe azalmaktan ziyade artar. Ancak çok önemli bir açıdan bakıldığında bu benzetme oldukça yerindedir: Her ikisi de değerli hâle gelmeden önce rafine edilmelidir.

Ham petrol yer altından çıktığında, zehirli ve işe yaramaz bir çamurdur. Arabanızı çalıştıran benzine dönüşmeden önce karmaşık rafinasyon süreçlerinden geçmek zorundadır.

Veriler de aynıdır. Şirketlerin topladığı ham bilgiler dağınık, tutarsız ve çoğu zaman yapay zekâ sistemleri tarafından anlaşılamaz hâldedir.

Target (TGT) gibi küresel bir perakende devi, tonlarca müşteri verisine sahiptir: satın alma geçmişleri, gezinme alışkanlıkları, demografik bilgiler, mağaza içi hareketlilik… ve tüm bu veriler yüzlerce sistemde, onlarca farklı formatta dağınık şekilde bulunur.

Bu verilerin yapay zekâlara beslenebilecek makine tarafından okunabilir formata rafine edilmesi, esas para kazandıran iştir.

Bu verileri temizleyip yapılandırabilen şirketler, yapay zekâ devrimine yalnızca katılmakla kalmayacak, aynı zamanda ona liderlik edecekler. Ve yapılandırılmamış verilerin dünyasına doğru ilerledikçe, verileri rafine etme eğilimi çok daha kritik hâle gelecek.

Kaynak: https://www.riskhedge.com/outplacement/will-there-be-one-ai-to-rule-them-all/rcm?utm_campaign=RH-144&utm_content=RH144OP802&utm_medium=ED&utm_source=rcm