“LLM duvara mı çarptı?” sorusunu duyunca aklıma bir otoyol sahnesi geliyor. Uzun, dümdüz bir yol. Yıllarca hep aynı şeyi yaptık: Daha çok veri, daha büyük model, daha fazla GPU. Gazı kökledik, hızlandık, hızlandık, hızlandık. Şimdi ise önümüzde sisli bir ufuk var. Kimine göre yolda bir viraj, kimine göre beton bir duvar, kimine göre de yeni bir otoyola bağlanan bir kavşak.
Sisin ardında ne olduğunu bilmiyoruz ama geçen hafta meydana gelen ilginç bir gelişmeyi gayet net görüyoruz. Geçen hafta dünyanın en değerli şirketlerinden biri, yapay zekâ çiplerinin tartışmasız kralı Nvidia, tarihinin en yüksek gelirini açıkladı. Tek bir çeyrekte 57 milyar dolar. Yanlış duymadınız. Ayda neredeyse 20 milyar dolar kazanan bir şirkete dönüştü.
Peki borsada ne oldu? Hisseleri düşüşe geçti.
Bu garip bir durum değil mi? Bir şirket beklentilerin üzerinde performans gösteriyor, CEO Jensen Huang sahneye çıkıp “Blackwell çiplerimiz kapış kapış gidiyor” diyor, ama yatırımcılar sanki kötü bir haber almış gibi davranıyor.
İşte bugün bu paradoksu çözmeye çalışacağız. Ama sadece borsa haberi olarak değil. Çünkü bu hikâyenin altında çok daha derin bir soru ya da sorun var: Bugün yapay zekâ deyince ilk akla gelen şey büyük dil modelleri yani LLM’ler artık yetersiz hale mi geldi? Bazılarının dediği gibi LLM’ler, gerçekten bir duvara mı çarptı?
Bu soruyu cevaplamak için önce şunu anlamamız lazım: Son beş yıldır yapay zekâ dünyasında tek bir strateji vardı. Daha büyük model, daha fazla veri, daha çok işlem gücü. Bu üçlüyü artırdığınızda sistem daha akıllı oluyordu. Buna “ölçekleme yasaları” diyorlar. Neredeyse fizik yasası gibi bir şey sanılıyordu. GPT-2’den GPT-3’e, oradan GPT-4’e her sıçrayışta modeller inanılmaz yetenekler kazandı.
Ama şimdi bu yasanın sınırlarına gelmiş olabiliriz.
Bunu söyleyenler sıradan insanlar değil. Ben üç kişinin görüşlerinden örnek vereceğim. Ve bunlardan ilki görüşlerine en çok kıymet verdiğim kişi OpenAI’ın kurucu ortağı ve baş bilim insanıydı: Ilya Sutskever. Kendisinden daha önce birkaç kez bahsettim ama en çok OpenAI’da Sam Altman’ı işten attıran adam olarak anlatmıştım, maalesef o savaşı kaybetti ve Sam Altman dönüş yaptı ama Ilya ayrılmak zorunda kaldı. İşte o Ilya geçen yıl NeurIPS konferansında çok çarpıcı bir benzetme yaptı:
“Data is the fossil fuel of AI. We have but one internet. We’ve achieved peak data and there’ll be no more.”
“Veri, yapay zekânın fosil yakıtıdır. Elimizde tek bir internet var. Zirve verisine ulaştık ve daha fazlası olmayacak.”
Düşünün bir. İnternet, insanlık tarihinin en büyük metin koleksiyonu. Her tweet, her blog yazısı, her Wikipedia makalesi, her forum tartışması… Bunların hepsi toprak altından petrol çıkarır gibi çıkarıldı, kullandığımız yapay zeka modelleri bunlarla beslendi. Ama internet sonsuz değil. Ve artık neredeyse tamamı kullanılmış durumda.
Sutskever iki gün önce konuştuğu bir podcastte durumu daha da netleştirdi:
“From 2020 to 2025, it was the age of scaling. But now the scale is so big. Is the belief really that if you had 100x more, everything would be so different? I don’t think that’s true. So it’s back to the age of research again.”
“2020’den 2025’e kadar ölçekleme çağıydı. Ama artık ölçek o kadar büyük ki. 100 kat daha fazlasına sahip olsanız her şey gerçekten çok farklı olur mu? Bunun doğru olduğunu düşünmüyorum. Yani tekrar araştırma çağına döndük.”
Bu çok önemli bir itiraf. Çünkü Sutskever, GPT-3 ve GPT-4’ün mimarlarından biri. Transformer yapısını şekillendiren isimlerden. Ve şimdi diyor ki: “Sadece büyütmek artık yetmiyor.”
Ama eleştiriler sadece buradan gelmiyor. Meta’nın baş yapay zekâ bilimcisi Yann LeCun, Turing Ödülü sahibi ve derin öğrenmenin babalarından biri. Turing Ödülü yapay zeka için Nobel ödülü gibi bir şey ve onu da üç kişiyle paylaşmıştı, biri de Ilya’nın hocası. İşte LeCun da şimdi çalıştığı Meta’dan ayrılıyor ve biraz daha sert konuşuyor. Kendisine göre büyük dil modelleri, insan seviyesi zekâya giden yolda bir “çıkmaz sokak”.
“LLMs are useful, but they are an off ramp on the road to human-level AI. If you are a PhD student, don’t work on LLMs.”
“LLM’ler faydalı, ama insan seviyesi yapay zekâya giden yolda bir sapaktırlar. Eğer doktora öğrencisiyseniz, LLM’ler üzerinde çalışmayın.”
LeCun’un argümanı şu: Bu modeller dünyayı anlamıyor. Sadece kelimelerin istatistiksel örüntülerini öğreniyorlar. Bir ev kedisi bile fiziksel dünyayı LLM’lerden daha iyi anlıyor. Kedi kapıdan geçebileceğini biliyor, bir nesnenin arkasına saklanınca kaybolmadığını biliyor, karmaşık hareketler planlayabiliyor.
LeCun bu yıl Davos’ta da konuştu:
“Nobody in their right mind would use them anymore, at least not as the central component of an AI system.”
“Aklı başında hiç kimse bunları artık kullanmaz, en azından bir yapay zekâ sisteminin merkezi bileşeni olarak.”
Sert sözler. Ama LeCun sadece eleştirmiyor, bir alternatif de sunuyor: “Dünya modelleri”. Yani yapay zekânın sadece metinden değil, fiziksel dünyayla etkileşimden öğrenmesi gerektiğini savunuyor. Tıpkı bir bebeğin dokunarak, görerek, deneyerek öğrenmesi gibi.
Ama tüm bunlardan çok daha önce LLM’lerin duvara çarptığını söyleyip duran daha az ünlü biri var. Hatta 2023’te senatoda Sam Altman’ın yanı sıra o da ifade vermişti. Ama onun OpenAI ve Sam Altman karşıtlığı bundan çok daha öncesine dayanıyor: Gary Marcus. Kendisi bir bilişsel bilimci, New York Üniversitesi’nden. Marcus, yapay zekâ dünyasının en ısrarcı eleştirmenlerinden biri. Ben ona “profesyonel kötümser” diyorum. 2022’de yazdığı “Deep Learning is Hitting a Wall” yani “Derin Öğrenme Duvara Çarpıyor” başlıklı makale çok tartışıldı. Sam Altman bile dolaylı yoldan ona “vasat bir şüpheci” diye laf soktu.
Ama Marcus pes etmedi. Yıllardır yapay zekanın bir alt dalı olan LLM’lerin bir balon olduğunu söylemeye devam etti:
“LLMs have reached a point of diminishing returns. There is no principled solution to hallucinations in systems that traffic only in the statistics of language.”
“LLM’ler azalan getiri noktasına ulaştı. Sadece dilin istatistikleriyle çalışan sistemlerde halüsinasyonlara prensipli bir çözüm yok.”
Halüsinasyon dediği şey, yapay zekânın uydurması. Var olmayan kaynaklara atıf yapması, yanlış bilgiler üretmesi, olmayan olayları olmuş gibi anlatması. Ve Marcus’a göre “it’s not a bug, it’s a feature.” Yani bu bir “hata” değil, sistemin doğasından kaynaklanan bir özellik. Ne kadar büyütürseniz büyütün, temelde kelime tahmin eden bir sistem gerçeği “anlamıyor”.
Peki tüm bunlar Nvidia’nın o garip hisse düşüşüyle nasıl bağlantılı? Birazdan ona da geleceğiz, yapay zeka bir balon mu sorusunu tartışacağız.
—
Şimdi şöyle düşünün: Nvidia’nın rekor kârları, büyük teknoloji şirketlerinin yapay zekâ altyapısına döktüğü paradan geliyor. Amazon, Microsoft, Google, Meta… Bu şirketler toplamda yılda 400 milyar doların üzerinde yapay zekâ yatırımı yapıyor. Bu para veri merkezlerine, çiplere, enerji altyapısına gidiyor.
Ama yatırımcıların kafasında bir soru var: Bu harcamalar karşılığını bulacak mı?
Eğer LLM’ler gerçekten bir tavana çarptıysa, eğer ölçekleme artık eskisi kadar işe yaramıyorsa, o zaman bu dev yatırımların geri dönüşü ne olacak? OpenAI bile 2030’a kadar ciddi kâr beklemediğini söylüyor. 2030! Daha 4-5 yıl para yakacaklar.
Nobel ödüllü ekonomistimiz Daron Acemoğlu bu konuda şöyle bir uyarı yapmıştı:
“These models are being hyped up, and we’re investing more than we should.”
“Bu modeller abartılıyor ve gereğinden fazla yatırım yapıyoruz.”
Bir de şu ilginç detay var: Yapay zekâ şirketleri arasında döngüsel finansman anlaşmaları var. Nvidia, OpenAI’a yatırım yapıyor. OpenAI, CoreWeave’den çip kiralıyor. CoreWeave, Nvidia’dan çip alıyor. Herkes birbirine para akıtıyor ama gerçek son kullanıcı talebi ne kadar? Ünlü yatırımcı Michael Burry’nin ifadesiyle: “Gerçek son kullanıcı talebi gülünç derecede küçük. Neredeyse tüm müşteriler bayileri tarafından finanse ediliyor.”
Burry, 2008 konut krizini önceden gören ve “The Big Short” filminin konusu olan adam. Şimdi yapay zekâ sektörüne karşı pozisyon alıyor.
Tabii bir de madalyonun öbür yüzü var. Jensen Huang, Nvidia’nın CEO’su, balon iddialarını reddediyor:
“There’s been a lot of talk about an AI bubble. From our vantage point, we see something very different.”
“Yapay zekâ balonu hakkında çok konuşuluyor. Bizim bakış açımızdan çok farklı bir şey görüyoruz.”
Huang’a göre bu bir balon değil, teknolojik bir devrim. Bulut bilişimin büyümesi, yapay zekâ destekli fiziksel ürünlerin yükselişi, kurumsal yazılımlardaki dönüşüm gibi kavramların tamamı için Nvidia çiplerine ihtiyaç var diyor ama tabi o bunları söyledikten sonra Google Gemini 3’ü çıkardı ve LMArena’da 1 numaraya çıktı. Gemini 3’ün çok iyi bir model olmasının yanı sıra bilin bakalım ne kullanmıyor? Nvidia çiplerini. Google kendi geliştirdiği TPU’lar üzerinde koşturuyor.
Ama tabi Nvidia bu yarışı kaybetti anlamına filan asla gelmiyor. Nvidia’nın başarısı gerçekten etkileyici. Sadece veri merkezi bölümünden 51 milyar dolar gelir. Bir önceki yıla göre yüzde 66 artış. Şirket, 2025 ve 2026 için yarım trilyon dolarlık sipariş görünürlüğünden bahsediyor.
Peki o zaman yapay zeka dünyası patlamaya hazır bir balon mu değil mi? Tüm bu tartışmalarda kim haklı, kim haksız?
Tabiki “sen de haklısın” diyen Nasreddin Hoca misali bizim de gerçeği muhtemelen ortada bir yerde aramamız gerekiyor. Benim yaptığım araştırmalardan yola çıkarak ulaştığım sonuçlar şöyle:
Bir: LLM’ler muhtemelen ölçeklemenin sınırlarına yaklaşıyor. Daha büyük modeller, eskisi gibi dramatik sıçramalar getirmiyor. Sutskever, LeCun ve Marcus farklı perspektiflerden aynı şeyi söylüyor.
İki: Bu, yapay zekânın sonu demek değil. Belki LLM’lerin sonu bile değil. Sadece “daha büyük = daha iyi” döneminin sonu. Araştırmacılar şimdi farklı yollar arıyor. Çıkarım zamanı hesaplama, sentetik veri kullanma, dünya modelleri inşa etme, hibrit sistemler kurma gibi şeyleri deniyorlar.
Üç: Piyasalar haklı olarak temkinli. Yüzlerce milyar dolarlık yatırımın karşılığı henüz net değil. Ama bu, yatırımların boşa gittiği anlamına da gelmiyor. Sadece beklentilerin çok yüksek olduğu ve gerçeklerle yüzleşme zamanının geldiği anlamına geliyor.
Burada tarihsel bir benzetme yapmak kolay: Dot-com balonu. 2000’lerin başında internet şirketleri şişti, sonra balon patladı. Ama internet ortadan kalkmadı. Tam tersine, balon sonrası dönemde bugün kullandığımız o dev platformlar ortaya çıktı.
Bence AI için de benzer bir risk var: “Balon” kelimesi, bazı şirketlerin, bazı hisselerin, bazı iş modellerinin abartılı değerlenmesi demek ama bu, “teknolojinin kendisi tamamen boş” demek değil.
Bence burada asıl mesele şu: Yapay zekâ dünyası bir olgunlaşma sürecine giriyor. “Her şeyi çözecek sihirli bir araç” anlatısından, “güçlü ama sınırlı bir teknoloji” anlayışına geçiyoruz.
Ve belki de bu iyi bir şey. Çünkü abartılı beklentiler, hayal kırıklığına yol açar. Ama gerçekçi beklentiler, sürdürülebilir ilerlemeyi sağlar.
Sutskever’in dediği gibi, belki de “ölçekleme çağı” bitiyor ve “araştırma çağı” başlıyor. Ve araştırma çağlarında, en ilginç şeyler olur.
Yapay zekâ duvara çarptı mı? Belki bir duvara çarptı. Ama duvarlar aşılmak, dolaşılmak veya yıkılmak için vardır.
Ben şöyle düşünüyorum. Birinci vitesle çıktığımız o uzun otoyol bitti, önümüzdeki yol için vites değiştirmek ve yeni yollar bulmak zorundayız. Bakalım araştırmacılar önümüzdeki yıllarda hangi yolu bulacaklar.