Yapay zeka yarışını uzun süredir GPU’lar üzerinden okuyoruz. Ama yeni veriler başka bir gerçeğe işaret ediyor: asıl savaş artık işlemcide değil, bellekte yaşanıyor.
Counterpoint Research’e göre AI sunucu ASIC’leri için HBM talebi 2024-2028 arasında 35 kat büyüyecek. Bu yalnızca teknik bir sıçrama değil, aynı zamanda veri merkezi ekonomisinin, çip stratejisinin ve AI altyapı rekabetinin yeniden yazılması anlamına geliyor.
Yapay Zeka Yarışının Merkezi Sessizce DeğişiyorSon iki yılda yapay zeka altyapısı denince akla ilk gelen şey GPU oldu. Nvidia, hyperscaler yatırımları, dev veri merkezleri, milyarlarca dolarlık siparişler...
Ama sektörün derin tarafına bakıldığında daha kritik bir başlık öne çıkıyor:
bellek mimarisi.
Counterpoint Research’in son değerlendirmesine göre, AI sunucu tarafındaki özel hızlandırıcı çipler yani compute ASIC’ler için kullanılan HBM talebi 2024 ile 2028 arasında tam 35 kat büyüyecek. Bu tahmin, sadece çip satışlarında bir artışa değil, yapay zekanın çalışma mantığında yaşanan daha yapısal bir dönüşüme işaret ediyor.
Çünkü artık mesele sadece daha fazla işlem yapmak değil.
Mesele, veriyi işlem birimlerine yeterince hızlı taşıyabilmek.
HBM yani High Bandwidth Memory, klasik bellek mimarilerine göre çok daha yüksek veri bant genişliği sunuyor. Özellikle büyük dil modelleri, trillion-parametreli yapılar, multi-model sistemler ve Mixture-of-Experts mimarileri gibi ağır AI iş yüklerinde bu fark belirleyici hale geliyor.
Bugün AI sistemlerinin önündeki temel sorunlardan biri sadece hesaplama gücü eksikliği değil.
Asıl sorun, verinin compute çekirdeklerine zamanında ulaşamaması.
Bir başka ifadeyle:
Yapay zekada darboğaz artık sadece işlemci değil, bellek duvarı.
Bu yüzden hyperscaler şirketler yeni nesil özel çiplerini tasarlarken yalnızca çekirdek sayısına ya da performans watt dengesine bakmıyor. Aynı zamanda çip başına ne kadar yüksek yoğunluklu HBM yerleştirebileceklerini de hesaplıyorlar.
Rapordaki en dikkat çekici noktalardan biri, ASIC başına ortalama HBM yoğunluğunun 2028’e kadar yaklaşık 5 kat artacak olması.
Bu oldukça önemli. Çünkü büyüme sadece daha fazla çip üretilmesinden kaynaklanmıyor.
Her bir çipin üstüne yerleştirilen bellek kapasitesi de dramatik biçimde artıyor.
Bu bize şunu söylüyor:
Kısacası AI altyapısı yatay büyümüyor sadece. Aynı zamanda derinleşiyor.
Bir başka önemli kırılma da burada. Uzun süre AI hızlandırma pazarının merkezinde “merchant GPU” modeli vardı. Yani büyük ölçüde dış tedarikçiden alınan genel amaçlı yüksek performanslı GPU’lar.
Fakat artık büyük bulut oyuncuları kendi rotalarını çiziyor:
Bu özel tasarım çipler, daha kontrollü maliyet yapıları ve iş yüküne özel optimizasyon avantajları nedeniyle daha fazla önem kazanıyor. Counterpoint’in değerlendirmesine göre HBM talebindeki sıçramanın temel tetikleyicilerinden biri de bu özel silikon ölçeklenmesi.
Özellikle Google’ın yukarı yönlü revize edilen TPU yol haritası, önümüzdeki dönemde HBM talebini sürükleyen en önemli faktörlerden biri olarak öne çıkıyor.
Bu da AI yarışında rekabetin yalnızca model kalitesiyle değil,
kim kendi altyapı çipini ne hızda ve ne yoğunlukta ölçekleyebiliyor sorusuyla da şekillendiğini gösteriyor.
Counterpoint’e göre HBM3E, 2028’de toplam ASIC HBM talebinin yüzde 56’sını oluşturacak.
Bunun nedeni çok net:
Yani sektör şu an “en uç teknoloji hangisi?” sorusundan çok,
“hangi teknoloji bu ölçekte güvenilir biçimde dağıtılabilir?” sorusuna odaklanmış durumda.
Bu açıdan HBM3E, teorik olarak en ileri seçenek olduğu için değil,
ölçeklenebilir olduğu için öne çıkıyor.
Raporun belki de daha uzun vadeli ve daha stratejik kısmı HBM4 sonrası döneme işaret ediyor.
Counterpoint’in yorumuna göre HBM4 ve özellikle HBM4E ile birlikte pazar giderek daha fazla custom HBM yönüne evrilecek. Yani bellek artık herkese aynı şekilde satılan standart bir bileşen olmaktan çıkıp, belirli müşterilerin ihtiyaçlarına göre şekillenen daha yüksek katma değerli bir ürün haline gelecek.
Bu değişim hafife alınmamalı. Çünkü bu senaryo, bellek üreticileri için iki büyük avantaj doğuruyor:
Yani önümüzdeki yıllarda AI donanım zincirinde yalnızca çip tasarımcıları değil,
bellek üreticileri de stratejik kazananlar arasında olacak.
HBM meselesi yalnızca bellek üretmekten ibaret değil. O belleği gelişmiş paketleme teknolojileriyle ASIC ya da hızlandırıcıya bağlamak gerekiyor.
Burada da kritik aktör TSMC.
Şu anda sektörün büyük bölümü TSMC’nin CoWoS-S ve CoWoS-L çözümlerine dayanıyor. Ancak kapasite baskısı büyüdükçe bu bağımlılık risk üretmeye başlıyor. Bu nedenle Google dahil bazı büyük oyuncuların Intel’in EMIB-T çözümünü değerlendirdiği belirtiliyor.
Bu oldukça önemli bir sinyal. Çünkü eğer Intel burada gerçek bir alternatif yaratabilirse, AI altyapı ekosistemi ilk kez TSMC dışındaki bir gelişmiş paketleme rotasını ciddi biçimde değerlendirmeye başlayabilir.
Ve bu, maliyet, ölçek ve tedarik güvenliği açısından oyunun kurallarını değiştirebilir.
HBM pazarında güç yoğun biçimde birkaç oyuncuda toplanmış durumda.
Counterpoint’e göre SK Hynix ve Samsung önümüzdeki dönemde de pazardaki baskın konumlarını koruyacak.
Ancak burada önemli bir dinamik var.
Samsung’un önceki üretim darboğazlarını daha iyi yönetmeye başlaması, verim tarafında toparlanması ve ürün performansını iyileştirmesi, şirketin AI altyapı dalgasında payını daha agresif biçimde artırabileceğine işaret ediyor.
Öte yandan Micron da bu alanı boş bırakmak istemiyor. Tasarım kazanımları ve kapasite yatırımlarıyla oyuna daha güçlü girme ihtimali taşıyor.
Bu tablo bize şunu söylüyor:
AI çağında yalnızca Nvidia gibi görünen yıldızlara değil,
arka plandaki bellek tedarikçilerine de bakmak gerekiyor.
Bu rapor, yapay zeka altyapı yarışının artık sadece modellerin ya da GPU siparişlerinin yarışı olmadığını gösteriyor.
Asıl rekabet şu üç alanda yoğunlaşıyor:
Başka bir ifadeyle, AI’nın geleceğini yalnızca algoritmalar değil,
fiziksel tedarik zinciri ve donanım mimarisi de belirliyor.
Bugün bu başlık ilk bakışta teknik görünebilir. Ama birkaç yıl içinde bunun etkisi yalnızca veri merkezlerinde değil, AI ürünlerinin maliyetinde, hızında, erişilebilirliğinde ve rekabet yapısında da hissedilecek.
Yani yapay zeka savaşını anlamak isteyen herkesin artık şu soruya dikkat etmesi gerekiyor:
Kim daha iyi model yapıyor değil, kim veriyle belleği daha verimli buluşturuyor?
AI çağında görünmeyen ama belirleyici savaş çoğu zaman perde arkasında yaşanır.
Bugün o savaşın adı açık biçimde belli:
HBM.
2028’e kadar 35 kat büyümesi beklenen bu talep, bize geleceğin AI rekabetinin sadece yazılım değil, aynı zamanda yoğun biçimde bir altyapı ve tedarik savaşı olacağını söylüyor.
Ve görünen o ki bu savaşta kazananlar yalnızca model geliştiricileri olmayacak.
Bellek üreticileri, paketleme devleri ve kendi silikonunu inşa eden bulut şirketleri de yeni dönemin esas güç merkezleri haline gelecek.