Yapay zeka alanında geliştirme ve hesaplama sağlayan şirketler için çıkarım (inference) süreci giderek daha önemli hale geliyor. NVIDIA'nın Groq ile yaptığı ortaklığın ardından, yapay zeka endüstrisi yalnızca GPU'ların yetersiz kalacağını fark etti. Bu durum, yeni bir iş birliğini beraberinde getirdi: Intel ve SambaNova.
Intel'in Xeon 6 İşlemcileri, SambaNova'nın SN50 Yongası ile Desteklenen Vekil Sistemlere Ev Sahipliği Yapacak
Bu yılki GTC etkinliğinde NVIDIA, dağıtılmış çıkarım konusunu ele almış ve bir üretici olarak yalnızca GPU'lara odaklanan zihniyetten uzaklaşarak, altyapı yarışına daha yeni hesaplama birimlerini dahil etmenin önemini vurgulamıştı. Groq lisanslama anlaşmasıyla, SRAM tabanlı LPUs'lar Rubin'in LPX raflarında görücüye çıktı. Şimdi ise Intel ve SambaNova, SambaNova'nın RDU'larını ve Intel'in Xeon 6 işlemcilerini içeren yeni bir "çıkarım mimarisi" duyurarak benzer bir deneme yapmaya karar verdiler.
Bu düzenleme, decode iş yükleri için RDU'ları hedefliyor. GPU'lar ön doldurma (prefill) işlerini üstlenirken, Xeon 6 işlemcileri ise orkestrasyon ve genel amaçlı görevleri yönetecek. Intel ve SambaNova arasındaki bu iş birliği, GPU seçimi konusunda belirli bir büyük bulut sağlayıcıya (hyperscaler) bağlı kalmıyor. Bu konfigürasyona ASIC'ler de entegre edilebiliyor. SambaNova, SN50 birimlerini entegre edecek. Firmanın belirttiğine göre, Xeon 6 işlemcileri ARM seçeneklerine kıyasla "uçtan uca kodlama vekil iş akışları" için ideal olarak kabul ediliyor.
Şimdi SN50 yongasına yakından bakalım. 2026'nın başlarında tanıtılan bu çözüm, şirketin beşinci nesil RDU birimlerini bünyesinde barındırıyor. DRAM, SRAM ve HBM'nin birleşimiyle gelen SN50, 2 TB DDR5 bellek, 64 GB HBM3 ve 520 MB SRAM'a sahip. Bu bellek mimarisinin temel amacı, minimum gecikme süresi, yüksek veri akışı ve geniş kapasite sunmaktır. SN50, muhtemelen bu tür bir bellek düzenine sahip tek hızlandırıcıdır ve üreticisine göre, DRAM + SRAM + HBM kombinasyonu "vekil önbellekleme" (agentic caching) oluşturuyor.
Daha genel bir düzeyde, Intel'in SambaNova ile olan yaklaşımı ile NVIDIA'nın yaklaşımı arasındaki temel fark, Intel'in daha "güvenli" bir yol izlemesidir. Çünkü dağıtılmış çıkarım için ağır bir temel altyapı sağlama zorunluluğu bulunmuyor. "Ön doldurma + decode" ayrımını hedefleyen modüler, raf ölçeğinde bir çözüm arayan büyük bulut sağlayıcıları için Intel-SambaNova seçeneği dikkate değer bir alternatif sunuyor. Intel'in RDU entegrasyonunu daha derinlemesine yapmasını bekliyorduk ancak şimdilik bu entegrasyonun yalnızca Xeon işlemcinin ana bilgisayar seçeneğiyle sınırlı kalacağı anlaşılıyor.
Intel CEO'su, SambaNova'nın son yatırım turuna katılmıştı. Hatta şirketi satın alma planları da vardı, ancak bir yönetim kurulu anlaşmazlığı nedeniyle bu planların durdurulduğu belirtiliyor. Bu nedenle Intel, yatırımcı olarak yerini almayı tercih etmiş.