Teknoloji devlerinden Intel ve Google, yapay zeka ve bulut altyapılarının geleceğini şekillendirecek çok yıllı bir iş birliği anlaşması yaptı. Bu anlaşma kapsamında Google, yeni nesil yapay zeka (AI) ve bulut altyapıları için Intel Xeon işlemcilerini kullanmaya devam edecek. İş birliği sadece Intel'in gelecek nesil Xeon CPU'larını değil, aynı zamanda Intel ve Google tarafından ortaklaşa tasarlanan özel altyapı işleme birimlerini (IPU'lar) de kapsayacak.
Intel CEO'su Lip-Bu Tan, konuya ilişkin yaptığı açıklamada, "Yapay zekayı ölçeklendirmek hızlandırıcılardan daha fazlasını gerektirir; dengeli sistemlere ihtiyaç duyar. CPU'lar ve IPU'lar, modern yapay zeka iş yüklerinin talep ettiği performansı, verimliliği ve esnekliği sağlamada merkezidir." dedi.
Google halihazırda büyük ölçekli yapay zeka eğitim koordinasyonu, düşük gecikmeli çıkarım ve genel amaçlı hesaplama dahil olmak üzere çeşitli iş yükleri için Intel Xeon 5 ve Intel Xeon 6 işlemcilerini kullanıyor. Intel'in en son Xeon CPU'ları, Google'ın bulut hizmetlerindeki C4 ve N4 örneklerine güç veriyor. Google'ın özel olarak geliştirdiği Armv9 tabanlı Axion işlemcileri daha düşük maliyetle daha fazla kontrol ve verimlilik sağlasa da, Google veri merkezlerinde çalışan birçok iş yükünün x86 mimarisiyle geriye dönük uyumlu olması veya Intel Xeon CPU'ların sunduğu maksimum tek çekirdek performansına ihtiyaç duyması gerekiyor. Bu durumun önümüzdeki yıllarda da devam etmesi bekleniyor, bu nedenle iki şirket bu anlaşmayı imzaladı.
Google, Intel Xeon platformlarını daha verimli hale getirmek ve kendi bulut veri merkezleri için daha uygun hale getirmek amacıyla Intel ile birlikte özel IPU'lar geliştirecek. Bu IPU'lar, ağ oluşturma, depolama ve güvenlik gibi işlevleri ana işlemcilerden (CPU'lar) devralarak daha yüksek performans ve verimlilik sağlayacak. Böylece Intel Xeon platformları, x86 mimarisini yüksek tek çekirdek performansıyla birleştirerek Google'ın yüksek derecede özelleştirilmiş ortamlarında daha rekabetçi hale gelecek.
Google'ın Yapay Zeka Altyapısı Kıdemli Başkan Yardımcısı ve Baş Teknoloji Uzmanı Amin Vahdat, "CPU'lar ve altyapı hızlandırma, eğitim koordinasyonundan çıkarım ve dağıtıma kadar yapay zeka sistemlerinin temelini oluşturmaya devam ediyor." ifadelerini kullandı.
Bu duyuru, büyük bulut sağlayıcılarının ve yapay zeka platformu geliştiricilerinin Arm komut seti mimarisine dayalı kendi özel CPU'larını benimsemeyi hızlandırdığı bir dönemde geldi. Yakın zamanda yapılan bir araştırma, özel silikon işlemciler kullanan yapay zeka sunucularının %90'ının Arm ISA'ya dayanacağını, x86 ve RISC-V'nin ise yaklaşık %10 paya sahip olacağını öngörmüştü. Ancak Intel ve Google'ın bu anlaşması, Xeon CPU'ların özel IPU'larla birlikte yapay zeka ve diğer yoğun iş yükleri için yıllarca kullanılmaya devam edeceğini açıkça ortaya koyuyor.
Intel Xeon işlemcileri, 2000'lerden bu yana bulut altyapısına güç veriyor ve Google'ın kendi sunucularında da kullanılıyor. Bu nedenle x86 mimarisi ve özellikle Xeon, Google veri merkezlerinden kısa sürede ayrılmayacak. Bu anlaşma, Intel Xeon CPU'larının önemini yeniden vurgularken, yıllardır neredeyse tüm hizmetlerinde özel hızlandırıcılar kullanan Google gibi bir şirketten gelen bu mesajın etkisi de önemli ölçüde artıyor.
Vahdat, sözlerine şöyle devam etti: "Intel yaklaşık yirmi yıldır güvenilir bir ortağımız ve onların Xeon yol haritası, iş yüklerimizin artan performans ve verimlilik taleplerini karşılayabileceğimize dair bize güven veriyor."