Qualcomm, veri merkezleri için tasarladığı iki yeni yapay zeka (YZ) hızlandırıcısı olan AI200 ve AI250'yi duyurdu. 2026 ve 2027 yıllarında piyasaya sürülecek olan bu hızlandırıcılar, büyük ölçekli üretken YZ iş yüklerini daha verimli ve daha düşük operasyonel maliyetlerle çalıştırmayı hedefleyerek AMD ve Nvidia'nın sunduğu çözümlerle rekabet edecek. Bu duyuru aynı zamanda Qualcomm'un yıllık ürün güncelleme planını da teyit ediyor.
Qualcomm AI200 ve AI250 hızlandırıcılarının her ikisi de veri merkezi YZ iş yükleri için özel olarak optimize edilmiş Qualcomm Hexagon sinirsel işlem birimlerine (NPU) dayanıyor. Şirket, son yıllarda Hexagon NPU'larını sürekli geliştirerek, en yeni işlemcilerde ölçek, vektör ve tensör hızlandırıcıları (12+8+1 yapılandırması), INT2, INT4, INT8, INT16, FP8, FP16 gibi veri formatları desteği, bellek trafiğini azaltmak için mikro-tile inferencing, 64-bit bellek adreslemesi, sanallaştırma ve ek güvenlik için üretken YZ model şifrelemesi gibi özellikler sunuyor. Hexagon'u veri merkezi iş yükleri için ölçeklendirmek Qualcomm için doğal bir adım olmakla birlikte, AI200 ve AI250 birimleri için belirlenecek performans hedeflerinin ne olacağı merak konusu.
Qualcomm AI200 tabanlı raf ölçekli çözümler, 768 GB LPDDR belleğe sahip olacak ve ölçeklendirme için PCIe ara bağlantılarını, genişletme için ise Ethernet'i kullanacak. Bu sistemler, doğrudan sıvı soğutma ile çalışacak ve raf başına 160 kW güç tüketimi ile beklenmedik bir performans sunacak. Ayrıca, kurumsal kullanımlar için gizli bilgi işlem desteği de sunulacak. Bu çözüm 2026 yılında kullanıcılara sunulacak.
Bir yıl sonra piyasaya çıkacak olan AI250, bu yapıyı korurken, etkili bellek bant genişliğini 10 kattan fazla artırmak için bellek içi işlem mimarisi ekliyor. Ayrıca, işlem ve bellek kaynaklarının kartlar arasında dinamik olarak paylaşılmasını sağlayan ayrıştırılmış inferencing yeteneğini destekleyecek. Qualcomm, AI250'yi AI200 ile aynı termal, soğutma, güvenlik ve ölçeklenebilirlik özelliklerini koruyarak, büyük transformatör modelleri için optimize edilmiş, daha verimli ve yüksek bant genişlikli bir çözüm olarak konumlandırıyor.
Qualcomm Technologies Kıdemli Başkan Yardımcısı ve Genel Müdürü Durga Malladi, konuyla ilgili olarak şunları söyledi: "Qualcomm AI200 ve AI250 ile raf ölçekli YZ inferencing için mümkün olanın sınırlarını yeniden tanımlıyoruz. Bu yenilikçi YZ altyapı çözümleri, müşterilerimizin modern veri merkezlerinin gerektirdiği esnekliği ve güvenliği sağlarken, üretken YZ'yi benzeri görülmemiş toplam sahip olma maliyetiyle (TCO) dağıtmalarını sağlıyor."
Qualcomm, donanım platformlarının yanı sıra, büyük ölçekli inferencing için optimize edilmiş, uçtan uca bir yazılım platformu da geliştiriyor. Bu platformun PyTorch, ONNX, vLLM, LangChain ve CrewAI gibi başlıca makine öğrenmesi ve üretken YZ araç setlerini desteklemesi ve kesintisiz model dağıtımına olanak tanıması bekleniyor. Yazılım yığını, ayrıştırılmış sunma, gizli bilgi işlem ve önceden eğitilmiş modellerin tek tıklamayla eklenmesini destekleyerek dağıtımı basitleştirecek.
Malladi, "Zengin yazılım yığınımız ve açık ekosistem desteğimiz, geliştiricilerin ve işletmelerin optimize edilmiş YZ inferencing çözümlerimiz üzerinde eğitilmiş YZ modellerini entegre etmelerini, yönetmelerini ve ölçeklendirmelerini her zamankinden daha kolay hale getiriyor. Başlıca YZ çerçeveleriyle sorunsuz uyumluluk ve tek tıklamayla model dağıtımı sayesinde, Qualcomm AI200 ve AI250, sorunsuz benimseme ve hızlı inovasyon için tasarlandı." dedi.
Qualcomm'un AI200 ve AI250 raf ölçekli çözümlerinin hangi işlemcileri kullanacağı konusunda ise henüz net bir bilgi paylaşılmadı. Şirket, kendi veri merkezi sınıfı CPU'larının geliştirilmesine bu yılın başlarında başlamıştı. Nuvia ekibinin daha önce bazı CPU mikro mimarisi temel çalışmalarını yapmış olması muhtemel olsa da, mantıksal tasarımı tanımlamak ve geliştirmek, ardından tasarımı uygulamak ve üretmek, son olarak çipi test etmek için zaman gerekecek. Qualcomm'un kendi geliştirdiği CPU'larının en erken 2027 sonlarında veya 2028'de piyasaya çıkması bekleniyor. Ancak AI200'ün, piyasada bulunan bir Arm veya x86 CPU kullanacağı tahmin ediliyor.