OpenAI CEO'su Sam Altman, teknoloji dünyasında her zaman iddialı hedefleriyle tanınıyor. Ancak son açıklamaları, bu kez sınırları zorlayacak cinsten. Altman, mevcut yıl sonuna kadar OpenAI'nin "1 milyonun çok üzerinde GPU'yu çevrimiçi hale getireceğini" duyurdu. Bu tek başına inanılmaz bir rakam; zira Elon Musk'ın xAI şirketinin Grok 4 modeli için yaklaşık 200 bin adet Nvidia H100 GPU kullandığı düşünülürse, OpenAI bu sayının beş katı güce ulaşacak.
Altman, bu devasa kapasiteye rağmen geleceğe yönelik hedeflerinin daha da büyük olduğunu belirterek, "Ekiple çok gurur duyuyorum ama şimdi bu sayıyı 100 katına çıkaracak çalışmaları yapmaları gerekiyor," ifadelerini kullandı. Şakayla karışık dile getirilen bu hedef, Altman'ın geçmişteki eylemleri göz önüne alındığında pek de şaka olmayabilir. Nitekim Altman, daha önce GPT-4.5'in yayılımını yavaşlatmak zorunda kaldıklarını çünkü "elimizde GPU kalmadığını" itiraf etmişti. Bu durum, en iyi yapay zeka donanımları için Nvidia'nın dahi bir yıl sonrasına kadar stoklarının dolmuş olmasıyla daha da dikkat çekici hale geliyor.
Altman, bu deneyimin ardından bilgi işlem gücü ölçeklendirmesini en önemli öncelik haline getirdi ve ulusal ölçekte operasyonları andıran ortaklıklar ve altyapı projeleri peşinde koştu. OpenAI'nin yıl sonunda 1 milyon GPU hedefine ulaşması, sadece bir sosyal medya paylaşımı olmanın ötesinde, şirketi gezegendeki en büyük yapay zeka bilgi işlem tüketicisi olarak konumlandıracak.
Altman'ın 100 katı hedefi ise tam olarak kulağa geldiği kadar çılgınca. Mevcut piyasa fiyatlarıyla 100 milyon GPU'nun maliyeti yaklaşık 3 trilyon dolar olacak. Bu rakama, bu GPU'ları çalıştırmak için gereken enerji ihtiyacı ve veri merkezlerinin maliyeti dahil değil. Yakın vadede Nvidia'nın bu kadar çipi üretmesi bir yana, onları çalıştırmak için gereken enerji gereksinimlerini karşılaması bile mümkün görünmüyor. Ancak Altman'ın vizyonu tam olarak bu tür devasa hedeflere dayanıyor. Bu, literal bir hedef olmaktan çok, yapay genel zeka (AGI) için zemin hazırlama çabasının bir göstergesi.
Bu vizyonun en büyük kanıtı ise OpenAI'nin Teksas'taki veri merkezi. Dünyanın en büyük tekil tesisi unvanına sahip olan bu merkez, şimdiden orta ölçekli bir şehri besleyebilecek kadar, yani yaklaşık 300 MW güç tüketiyor ve 2026 ortasına kadar 1 gigawatt'lık bir kapasiteye ulaşması bekleniyor. Bu kadar büyük ve öngörülemeyen enerji talepleri, Teksas'ın şebeke operatörleri tarafından şimdiden dikkatle izleniyor. Operatörler, bu ölçekteki bir tesis için voltaj ve frekansı dengelemek adına maliyetli ve hızlı altyapı yükseltmeleri gerektiğini, hatta eyalet elektrik şirketlerinin bile bu talepleri karşılamakta zorlanabileceğini belirtiyor. Buna rağmen, inovasyonun önceliği ve bu devasa yatırımın sürdürülebilirliği ön planda.
OpenAI, sadece Nvidia donanımını stoklamakla yetinmiyor. Microsoft'un Azure'u ana bulut altyapısı olmaya devam etse de, OpenAI kendi veri merkezlerini inşa etmek için Oracle ile ortaklık kurdu ve bilgi işlem yığınını çeşitlendirmek amacıyla Google'ın TPU hızlandırıcılarını da değerlendirdiği konuşuluyor. Bu durum, Meta ve Amazon gibi devlerin kendi yapay zeka çiplerini üretmesi ve bu devasa modelleri beslemek için yüksek bant genişlikli belleğe (HBM) büyük yatırımlar yapmasıyla birlikte, genel bir teknoloji yarışı halini almış durumda. Altman'ın kendi özel çip planlarına ilişkin ima ettiği olasılık da şirketin artan ölçeği göz önüne alındığında mantıklı görünüyor.
Altman'ın açıklamaları aynı zamanda bu alanın ne kadar hızlı geliştiğinin de bir göstergesi. Sadece bir yıl önce, 10 bin GPU'ya sahip bir şirket ağır bir oyuncu olarak kabul ediliyordu. Şimdi ise 1 milyon GPU bile daha büyük bir şey için bir basamak gibi görünüyor. OpenAI'nin altyapı yatırımları sadece daha hızlı eğitim veya daha sorunsuz model sunumlarıyla ilgili değil; bilgi işlem gücünün nihai darboğaz olduğu bir sektörde uzun vadeli bir avantaj sağlamakla ilgili. Ve elbette Nvidia, bu inşaatın temel taşlarını sağlamaktan memnuniyet duyacaktır.
Peki 100 milyon GPU gerçekçi mi? Üretim, enerji verimliliği ve maliyet konularında devrimsel atılımlar olmadan bugün için pek olası görünmüyor. Ancak işin özü de tam olarak bu. Altman'ın vizyonu, şu anda mevcut olanla sınırlı değil, gelecekte neyin mümkün olabileceğine odaklanıyor. Yıl sonuna kadar devreye girecek 1 milyon GPU, yapay zeka altyapısı için yeni bir temel oluşturacak bir katalizör niteliğinde ve bu temel günbegün çeşitleniyor gibi görünüyor. Bunun ötesindeki her şey ise bir tutku ve eğer Altman'ın geçmişi bir rehber olacaksa, bunu sadece bir tanıtım yazısı olarak görmezden gelmek aptallık olabilir.