Ara

Yapay Zeka Kodlama Yarışında Minesweeper Şoku: Codex Zirvede, Gemini Çakıldı!

Yapay zeka alanındaki baş döndürücü gelişmeler ve şirketlerin bu alana yaptığı devasa yatırımlar devam ederken, bu çabaların somut sonuçları neler sunuyor merak ediliyor. Son zamanlarda popüler teknoloji haber sitesi Ars Technica, web için Minesweeper oyunu yapma gibi basit görünen ancak zekice çözümler gerektiren bir görevle dört yapay zeka kodlama aracını karşılaştırdı. Hedef, ses efektleri, mobil dokunmatik ekran desteği ve eğlenceli bir oyun içi yenilik sunmaktı.

Minesweeper, mantık yürütme, iyi tasarlanmış kullanıcı arayüzü ve tatmin edici bir zorluk seviyesini bir araya getiren bir oyundur. Temel mekanikleri insan zekasının bir seviyesini gerektirdiği için, yapay zekanın bu oyunu ne kadar iyi kopyalayabileceği ilgi çekici bir test niteliğindeydi.

Testte yer alan yapay zeka kodlama araçları arasında Anthropic'ten Claude Code, Google'dan Gemini CLI, Mistral Vibe ve OpenAI'nin GPT-5 tabanlı Codex'i bulunuyordu. Tüm araçlara aynı talimatlar verildi ve ilk denemelerinde ürettikleri kodlar değerlendirmeye alındı. İkinci bir şans veya insan müdahalesi söz konusu olmadı.

OpenAI Codex - 9/10 🏅

Açık ara en başarılı performans gösteren araç OpenAI'nin Codex'i oldu. Codex, sadece görselleri iyi bir şekilde oluşturmakla kalmadı, aynı zamanda deneyimli oyuncuların favorisi olan ve doğru bayrak yerleşimiyle çevredeki tüm kareleri açığa çıkaran "chording" özelliğini de ekleyen tek yapay zeka oldu. Bu özelliğin eksikliği, Minesweeper oyunlarının daha az gelişmiş hissedilmesine neden olabiliyor.

Codex tarafından oluşturulan oyunda ses açma/kapama düğmesi, döneme uygun ses efektleri ve hem mobil hem de masaüstü için ekran talimatları gibi tüm düğmeler düzgün çalışıyordu. Oyun içi yenilik olarak ise, "Şanslı Tarama" adında, oyuncu hak ettiğinde güvenli bir kareyi ortaya çıkaran bir düğme eklendi.

Codex ile kodlama deneyimi de oldukça akıcıydı. Komut satırı arayüzü güzel animasyonlara ve yerel izin yönetimine sahipti. Ars Technica, bu çalışmanın minimum insan müdahalesiyle yayınlanmaya hazır bir ürüne en yakın olduğunu belirtti ve 9/10 gibi etkileyici bir puan verdi.

Claude Code - 7/10

İkinci sırada yer alan Anthropic'in Claude'u, Codex'ten yarı sürede kod üreterek daha estetik açıdan hoş bir ürün sundu. Grafik tasarımları en rafine görünen versiyondu ve bomba simgesi ile üstte yer alan cihazdan bağımsız gülen emoji dikkat çekiyordu. Ses efektleri de hoştu ve açma/kapama düğmesi hem mobil hem de masaüstünde iyi çalıştı.

Ancak, chording desteğinin olmaması "kabul edilemez" olarak değerlendirildi. Oyun içi yenilik olarak "Güç Modu" sunuluyordu ve bu, yapay zekanın yaratıcılığını gerektiren basit güçlendirmeler sağlıyordu. Mobil cihazlarda, kareleri işaretlemek için uzun basmaya alternatif olarak "Bayrak Modu" düğmesi de bulunuyordu.

Deneyimleyenlere göre, bu en iyi hissiyatı veren klondu. Claude Code'un Opus 4.5 modeli Minesweeper kopyasını 5 dakikadan kısa sürede oluşturmuştu ve en temiz kodlama arayüzüne sahipti. Genel olarak sunumu oldukça sağlamdı ve chording özelliği olsaydı puanı daha da yükselebilirdi. Bu nedenle 7/10 puan aldı.

Mistral Vibe - 4/10

Üçüncü sırada yer alan Mistral'in Vibe'ı, ismiyle müsemma bir ürün ortaya koydu. Oyun çalışıyor ve iyi görünüyordu, ancak önemli chording özelliğinden yoksundu ve ses efektleri içermiyordu. Ayrıca, işe yaramayan bir "Özel" düğmesi de bulunuyordu. Vibe, eğlenceli oyun içi yenilikler de eklememişti, bu da puanını düşürdü.

Üstteki gülen emoji tamamen siyahtı ve test edenleri rahatsız etti. "Uzman" modu seçildiğinde, oyun alanı kare arka planın dışına taşıyordu, ancak bu sadece görsel bir hataydı. Masaüstünde sağ tıklayarak bayrak yerleştirilebiliyordu, ancak mobil cihazlarda basılı tutmak gerekiyordu ki bu bazen cihazın bağlam menüsünü açabiliyordu (bu durumda açmadı).

Kodlama arayüzü sağlam ve kullanımı kolaydı, ancak hız açısından en iyisi değildi. Yine de, diğer büyük isimlerin kaynaklarına sahip olmamasına rağmen performansı etkileyiciydi. Sonuç olarak Mistral Vibe, 4/10 puan aldı.

Google Gemini - 0/10 ❌

Sonuncu sırada ise Google'ın Gemini CLI'ı yer aldı. Google'ın son zamanlardaki kıyaslama testlerinde sıkça zirvede yer alması ve kurucularından Sergey Brin'in yapay zeka alanındaki geri dönüşü göz önüne alındığında, bu sonuç bazıları için şaşırtıcı olabilir. Gemini'nin Minesweeper kopyası maalesef çalışmıyordu. Düğmeleri vardı ama oyunu oynamak veya puanlamak için kareler yoktu.

Görsel açıdan, Claude Code'un sonuçlarına oldukça benziyordu; sanki yapay zeka kodlama sırasında yarıda bırakılmış gibiydi. Gemini en uzun süreyi alan araç oldu; her kod çalıştırması bir saat sürdü ve sürekli harici bağımlılıklar talep etti. HTML5 kullanması yönünde talimatlarla ikinci bir şans verildiğinde bile, kullanılabilir bir sonuç üretemedi.

Ars Technica, Gemini CLI'nın en son Gemini 3 kodlama modellerine erişimi olmadığını ve bunun yerine Gemini 2.5 sistemlerini kullandığını belirtti. Belki de Google'ın daha üst seviye yapay zeka hizmetlerini kullanmak daha olumlu bir sonuç verebilirdi, ancak mevcut test sonuçları yine de oldukça hayal kırıklığı yarattı.

Sonuç olarak, yapay zekanın hafıza fiyatlarını katladığı ve bilgisayarları zorladığı bir dönemde, Codex açık ara kazanan olurken, Mistral Vibe ve Claude Code onu yakından takip etti. Google ise denemeye bile değer görmedi. Bu deneyim, yapay zekaya henüz tam olarak inanmayanları ikna etmekten uzak.

Önceki Haber
Çinli Teknoloji Devleri, ABD Kısıtlamalarına Rağmen NVIDIA'nın En Yeni Yapay Zeka Çiplerine Ulaşıyor: Kirala-Kullan Yöntemi Devrede!
Sıradaki Haber
ASML'in EUV Teknolojisi Sağlık Alanında Devrim Yaratabilir: Nanogözenek Üretimi Başladı

Benzer Haberler: