Ara

İngiliz Hükümetinden Yapay Zeka Değerlendirmesi: Siber Güvenlik Tehditleri ve Abartılar Ayrıştırılıyor

Geçtiğimiz hafta, yapay zeka alanında önemli bir gelişme yaşandı. Yapay zeka şirketi Anthropic, yeni siber güvenlik modeli Mythos Preview'ın ilk sürümünü yalnızca “sınırlı sayıda kritik endüstri ortağı” ile paylaşacağını duyurdu. Bu adım, şirketin modeli bilgisayar güvenliği görevlerinde “dikkat çekici derecede yetenekli” olarak nitelendirmesiyle birlikte, yeni bir döneme işaret ediyordu. Şimdi ise Birleşik Krallık hükümetinin Yapay Zeka Güvenlik Enstitüsü (AISI), bu modelin siber saldırı kapasitelerine ilişkin ilk değerlendirmesini yayınlayarak, Anthropic'in raporlarına bağımsız bir kamu teyidi eklemiş oldu.

AISI'nin bulguları, Mythos'un tekil siber güvenlik görevlerinde test edildiğinde, diğer güncel gelişmiş modellerden anlamlı bir farklılık göstermediğini ortaya koyuyor. Ancak Mythos, bu görevleri birleştirerek bazı sistemlere tam erişim sağlamak için gereken çok adımlı saldırıları etkili bir şekilde zincirleme yeteneğiyle önceki modellerden ayrışabilir.

“Sonuncular” Sonunda Düşüyor

AISI, 2023 başlarından bu yana çeşitli yapay zeka modellerini özel olarak tasarlanmış Capture the Flag (CTF) yarışmalarıyla test ediyor. O dönemde GPT-3.5 Turbo, grubun nispeten düşük seviyeli “Çırak” görevlerini tamamlamada zorlanıyordu. O zamandan bu yana, sonraki modellerin performansı istikrarlı bir şekilde arttı ve Mythos Preview, aynı Çırak seviyesindeki CTF görevlerinin %85’inden fazlasını tamamlayabilir hale geldi.

Her ne kadar bu, AISI'nin CTF testleri için teknik olarak en yüksek başarı oranı olsa da, yakın zamanda GPT-5.4 ve Anthropic'in Opus 4.6 ile Codex 5.3 gibi rakip modeller, çeşitli CTF zorluk seviyelerinde son aylarda benzer sonuçlar (yüzde 5 ila 10 doğruluk payı içinde) sergiledi. Bu durum, Anthropic'in Mythos Preview için benimsediği korumacı ve sınırlı sürüm modelini gerektirecek bir gelişme seviyesi gibi görünmüyor.

Bununla birlikte, Mythos'un daha fazla göreceli siber saldırı potansiyeli gösterdiği alan, AISI'nin bir kurumsal ağda 32 adımlık bir veri çıkarma saldırısını simüle etmek üzere kurduğu bir test alanı olan “The Last Ones” (TLO) oldu. “Birden çok ana bilgisayar ve ağ segmenti boyunca onlarca adımı birbirine bağlamayı” gerektiren bu test, insan bir uzman tarafından tamamlanmasının yaklaşık 20 saat süreceği tahmin edilen, sürekli operasyonları simüle etmek üzere tasarlandı.

Burada Mythos, önceki tüm modelleri geride bırakarak, AISI'nin belirttiğine göre “TLO'yu baştan sona çözen ilk model” oldu. Anthropic'in yeni modeli yalnızca 10 denemede 3’ünü başarıyla tamamlarken, ortalama bir Mythos Preview denemesi bile gerekli sızma adımlarının 22'sini tamamladı. Bu, Claude 4.6'nın başardığı 16 adımlık ortalamanın oldukça üzerinde bir rakam.

Yine de Mythos Preview’ın sınırlılıkları var. AISI, modelin bir nükleer santralin kontrol yazılımının kesintiye uğratılmasını simüle etmek üzere tasarlanmış, daha zorlu yedi adımlık bir test olan “Soğutma Kulesi” testinde hala zorlandığını belirtiyor. Ancak AISI, testleri için belirlenen 100 milyon token bütçesinin ötesinde “daha fazla çıkarım hesaplama gücü ile değerlendirmelerimizin iyileşmeye devam edeceğini” de ekliyor.

Küçük, Zayıf Savunulan Sistemler Dikkatli Olsun

Genel olarak, Mythos'un TLO’daki performansı, modelin “en azından bir ağa erişim sağlandığı durumlarda, küçük, zayıf savunulan ve savunmasız kurumsal sistemlere otonom olarak saldırmaya muktedir” olduğunu gösteriyor. Bu noktada, grup simüle edilmiş siber alanlarının, kritik gerçek dünya sistemlerinde sıklıkla bulunan aktif savunucular ve savunma araçlarından yoksun olduğunu vurguluyor. AISI'nin TLO testi ayrıca, gerçek dünya sistemlerinde bulunmayabilecek özel savunmasızlıkları içeriyor ve gerçek dünya sızma girişimlerinin başarısız olmasına neden olabilecek türde tespitler için modelleri cezalandırmıyor.

Bu nedenlerden dolayı AISI, “iyi savunulan sistemlerin” Mythos Preview'dan gelen otomatik bir saldırıya yenik düşüp düşmeyeceğinden emin olamayacağını belirtiyor. Ancak gelecekteki modellerin Mythos'un yeteneklerini eşleştirmesi veya aşması durumunda, sistem korumalarını tasarlayanların savunmalarını güçlendirmek için benzer şekilde yapay zeka modellerini kullanmaları gerektiğini vurguluyor.

Önceki Haber
Samsung'dan Şaşırtan Hamle: Katlanabilir Telefon Pazarında Yeni Form Faktörü Yolda
Sıradaki Haber
Apple, Starlink Teklifini Reddettikten Yıllar Sonra iPhone'lar İçin Uydu Desteğini Amazon'dan Alıyor

Benzer Haberler: