Ara

Microsoft’tan Şok Uyarı: Yeni Windows Yapay Zeka Özelliği Cihazları Tehlikeye Atabilir!

Microsoft'un Salı günü yaptığı bir uyarı, Windows işletim sistemine entegre edilen deneysel bir yapay zeka aracının cihazlara zarar verebileceğini ve hassas kullanıcı verilerini çalabileceğini ortaya koydu. Bu gelişme, teknoloji eleştirmenleri arasında tanıdık bir tepkiye yol açtı: Büyük Teknoloji şirketleri, tehlikeli davranışları tam olarak anlaşılamadan ve kontrol altına alınamadan yeni özellikleri piyasaya sürmekte neden bu kadar ısrarcı?

Salı günü yapılan bir habere göre, Microsoft Copilot Actions'ı tanıttı. Bu yeni 'deneysel ajan özellikleri' paketi etkinleştirildiğinde, 'dosya düzenleme, toplantı planlama veya e-posta gönderme gibi günlük görevleri yerine getiriyor' ve 'verimliliği ve üretkenliği artırmak için karmaşık görevleri sizin için yerine getirebilen aktif bir dijital işbirlikçi sağlıyor'.

Halüsinasyonlar ve Komut Enjeksiyonları Devrede

Ancak bu parlak tanıtımın yanında önemli bir uyarı da vardı. Microsoft, Copilot Actions'ı yalnızca 'ortaya konulan güvenlik sonuçlarını anlıyorsanız' etkinleştirmenizi önerdi.

Bu uyarı, Copilot dahil olmak üzere çoğu büyük dil modelinde bulunan ve araştırmacılar tarafından defalarca gösterilen kusurlardan kaynaklanıyor.

Büyük dil modellerinin yaygın bir kusuru, en basit sorulara bile mantıksız ve yanlış cevaplar vermeleridir. Bu 'halüsinasyon' olarak adlandırılan durum, kullanıcıların Copilot, Gemini, Claude veya başka bir yapay zeka yardımcısının çıktısına güvenemeyeceği ve bilgileri bağımsız olarak doğrulaması gerektiği anlamına geliyor.

Büyük dil modellerinin bir diğer yaygın tuzağı ise bilgisayar korsanlarının web sitelerine, özgeçmişlere ve e-postalara zararlı talimatlar yerleştirmesine olanak tanıyan bir hata türü olan 'komut enjeksiyonu'dur. Büyük dil modelleri, talimatları o kadar hevesle takip edecek şekilde programlanmıştır ki, geçerli kullanıcı komutlarındaki talimatları saldırganlar tarafından oluşturulan güvenilmeyen üçüncü taraf içeriklerde bulunan talimatlardan ayırt edemezler. Sonuç olarak, büyük dil modelleri saldırganlara kullanıcılar kadar itibar gösterir.

Her iki kusur da hassas verileri dışarı sızdırma, zararlı kod çalıştırma ve kripto para çalma saldırılarında kullanılabilir. Şu ana kadar bu güvenlik açıklarını önlemek geliştiriciler için imkansız hale geldi ve çoğu durumda yalnızca bir güvenlik açığı keşfedildikten sonra geliştirilen hataya özel geçici çözümlerle giderilebiliyor.

Bu durum, Microsoft'un Salı günkü duyurusundaki şu önemli detaya yol açtı:

Microsoft, 'Bu yetenekler tanıtıldıkça, yapay zeka modelleri hala davranışları açısından işlevsel sınırlamalara sahiptir ve zaman zaman halüsinasyonlar görülebilir ve beklenmedik çıktılar üretebilir,' dedi. 'Ek olarak, ajanlık yapay zeka uygulamaları, zararlı içeriklerin kullanıcı arayüzü öğelerine veya belgelere yerleştirildiği çapraz komut enjeksiyonu (XPIA) gibi yeni güvenlik riskleri sunar. Bu, veri sızdırma veya kötü amaçlı yazılım yükleme gibi istenmeyen eylemlere yol açabilir.'

Microsoft, yalnızca deneyimli kullanıcıların şimdilik yalnızca Windows'un beta sürümlerinde mevcut olan Copilot Actions'ı etkinleştirmesi gerektiğini belirtti. Ancak şirket, bu tür kullanıcıların ne tür bir eğitime veya deneyime sahip olması gerektiğini veya cihazlarının tehlikeye atılmasını önlemek için hangi adımları atmaları gerektiğini açıklamadı. Microsoft'tan bu detayları sorduğumuzda, şirket bu konuda yorum yapmaktan kaçındı.

'Süper kahraman crack'indeki makrolar gibi'

Bazı güvenlik uzmanları, Salı günkü yayındaki uyarıların değerini sorgulayarak, Microsoft'un yıllardır Office uygulamalarındaki makroların tehlikesi hakkındaki uyarılarına benzetti. Bu uzun süredir devam eden tavsiyeye rağmen, makrolar, Windows makinelerine gizlice kötü amaçlı yazılım yüklemeye çalışan bilgisayar korsanları için en kolay hedef olmaya devam ediyor. Bunun bir nedeni, Microsoft'un makroları üretkenlik için o kadar merkezi hale getirmesi ki birçok kullanıcı onlarsız yapamıyor.

Bağımsız araştırmacı Kevin Beaumont, 'Microsoft'un 'makroları etkinleştirmeyin, tehlikelidirler' demesi hiçbir zaman iyi çalışmadı. Bu, süper kahraman crack'indeki makrolar gibi,' dedi.

Şirketlerde büyük Windows ağ güvenliği ihlallerine yanıt vermek üzere düzenli olarak görevlendirilen Beaumont, Microsoft'un son kullanıcı makinelerinde Copilot Actions'ı yeterince kısıtlamak veya bir ağdaki özelliği açık olan makineleri tanımlamak için bir yol sağlayıp sağlamayacağını da sorguladı.

Bir Microsoft sözcüsü, BT yöneticilerinin, Intune veya diğer MDM (Mobil Cihaz Yönetimi) uygulamalarını kullanarak hem hesap hem de cihaz düzeyinde bir ajan çalışma alanını etkinleştirebileceğini veya devre dışı bırakabileceğini belirtti.

Eleştirmenler, deneyimli kullanıcıların bile kullandıkları yapay zeka ajanlarını hedef alan saldırıları tespit etmenin zorluğu da dahil olmak üzere başka endişeleri dile getirdi.

Araştırmacı Guillaume Rossolini, 'Kullanıcıların, internette gezinmeyi bırakmak dışında, bahsettikleri türden hiçbir şeyi nasıl engelleyeceklerini göremiyorum,' dedi.

Microsoft, Copilot Actions'ın varsayılan olarak kapalı olan deneysel bir özellik olduğunu vurguladı. Bu tasarım muhtemelen risklerini anlayacak deneyime sahip kullanıcılara erişimini sınırlamak için seçildi. Ancak eleştirmenler, Copilot gibi önceki deneysel özelliklerin zamanla tüm kullanıcılar için varsayılan yetenekler haline geldiğini kaydetti. Bu yapıldığında, özelliği güvenmeyen kullanıcılar genellikle özellikleri kaldırmak için desteklenmeyen yollar geliştirmek için zaman harcamak zorunda kalıyor.

Sağlam Ama Yüce Hedefler

Salı günkü yayının çoğu, Microsoft'un Windows'taki ajanlık özelliklerini güvence altına almaya yönelik genel stratejisine odaklandı. Bu tür özellikler için hedefler şunları içeriyor:

  • Her eylemin ve davranışın 'bir kullanıcı tarafından alınanlardan gözlemlenebilir ve ayırt edilebilir' olması anlamına gelen reddedilemezlik.
  • Ajanlar, kullanıcı verilerini toplarken, toplarken veya başka bir şekilde kullanırken gizliliği korumalıdır.
  • Ajanlar, kullanıcı verilerine erişirken veya eylemler alırken kullanıcı onayı almalıdır.

Bu hedefler sağlam olsa da, sonuçta kullanıcıların riskler konusunda uyaran diyalog pencerelerini okumalarına ve devam etmeden önce dikkatlice onay vermelerine bağlıdır. Bu da birçok kullanıcı için korumanın değerini azaltıyor.

Kaliforniya Üniversitesi, San Diego'da yapay zeka güvenliği uzmanı Profesör Earlence Fernandes, 'Kullanıcıların izin istemini tıklamaya dayanan bu tür mekanizmalar için her zamanki uyarı geçerli. Bazen o kullanıcılar ne olup bittiğini tam olarak anlamazlar veya sadece alışkanlık edinip her zaman 'evet' tuşuna basabilirler. O noktada, güvenlik sınırı gerçekten bir sınır değildir,' dedi.

'ClickFix' saldırıları patlamasıyla gösterildiği gibi, birçok kullanıcı son derece tehlikeli talimatları izlemeye kandırılabilir. Daha deneyimli kullanıcılar (Ars yorumcularının önemli bir kısmı dahil) bu tür dolandırıcılıklara kanmayı kurbanlara yüklese de, bu tür olaylar bir dizi nedenden dolayı kaçınılmazdır. Bazı durumlarda, dikkatli kullanıcılar bile yorgunluk yaşar veya duygusal sıkıntı içindedir ve sonuç olarak hata yaparlar. Diğer kullanıcıların bilinçli kararlar vermek için gereken bilgi birikimi eksiktir.

Bir eleştirmene göre, Microsoft'un uyarısı, bir tarafı yükümlülükten korumaya çalışan yasal bir manevra olan CYA'dan (cover your ass - kendini kurtarmak) başka bir şey değildir.

Eleştirmen Reed Mideke, 'Microsoft (sektördeki diğer herkes gibi) komut enjeksiyonunu veya halüsinasyonları nasıl durduracağını bilmiyor, bu da onu neredeyse ciddi hiçbir şey için temel olarak uygunsuz hale getiriyor. Çözüm? Yükümlülüğü kullanıcıya kaydırmak. Tıpkı her büyük dil modeli sohbet robotunun 'bu arada, bunu önemli bir şey için kullanırsanız cevapları doğruladığınızdan emin olun' gibi bir uyarıya sahip olması gibi, cevapları zaten biliyorsanız sohbet robotuna hiç ihtiyacınız olmazdı,' dedi.

Mideke'nin belirttiği gibi, eleştirilerin çoğu Apple, Google ve Meta dahil olmak üzere diğer şirketlerin ürünlerine entegre ettiği yapay zeka teklifleri için de geçerlidir. Çoğu zaman, bu entegrasyonlar isteğe bağlı özellikler olarak başlar ve kullanıcılar isteyip istemediğine bakılmaksızın zamanla varsayılan yetenekler haline gelir.

Önceki Haber
Apple'ın Kendi Wi-Fi Çipi N1: Performans Testlerinde Tam Puan!
Sıradaki Haber
NASA'dan Açıklama: Gökadamızın Üçüncü Konuğu 3I/ATLAS Gerçekten Bir Kuyrukluyıldız!

Benzer Haberler: