Teknoloji dünyasında yapay zekanın kullanım alanları genişlemeye devam ederken, bu kez kötü amaçlı yazılımların da yapay zekadan faydalanmaya başladığına dair önemli bir gelişme yaşandı. Tespit edilen ilk yapay zeka destekli fidye yazılımı, 'PromptLock' olarak adlandırıldı. Bu zararlı yazılım, adından da anlaşılacağı üzere, üretken yapay zeka teknolojisini kullanarak savunma mekanizmalarını atlatmayı ve API takibinden kaçmayı hedefliyor.
Yapılan incelemelere göre PromptLock, OpenAI tarafından geliştirilen açık kaynaklı büyük bir dil modelini (LLM) kullanıyor. Bu model aracılığıyla, Windows, macOS ve Linux sistemlerinde çeşitli işlevleri yerine getirebilen komut dosyaları üretiyor. Yapay zekanın bu şekilde kullanılması, zararlı yazılımın her seferinde biraz farklı davranmasını sağlayarak güvenlik araçlarının onu tanımasını ve engellemesini zorlaştırıyor.
PromptLock'un, önceden belirlenmiş komut istemlerinden (prompt) yararlanarak Lua betikleri ürettiği belirtiliyor. Bu betikler, yerel dosya sistemini taramak, hedef dosyaları incelemek, seçili verileri dışarı aktarmak ve şifreleme işlemleri gerçekleştirmek için kullanılıyor. Güvenlik uzmanları, tespit edilen kullanıcı dosyalarına bağlı olarak verilerin çalınabileceğini, şifrelenebileceğini veya potansiyel olarak silinebileceğini belirtiyor. Ancak, veriyi silme işlevinin henüz tam olarak aktif olmadığı düşünülüyor.
Fidye yazılımları için Lua programlama dilinin seçilmesi ilk bakışta şaşırtıcı gelebilir. Lua, genellikle oyun geliştirme veya metin editörleri için eklenti yazma gibi alanlarda kullanılmasıyla biliniyor. Ancak bu dilin, iyi performans sunması, farklı platformlarda çalışabilmesi ve basit yapısıyla zararlı yazılım geliştiricilerine avantaj sağladığı ifade ediliyor.
Büyük dil modellerinin doğası gereği deterministik olmaması, yani aynı komut verildiğinde bile farklı çıktılar üretebilmesi, PromptLock'un tespit edilmesini zorlaştıran önemli bir faktör. Güvenlik yazılımları, belirli davranış kalıplarını tanıyarak zararlı yazılımları tespit ederken, yapay zekanın sürekli değişen çıktısı bu süreci baltalıyor.
PromptLock'un, OpenAI'nin 'gpt-oss:20b' modelini yerel olarak Ollama API'si üzerinden kullandığı ve bu sayede kötü amaçlı Lua betiklerini anlık olarak ürettiği rapor ediliyor. Modelin yerel olarak çalışması, üretilen betiklerin her kullanımında OpenAI sunucularına bağlanma ihtiyacını ortadan kaldırıyor ve böylece operatörlerin kimliğinin açığa çıkma riskini azaltıyor.
Bu gelişme, yapay zeka teknolojilerinin hem olumlu hem de olumsuz yönlerini bir kez daha gözler önüne seriyor. Bir yandan yapay zeka, savunma mekanizmalarını güçlendirmek ve tehditleri önlemek için kullanılırken, diğer yandan PromptLock örneğinde olduğu gibi kötü niyetli kişiler tarafından da siber saldırıları daha sofistike hale getirmek için kullanılabiliyor.