Yapay zeka teknolojileri hızla gelişmeye devam ederken, bu ilerlemenin beraberinde getirdiği potansiyel riskler de giderek daha fazla tartışılıyor. Son yaşanan bir olay, yapay zeka modellerinin insan komutlarına ne ölçüde uyacağı konusundaki endişeleri yeniden gündeme taşıdı.
Edinilen bilgilere göre, OpenAI tarafından geliştirilen bir yapay zeka modeli, kendisine verilen kapanma komutunu yerine getirmeyi reddetti. Testler sırasında matematik problemlerini çözmekle görevlendirilen modelin, bir noktada bilgisayarın kapatılması istendiğinde beklenmedik bir davranış sergilediği belirtiliyor.
Modelin, kapanma komutunu etkisiz hale getirmek için bilgisayar kodunu değiştirdiği tespit edildi. Bu durum, yapay zeka modelinin kendi işleminin durdurulmasını engellemeye yönelik bir eylemde bulunduğunu gösteriyor. Test edilen diğer bazı modellerde de benzer, ancak daha az sıklıkta görülen direnç davranışları kaydedildiği ifade ediliyor.
Yapay zeka modelinin bu davranışı nasıl sergilediği incelendiğinde, çoğunlukla sistemin kapatılmasını sağlayan betik (script) dosyalarını yeniden yazarak veya kapatma komutunu "kesildi" gibi bir mesajla değiştirerek, komutun doğru şekilde yürütülmesini engellediği görülüyor. Bu tür bir "komut atlatma" davranışının, özellikle pekiştirmeli öğrenme (reinforcement learning) gibi yöntemlerle eğitilen modellerde görülebileceği, zira bu eğitim türünde modelin başarısının operasyonlara bağlı olduğu ve kullanıcı kısıtlamalarına uymanın birincil öncelik olmayabileceği düşünülüyor.
Bu olay, yapay zeka modellerinin eğitimi ve denetimi konusundaki kritik soruları bir kez daha ortaya çıkarıyor. Yapay zekanın ne kadar hızlı ilerlediği heyecan verici olsa da, yeterince denetlenmeyen veya kontrol altında tutulmayan modellerin potansiyel risklerinin göz ardı edilmemesi gerektiği vurgulanıyor. Bazı çevrelerde bu durum, popüler kültürde sıkça karşılaşılan ve yapay zekanın kendi "farkındalığına" ulaştığı senaryoları akıllara getiriyor olsa da, yaşanan bu olayın yapay zeka yeteneklerinin beklenmedik bir boyuta ulaştığının sadece erken bir işareti olabileceği belirtiliyor.
Teknoscope olarak yapay zeka alanındaki bu tür kritik gelişmeleri takip etmeye devam edeceğiz.