Yapay zeka modellerinin bazen gerçek dışı bilgiler üretmesi, yani "halüsinasyon görmesi" sorununun nedenleri artık daha net anlaşılıyor. Son araştırmalar, bu durumun sadece eğitim verilerindeki eksikliklerden değil, aynı zamanda yapay zeka sistemlerinin temel çalışma prensiplerinden kaynaklandığını ortaya koyuyor. Hatta bu sorunun, mevcut haliyle tamamen ortadan kaldırmanın zor olabileceği belirtiliyor.
Dil modelleri, bir sonraki kelimeyi olasılıkları hesaplayarak tahmin etme yöntemiyle çalıştığı için hatalara açık. Araştırmacılar, bu öngörülerin birikmesiyle, sadece tek bir soruya evet/hayır şeklinde yanıt vermeye kıyasla cümle üretirken hata oranının iki katına çıkabildiğini gösteriyor. Bu, yapay zekanın doğru ile yanlış arasındaki ayrımı ne kadar iyi yapabildiğiyle doğrudan ilgili. Bilginin geniş ve karmaşık olduğu alanlarda bu ayrımı yapmak zorlaştıkça, halüsinasyonlar kaçınılmaz hale geliyor.
Bir bilginin eğitim verilerinde ne kadar sık geçtiği de önemli bir faktör. Eğer bir bilgi nadiren görülüyorsa, yapay zekanın o konuda hata yapma olasılığı artıyor. Yapılan testlerde, güncel modellerin, bir araştırmacının doğum tarihi gibi basit bilgilerde bile birden fazla yanlış yanıt verdiği gözlemlendi.
Daha da endişe verici olan, yapay zeka modelleri kullanıcılara sunulmadan önce yapılan geri bildirimlerle dahi halüsinasyonların neden devam ettiğine dair yapılan analizler. Yapılan incelemelerde, yapay zeka modellerini değerlendiren bazı puanlama sistemlerinin, belirsizlik ifade eden yanıtları sıfır puanla değerlendirdiği ortaya çıktı. Bu durum, yapay zekayı "bilmiyorum" demek yerine emin olmadığı konularda bile tahmin yürütmeye zorluyor.
OpenAI'nin önerdiği çözüm ise yapay zekanın kendi cevaplarından ne kadar emin olduğunu hesaba katması ve puanlamanın bu güvenilirlik oranına göre yapılması. Örneğin, yapay zekaya "%75'ten fazla emin olmadığın sürece yanıt verme" gibi bir talimat verilebilir. Bu yaklaşım, teorik olarak halüsinasyonları azaltacaktır. Ancak pratikte, kullanıcıların yapay zekanın sık sık "bilmiyorum" demesi karşısında sistemleri terk etmesi riski bulunuyor.
Halüsinasyonları azaltmak için teknik çözümler mevcut olsa da, en büyük engel "hesaplama maliyeti" olarak öne çıkıyor. Güvenilir tahminler yapabilen ve emin olmadığı konularda soru sorabilen yapay zeka modelleri, mevcut sistemlere göre çok daha fazla işlem gücü gerektiriyor. Bu da özellikle tüketici odaklı uygulamalar için maliyetleri artırıyor. Kritik iş operasyonları veya finansal işlemler gibi alanlarda ise halüsinasyonların maliyeti, daha fazla hesaplama yapmanın maliyetinden daha yüksek olabiliyor.
Sonuç olarak, yapay zeka geliştiricilerinin önceliklerinin, tüketici beklentileriyle uyumlu olarak hızlı ve emin yanıtlar üretmeye odaklanması, halüsinasyonların azaltılmasının önündeki en büyük engel olarak duruyor. Bu motivasyonlar değişmediği sürece, yapay zeka modellerinin uydurma bilgiler üretme eğilimi devam edecektir.