Ara

Yapay Zeka Özetleri Satın Alma Kararını Etkiliyor: %60 Hata Oranına Rağmen İlgi Artıyor!

Yapay zeka (YZ) teknolojisine duyulan güvenin düşük olmasına rağmen, yapılan bir araştırma şaşırtıcı bir sonuca işaret ediyor: Kullanıcılar, yapay zeka tarafından özetlenen ürün yorumlarını okuduktan sonra, insan tarafından hazırlanan özetlere kıyasla bir ürünü satın alma olasılıkları daha yüksek çıkıyor. Bu durum, yapay zekanın ürün bilgileriyle ilgili olarak %60 oranında yanlış bilgi üretme (halüsinasyon) potansiyeline sahip olmasına rağmen yaşanıyor.

California Üniversitesi, San Diego'dan araştırmacılar, bu çalışmanın büyük dil modellerinin (LLM'ler) yarattığı bilişsel yanlılıkların kullanıcı davranışları üzerindeki gerçek sonuçlarını gösteren ilk çalışma olduğunu belirtiyor. Ayrıca, YZ'nin insanları ne ölçüde etkilediğini nicel olarak ölçen ilk proje olduğunu da vurguluyorlar.

Aralık 2025'te, Doğal Dil İşleme Konferansı'nda sunulan araştırma birkaç aşamadan oluştu. İlk olarak bilim insanları, yapay zekadan ürün yorumlarını ve medya röportajlarını özetlemesini istediler, ardından bu özetlerin doğruluğunu teyit etmek için yapay zekadan yeni bilgileri doğrulamalarını talep ettiler. İkinci bir görevde ise yapay zekaya haber metinleri ve bu metinlerin yanlış hazırlanmış versiyonları sunularak benzer bir doğrulama görevi verildi.

Bilim insanları, araştırma bulgularını şu şekilde özetliyor: "Gerçek haberler ve yanlış haberler karşısındaki doğruluk oranına kıyasla tutarlı bir şekilde düşük olan kesin doğruluk, kritik bir sınırlamaya işaret ediyor: Gerçeği kurgudan güvenilir bir şekilde ayırt etme konusundaki kalıcı yetersizlik."

En çarpıcı bulgu ise çevrimiçi ürün yorumlarıyla ilgiliydi. Katılımcılar, bir insan yorumcunun yazdığı özet yerine yapay zeka tarafından oluşturulmuş bir ürün özetini okuduktan sonra bir ürünü satın alma ilgilerini çok daha yüksek oranda dile getirdiler.

Tüketici Yargısı Bozuluyor

Araştırmacılar, insanların YZ özetlerine dayanarak satın alma kararlarını daha olumlu etkilemesinin iki temel nedenini öne sürüyor. Birincisi, LLM'ler girdi metninin başındaki bilgilere daha fazla odaklanma eğiliminde. Bu durum, "ortada kaybolma" olarak bilinen bir fenomen. Araştırmanın baş yazarı, bu durumu önceki çalışmalarında da ele aldığını belirtiyor.

İkinci olarak, LLM'ler eğitim verilerinde yer almayan bilgileri işlerken daha az güvenilir hale geliyor.

Araştırmacılardan biri bir röportajda yaptığı açıklamada, "Modeller, haberin gerçekleşip gerçekleşmediği konusunda genellikle yanlış bilgi veriyor. Eğitimlerinin tamamlanmasından sonra gerçekleşmiş olsa bile bir olayın hiç yaşanmadığını yanlış bir şekilde belirtebilirler," dedi.

Testler sırasında, sohbet botlarının gerçek kullanıcı yorumlarının duygusal tonlarını vakaların %26.5'inde değiştirdiği ve kullanıcılardan yorumlarla ilgili sorular geldiğinde %60 oranında yanlış bilgi ürettiği tespit edildi.

Projede, çok olumlu veya çok olumsuz sonuçlara sahip ürün yorumlarından örnekler seçildi ve 70 katılımcıya ya yaygın tüketici ürünlerinin orijinal yorumları ya da sohbet botları tarafından oluşturulan özetler okutuldu. Orijinal yorumları okuyanlar, verilen ürünü %52 oranında satın alacaklarını belirtirken, yapay zeka tarafından oluşturulan özetleri okuyanlar ise bu oranı %84'e çıkardı.

Projede altı LLM, 1.000 elektronik ürünü yorumu, 1.000 medya röportajı ve 8.500 öğeden oluşan bir haber veritabanı kullanıldı. Yanlılıklar, içerikteki duygu tonundaki değişimler, metnin önceki bölümlerine aşırı güvenme ve hatalı bilgiler verme (halüsinasyon) şeklinde ölçüldü.

Katılımcılar, olumlu ürün yorumu özetlerini okuduklarında, orijinal yorumları okuduklarına kıyasla %83.7 oranında ürünü satın alacaklarını ifade ettiler. Bu oran, orijinal yorumlar için %52.3 olarak ölçüldü.

Bilim insanları, anlatımdaki hafif değişikliklerin bile tüketici yargısını ve satın alma davranışını önemli ölçüde bozabileceği sonucuna vardılar.

Yazarlar, testlerinin düşük riskli bir senaryoda gerçekleştirildiğini kabul etmekle birlikte, etkinin yüksek riskli durumlarda daha da aşırı olabileceği konusunda uyardılar.

Araştırmacılar, "Özetlenen sağlık belgeleri veya okul başvurularındaki öğrenci profilleri gibi bazı yüksek riskli senaryolarda, anlatımdaki değişimler bir kişinin veya davanın algılanışını etkileyebilir," dedi.

Ekip, yaptıkları açıklamada, bu makalenin LLM'ler tarafından insanlara yöneltilen içerik değişikliklerinin dikkatli bir şekilde analiz edilmesi ve azaltılması yönünde bir adım temsil ettiğini ve etkileri hakkında fikir verdiğini belirtti. Bu tür analizlerin, medya, eğitim ve kamu politikası gibi alanlarda sistematik yanlılık riskini azaltabileceği ifade edildi.

Önceki Haber
MacBook Neo'da 512GB SSD Sınırı Aşıldı: 1TB Modifikasyonu Mümkün Ama Herkes İçin Değil!
Sıradaki Haber
Tedarik Zincirindeki Kriz: Çin'in Yasakları ve Orta Doğu Çatışması Çip Hammaddelerine Zam Getirdi!

Benzer Haberler: