Ara

Yapay Zeka Kullanıcıları Mantıksal Düşünceyi Bırakıyor: Yeni Araştırma Ortaya Koyuyor

Büyük dil modeli tabanlı araçlar söz konusu olduğunda, kullanıcılar genel olarak iki ana kategoriye ayrılır. Bir yanda, yapay zekayı dikkatli insan denetimi ve yanıtlarındaki mantıksal veya olgusal hataları tespit etmek için inceleme gerektiren güçlü ancak bazen kusurlu bir hizmet olarak görenler var. Diğer yanda ise, her şeyi bilen bir makine olarak gördükleri sisteme düzenli olarak eleştirel düşüncelerini devredenler bulunuyor.

Yakın zamanda yapılan bir araştırma, yapay zekanın otoriter görünen cevaplarına düzenli olarak "bilişsel teslimiyet" gösteren ikinci grubu açıklamak için yeni bir psikolojik çerçeve oluşturuyor. Bu araştırma aynı zamanda insanların eleştirel düşüncelerini yapay zekaya ne zaman ve neden devretmeye istekli olduklarını ve zaman baskısı ve dış teşvikler gibi faktörlerin bu kararı nasıl etkileyebileceğini deneysel olarak inceliyor.

Cevap Makinesine Sormak Yeterli mi?

Araştırmacılar, karar vermeyi "hızlı, sezgisel ve duygusal işlem" (Sistem 1) ile şekillenen bir kategori ve "yavaş, istişari ve analitik muhakeme" (Sistem 2) ile şekillenen bir kategori şeklinde özetleyen mevcut çalışmaları temel alarak yeni bir araştırma yaptı. Araştırmacılara göre, yapay zeka sistemlerinin ortaya çıkışı, kararların insan zihninden ziyade algoritmik sistemlerden kaynaklanan "harici, otomatikleştirilmiş, veriye dayalı muhakeme" tarafından yönlendirildiği "yapay biliş" adı verilen yeni, üçüncü bir kategori yarattı.

Geçmişte insanlar, hesap makinelerinden GPS sistemlerine kadar çeşitli araçları, güvenilir otomatik algoritmaları stratejik olarak kullanarak belirli görevler için bir tür "bilişsel yük boşaltma" amacıyla kullanmış, sonuçları denetlemek ve değerlendirmek için kendi iç muhakemelerini kullanmışlardır. Ancak araştırmacılar, yapay zeka sistemlerinin, kullanıcıların "minimum içsel etkileşim" sağladığı ve bir yapay zeka'nın muhakemesini denetim veya doğrulama olmadan toptan kabul ettiği kategorik olarak farklı bir "bilişsel teslimiyet" biçimine yol açtığını savunuyor. Bu "muhakemenin kendisinin sorgusuz sualsiz reddedilmesi", özellikle bir büyük dil modelinin çıktısı "akıcı, kendinden emin veya minimum sürtünmeyle" sunulduğunda yaygındır.

Bu tür bilişsel teslimiyetin yapay zekaya karşı yaygınlığını ve etkisini ölçmek için araştırmacılar, Bilişsel Yansıtma Testlerine dayanan bir dizi çalışma yürüttüler. Bu testler, katılımcılardan "sezgisel" (Sistem 1) düşünce süreçlerine varsayılan olarak yanlış yanıtlar elde etmek, ancak daha "istişari" (Sistem 2) düşünce süreçlerini kullananlar için cevaplanması nispeten basit olacak şekilde tasarlanmıştır.

Deneyleri için araştırmacılar, CRT sorularına yaklaşık yarı yarıya yanlış yanıtlar verecek şekilde rastgele modifiye edilmiş bir büyük dil modeli sohbet botuna isteğe bağlı erişimi olan katılımcılara sundular. Araştırmacılar, sohbet botunu sık sık kullanan kullanıcıların bu yanlış yanıtların "sezgisel ve istişari süreçleri geçersiz kılacağını", genel performanslarını olumsuz etkileyeceğini ve bilişsel teslimiyetin tehlikelerini vurgulayacağını varsaydılar.

Bir çalışmada, bu modifiye edilmiş yapay zekaya erişimi olan bir deneysel grup, sunulan CRT sorunlarının yaklaşık %50'si için botu kullandı. Yapay zeka doğru cevap verdiğinde, bu yapay zeka kullanıcıları yanıtlarını %93 oranında kabul etti. Ancak yapay zeka rastgele "kusurlu" olduğunda bile, bu kullanıcılar yapay zeka yanıtını hala daha düşük de olsa %80 oranında kabul etti. Araştırmacılara göre bu durum, yapay zekanın varlığının bile sıklıkla "içsel muhakemeyi yerinden ettiğini" gösterdi.

Beklendiği gibi, yapay zeka kullanan deneysel grup, yapay zeka doğru cevaplar verdiğinde "sadece beyin" kontrol grubundan çok daha iyi performans gösterdi ve yapay zeka yanlış cevaplar verdiğinde ise kontrol grubundan çok daha kötü durumda kaldı. Ancak dikkat çekici bir şekilde, yapay zeka kullanan grup, büyük dil modelinin yarı yarıya yanlış cevap vermesine rağmen, kendi cevaplarına olan güven ölçümlerinde %11.7 daha yüksek puan aldı.

Başka bir çalışmada, küçük ödemeler şeklinde teşvikler ve doğru cevaplar için anında geri bildirim eklenmesi, katılımcıların kusurlu yapay zekayı başarıyla geçersiz kılma olasılığını temel seviyeye göre %19 puan artırdı. Bu, belirgin sonuçların yapay zeka kullanıcılarını yanıtları doğrulamak için ek zaman harcamaya teşvik edebileceğini gösteriyor. Ancak 30 saniyelik bir zamanlayıcı şeklinde zaman baskısı eklenmesi, kusurlu yapay zekayı düzeltme eğilimini %12 puan azalttı. Bu durum, araştırmacılara "karar süresi kısıtlı olduğunda, çakışmayı tespit eden ve istişareyi harekete geçiren içsel monitörün tetiklenme olasılığının daha düşük olduğu" anlamına geliyor.

"İnceleme Eşiğini Düşürmek"

Genel olarak, 1.372 katılımcı ve 9.500'den fazla bireysel denemede, araştırmacılar deneklerin kusurlu yapay zeka muhakemesini şaşırtıcı bir şekilde %73.2 oranında kabul ettiğini, yalnızca %19.7 oranında ise bunu reddettiğini buldu. Araştırmacılar, bunun "insanların minimum sürtünme veya şüphecilikle, yapay zeka tarafından üretilen çıktıları karar verme süreçlerine kolayca dahil ettiklerini" gösterdiğini söylüyor. Genel olarak, "akıcı, kendinden emin çıktılar epistomik olarak yetkili kabul edilir, bu da inceleme eşiğini düşürür ve normalde bir yanıtı istişareye yönlendirecek meta-bilişsel sinyalleri zayıflatır."

Ancak bu tür etkiler tüm denekler arasında tekdüze değildi. Sıvı IQ olarak adlandırılan ölçümlerde yüksek puan alanlar, yapay zekaya yardım için daha az güvendiler ve danışıldığında kusurlu yapay zekayı reddetme olasılıkları daha yüksekti. Diğer yandan, yapay zekayı bir ankette otoriter görmeye eğilimli olanlar, kusurlu yapay zeka tarafından sağlanan yanlış cevaplardan çok daha fazla etkilendiler.

Buna rağmen, araştırmacılar "bilişsel teslimiyetin doğası gereği mantıksız olmadığını" vurguluyor. Yarı yarıya yanlış olan bir büyük dil modeline güvenmenin (bu deneylerdeki gibi) bariz dezavantajları olsa da, araştırmacılar "istatistiksel olarak üstün bir sistemin", özellikle "olasılıksal ortamlarda, risk değerlendirmesinde veya kapsamlı verilerde" insanüstü sonuçlar verebileceğini öne sürüyor.

Araştırmacılar, "güven arttıkça, performans yapay zeka kalitesini takip eder; doğru olduğunda yükselir ve kusurlu olduğunda düşer. Bu, süper zekanın vaatlerini gösterir ve bilişsel teslimiyetin yapısal bir zayıflığını ortaya çıkarır." diyor.

Başka bir deyişle, bir yapay zekanın sizin yerinize muhakeme yapmasına izin vermek, sizin muhakemenizin yalnızca o yapay zeka sistemi kadar iyi olacağı anlamına gelir. Her zaman olduğu gibi, komutu veren kişi dikkatli olmalı.

Önceki Haber
Ay-Dünya Arasında Kozmik Işınlar İçin Gizemli Boşluk Keşfedildi
Sıradaki Haber
Yapay Zeka Yarışında Trump'ın Göz Ardı Ettiği Büyük Engeller: Veri Merkezleri Neden Yetersiz Kalıyor?

Benzer Haberler: