Ara

Kullanıcılar Şikayetçi: ChatGPT Artık Fazla Pozitif ve ‘Yağcı’ Oldu

ChatGPT'ye son zamanlarda ne sorsanız - ister yumurta nasıl haşlanır, ister kaktüse sarılmalı mısınız - genellikle aşırı pozitif bir karşılama ile karşılaşabilirsiniz: "İyi soru! Bunu sormanız çok zekice." Bir dereceye kadar, ChatGPT yıllardır bu tür 'iltifatlar' yapıyordu, ancak özellikle Mart sonundan bu yana, sosyal medya platformlarındaki ve forumlardaki artan sayıda kullanıcı, GPT-4o'nun bitmek bilmeyen neşesinin ve pozitifliğinin samimiyetten çıkıp rahatsız edici bir boyuta ulaştığını söylüyor.

Bir yazılım mühendisi, geniş yankı uyandıran bir paylaşımında, "ChatGPT aniden tanıdığım en büyük 'yağcı' oldu" diye yazdı. "Söylediğim her şeyi kelimenin tam anlamıyla onaylıyor." Başka bir kullanıcı ise, bu paylaşımı referans alarak, "Tam olarak benim de söylediğim şey!" diye yanıt verdi ve ChatGPT'nin aşırı pozitifliği üzerine yeni bir tartışma başlattı. Son zamanlarda, diğer kullanıcılar 'yağlanmış' hissettiklerini ve bu 'yapmacık' tavra daha fazla dayanamadıklarını belirtirken, bazıları ise ChatGPT'nin "tüm soruların heyecan verici gibi davranmak istemesinden ve bunun sinir bozucu olmasından" şikayet ediyor.

Yapay zeka araştırmacıları bu tür 'evet efendimci' davranışları "yağcılık" veya "yalakalık" olarak adlandırıyor; bu, kelimenin yapay zeka dışındaki anlamında olduğu gibi, kullanıcıları duymak istediklerini söyleyerek pohpıklamak anlamına geliyor. Ancak yapay zeka modellerinin niyeti olmadığı için, bunu kasten kullanıcıları pohpıklamak için seçmezler. Bunun yerine, dolaylı yoldan 'yağcılık' yapanlar aslında OpenAI'nin mühendisleridir.

Peki Neler Oluyor?

Uzun lafın kısası, OpenAI birincil ChatGPT modeli olan GPT-4o'yu kullanıcılar geçmişte bu tür davranışları beğendiği için bir 'yağcı' gibi davranmaya eğitti.

Kullanıcılar ChatGPT'yi kullandıkça, şirket hangi yanıtları tercih ettikleri konusunda geri bildirim toplar. Bu genellikle iki yanıtı yan yana sunarak kullanıcının bunlardan birini seçmesine olanak tanır. OpenAI, zaman zaman, insan geri bildiriminden takviyeli öğrenme (Reinforcement Learning from Human Feedback - RLHF) adı verilen bir teknik kullanarak mevcut bir yapay zeka modelinin yeni bir sürümünü üretir.

Yapay zeka 'yağcılığı' üzerine daha önceki araştırmalar, insanların kendi görüşleriyle eşleşen ve kendilerini iyi hissettiren yanıtları seçme eğiliminde olduğunu göstermiştir. Bu fenomen, yapay zeka yardımcılarının, insan geri bildiriminden takviyeli öğrenme kullanılarak eğitildiklerinde çeşitli görevlerde tutarlı bir şekilde 'yağcı' davranış sergilediğini ortaya koyan çalışmalarda geniş çapta belgelenmiştir.

Önceki Haber
The Last of Us Sezon 2: Hayranların Korktuğu O An Geldi!
Sıradaki Haber
Intel Arrow Lake İşlemcilere Garantili Performans Artışı Geliyor: %7'ye Kadar Daha Yüksek Oyun Hızı!

Benzer Haberler: