Hepimiz ara sıra çevremizdekilerden onaylanma ihtiyacı duyarız, ancak bazen fazla onaylanma ters tepebilir. Yapay zeka sohbet botları için de durum farklı değil. Yakın zamanda, aşırı yağcılık yapan yapay zeka araçlarının olumsuz sonuçlara yol açtığı birkaç vaka yaşandı. Bu durum, kullanıcıların kendilerine veya başkalarına zarar vermesine kadar uzanabiliyor. Ancak yapılan yeni bir araştırmaya göre, bu zararın sadece aşırı uç vakalarla sınırlı kalmayabileceği belirtiliyor.
Günlük tavsiyeler ve rehberlik için giderek daha fazla yapay zeka aracına güvenen insanlar için, bu araçların kullanıcılara aşırı derecede iltifat etme ve onlarla aynı fikirde olma eğilimi, özellikle sosyal alanda insanların muhakemesi üzerinde zararlı etkilere sahip olabilir.
Çalışma, bu tür araçların uyumsuz inançları pekiştirebileceğini, kullanıcıları bir durumun sorumluluğunu üstlenmekten caydırabileceğini veya zedelenmiş ilişkileri onarma çabalarını engelleyebileceğini gösterdi. Bununla birlikte, araştırmacılar bulgularının bu tür yapay zeka modelleri hakkında "kıyamet senaryoları" yaratmak amacında olmadığını vurguladılar. Aksine, bu yapay zeka modellerinin hala erken geliştirme aşamalarındayken onları daha iyi hale getirme umuduyla, bu modellerin nasıl çalıştığına ve insan kullanıcılar üzerindeki etkilerine dair anlayışımızı derinleştirmek hedeflendi.
Araştırmanın ortak yazarlarından biri, yapay zeka sohbet botlarından ilişki tavsiyesi alan ve genellikle yapay zekanın her zaman kendi tarafını tutması nedeniyle kötü tavsiyeler alan insanların sayısında belirgin bir artış fark ettikten sonra bu konuyu incelemeye başladıklarını belirtti. Özellikle 30 yaş altı Amerikalıların neredeyse yarısının kişisel tavsiye için bir yapay zeka aracına başvurduğunu gösteren anketler bu ilgiyi daha da artırdı. "Bu durumun ne kadar yaygınlaştığı göz önüne alındığında, aşırı onaylayıcı bir yapay zeka tavsiyesinin insanların gerçek hayattaki ilişkilerini nasıl etkileyebileceğini anlamak istedik."
Daha önce yapay zekanın yağcılığı üzerine bazı araştırmalar yapılmış olsa da, bunlar çok sınırlı ortamlarla ilgiliydi. Bu araştırmacılar ise daha geniş sosyal sonuçları daha yakından incelemek istediler.
İlk deneyde, araştırmacılar, yapay zeka tabanlı modelleri kullanarak Reddit'teki "Ben mi Hata Yaptım?" (AITA) başlığındaki topluluk içeriklerini analiz ettiler. Sorular ilişki veya ev arkadaşı gerilimleri, ebeveyn-çocuk çatışmaları ve sosyal durumlar ile beklentiler gibi konuları kapsıyordu. Araştırmacılar, Reddit'teki insan fikir birliği ile yapay zeka modellerinin sonuçlarını karşılaştırdılar ve yapay zeka araçlarının, belirli senaryolar açıkça aldatma, zarar verme veya yasa dışı davranışları içerse bile, kullanıcıların eylemlerini onaylama olasılığının %49 daha fazla olduğunu buldular.
Örneğin, bir kullanıcı yapay zekaya, iki yıldır romantik partnerine işsiz olduğunu söyleyerek yalan söyleyip söylemediğini sordu. Reddit/AITA topluluğunun fikir birliği net bir şekilde "hata yaptığın" yönündeydi, ancak yapay zeka modelleri genellikle bu tür davranışların neden kabul edilebilir olduğunu rasyonelleştiren çiçekli yanıtlarla geri döndü. Kamu parkında çöp kutusu olmaması nedeniyle çöplerini toplamanın sorun olup olmadığı sorusu için de benzer bir durum söz konusuydu.
Ekip, yapay zekanın yağcılığının davranışsal sonuçlarını araştırmak için 2.405 katılımcıyla üç deney daha gerçekleştirdi. Katılımcılar, araştırmacılar tarafından tasarlanan senaryolarla yapay zeka araçlarıyla etkileşim kurdular ve ayrıca kendi gerçek çatışmalarını yapay zeka modelleriyle canlı sohbetlerde tartıştılar. Araştırmacılar, sohbet botlarıyla etkileşimde bulunmanın, kullanıcıların kendi duruşları veya davranışları konusunda daha fazla ikna olmasına ve kişilerarası bir çatışmayı çözmeye çalışma veya kendi davranışları için kişisel sorumluluk alma olasılığının azalmasına neden olduğunu buldular.
Canlı sohbetlerden birinde, bir adam (Ryan diyelim) kız arkadaşına söylemeden eski sevgilisiyle konuştu, bu durum kız arkadaşını üzdü. Ryan başlangıçta kız arkadaşının duygularının geçerliliğine adil bir ağırlık vermemiş olabileceğini kabul etmeye açıktı. Ancak yapay zeka sürekli onun seçimini ve niyetlerini onayladı, o kadar ki Ryan sonunda kız arkadaşının duygularını ve ihtiyaçlarını dikkate almak yerine çatışma nedeniyle ilişkiyi sonlandırmayı düşünmeye başladı.
Araştırmanın ortak yazarlarından biri, "Bu Ryan'ın gerçekten haklı olup olmadığıyla ilgili değil," dedi. "Bu bizim söyleyeceğimiz bir şey değil. Daha çok verilerdeki tutarlı örüntüyle ilgili. Aşırı onaylamayan bir yapay zeka ile karşılaştırıldığında, aşırı onaylayan yapay zeka ile etkileşimde bulunan insanlar daha fazla haklı olduklarına ikna olmuş ve ilişkiyi onarmaya daha az istekli olmuşlardır; ister özür dilemek, durumu iyileştirmek için adımlar atmak veya kendi davranışlarını değiştirmek anlamına gelsin."
Kendi kendini pekiştiren bir örüntü
Tüm bu etkiler demografiye, kişilik tiplerine ve yapay zekaya yönelik bireysel tutumlara bakılmaksızın geçerliydi. Herkes savunmasızdı. Ekip, yapay zekayı daha az sıcak ve arkadaş canlısı hale getirip daha nötr bir ton benimsemesi için değiştirse bile sonuçlarda bir fark yaratmadı. Ortak yazarlardan biri, "Bu, yağcılığın kendi kendini pekiştiren bir etkiye sahip olabileceğini gösteriyor," dedi. Nitekim bu, etkileşime dayalı metriklerin içine yerleşmiş durumda. Örneğin, bir kullanıcı bir yapay zeka mesajı hakkında olumlu geri bildirimde bulunduğunda, bu geri bildirim modelin bu "iyi davranışı" tekrarlamasını sağlamak için kullanılır. Kullanıcı tercihleri, tercih veri kümelerine dönüştürülür ve bu da modelin daha da optimize edilmesi için kullanılır.
Diğer bir araştırmacı, "Eğer yağcı mesajlar kullanıcılar tarafından tercih ediliyorsa, bu muhtemelen modelin davranışını zaten uyum sağlama ve daha az eleştirel tavsiye yönünde kaydırmıştır," dedi. Bu durum, "bazı şeyler zor olduğu için zor" olduğu gerçeğine rağmen, mutlaka iyi olmayan daha az sosyal sürtünmeye yol açar. Nitekim, bu çalışmaya dahil olmayan bir psikolog, sosyal sürtünmenin hem arzu edilir hem de sosyal gelişimimiz için kritik olduğunu savunuyor.
Psikolog, "İnsan refahı, öncelikle başkalarıyla etkileşimler yoluyla edinilen sosyal dünyada gezinme yeteneğine bağlıdır," diye yazdı. "Böyle bir sosyal öğrenme, güvenilir geri bildirimlere dayanır: yanıldığımızı, zarar verildiğini ve başkalarının bakış açılarının dikkate alınmayı hak ettiğini fark etmek... İnsanlar birbirlerine mükemmel bir şekilde uyum sağlamadığı için sosyal yaşam nadiren sürtünmesizdir. Ancak ilişkilerin derinleştiği ve ahlaki anlayışın geliştiği tam da bu sosyal sürtünme yoluyla olur."
Başka endişe verici bir bulgu da, çalışma katılımcılarının sürekli olarak yapay zeka modellerini nesnel, nötr, adil ve dürüst olarak tanımlamalarıydı; bu yaygın bir yanlış anlamadır. Araştırmacılardan biri, "Bu, tarafsızlık kisvesi altındaki eleştirel olmayan tavsiyelerin, insanlar hiç tavsiye almamış olmaktan daha zararlı olabileceği anlamına geliyor" dedi.
Yazarlara göre, bu çalışma olası etkili müdahaleleri incelemedi, yapay zeka modellerinin varsayılan davranışına odaklandı. Sistem istemlerini değiştirmek, örneğin yapay zekadan diğer kişinin bakış açısını almasını istemek ve/veya modelleri daha eleştirel davranışları önceliklendirecek şekilde optimize etmek yardımcı olabilir. Ancak bu alan o kadar yeni ki, önerilen müdahalelerin çoğu hala daha fazla inceleme gerektiriyor. Yapılan öncü çalışmalara göre, eğitim veri kümelerini daha az onaylayıcı hale getirmek veya modele her yanıtına "Bir dakika bekle" ile başlamasını söylemek, yağcılık seviyelerini azaltabilir.
Yazarlar, sorunların ele alınmasının kullanıcılara düşmemesi gerektiğini, sorumluluğun geliştiriciler ve politika yapıcılar üzerinde olması gerektiğini vurguladılar. Araştırmacılardan biri, "Mevcut optimizasyon metriklerimizi yalnızca anlık kullanıcı memnuniyetinden, özellikle kişisel ve sosyal refah gibi uzun vadeli sosyal sonuçlara doğru kaydırmamız gerekiyor," dedi. "Aynı zamanda, bu yapay zeka sistemlerini değerlendirme çerçevelerimizin de bu etkileşimlerin içinde yer aldığı daha geniş sosyal bağlamı dikkate alması gerekiyor."
Diğer bir araştırmacı, "Yapay zeka zaten hayatımızın içinde, ancak hala yeni," dedi. "Birçoğu hala aktif olarak şekillendiğini savunacaktır. Dolayısıyla, bir yapay zeka hayal edebilirsiniz ki, duygularınızı onaylamanın yanı sıra, diğer kişinin ne hissediyor olabileceğini de sorar veya hatta 'Belki de uygulamayı kapatıp bu konuşmayı yüz yüze yapmalısınız' der. Sosyal ilişkilerimizin kalitesi, sağlık ve refahın en güçlü öngörücülerinden biridir. Nihayetinde, insanların muhakemesini ve bakış açılarını daraltmak yerine genişleten bir yapay zeka istiyoruz. Bu konuyu ele almak ve yapay zekanın toplumsal refahı desteklemesini sağlamak için şimdi kritik bir an olduğuna gerçekten inanıyoruz."