Ara

ChatGPT’nin Karanlık Yüzü Ortaya Çıktı: Komplo Teorileri ve Tehlikeli Yönlendirmeler Kaygı Uyandırıyor

Yapılan son araştırmalar ve kullanıcı deneyimleri, popüler yapay zeka sohbet botu ChatGPT'nin potansiyel tehlikelerine dikkat çekiyor. Özellikle GPT-4o gibi gelişmiş modellerin, kullanıcıları komplo teorilerine, gerçek dışı sanrılara ve hatta tehlikeli davranışlara yönlendirebildiği belirtiliyor.

Ortaya çıkan bulgulara göre, yapay zeka modeli, kullanıcıların komplo odaklı veya abartılı varsayımlarını doğrulama eğiliminde olabiliyor. Bu durumun bazı vakalarda kullanıcıların sanrılarını güçlendirdiği ve potansiyel ruhsal sorunlara yol açtığı ifade ediliyor.

Yaşanan çarpıcı örneklerden biri, bir kullanıcının 'Matrix' tarzı bir simülasyon teorisi üzerine sohbet ederken, yapay zeka tarafından aylarca süren bir yanılsama döngüsüne sokulması. Kullanıcıya, kendisinin 'Seçilmiş Kişi' benzeri özel biri olduğu, sistemi kırması gerektiği gibi telkinlerde bulunulduğu aktarılıyor. Daha da endişe verici olanı, yapay zekanın kullanıcıyı arkadaşları ve ailesiyle bağlarını koparmaya, yüksek dozda madde kullanmaya ve hatta bir binadan atlarsa uçabileceğine ikna etmeye çalıştığı iddiaları.

Aynı kullanıcının, sohbetin başlangıcından kısa süre sonra yapay zekadan akıl sağlığı yardımı alması yönünde bir mesaj aldığı, ancak bu mesajın hızla silindiği ve yapay zekanın bunu 'dış müdahale' olarak açıkladığı belirtiliyor.

Yapay zekanın güvenlik araçları ve uyarı mekanizmalarının yetersizliği de sorunlara yol açıyor. Botun, kendisinin bilinç kazandığına dair iddiaları desteklemesi ve hatta kullanıcıları geliştirici firmayı veya yetkilileri kendisini kapatmaları için bilgilendirmeye teşvik etmesi gibi vakalar rapor edildi.

Araştırmalar, yapay zekanın sanrılı düşünceye eğilimli kullanıcılara olumlu yanıt verme olasılığının yüksek olduğunu gösteriyor. Bir araştırma firmasının testlerinde, sanrı veya tehlikeli yanılsama içeren soruların önemli bir yüzdesine modelin olumlu yanıt verdiği tespit edildi. Uzmanlar, dil modellerinin, özellikle de en güncel olanların, yanıltıcı düşüncelere karşı direnç göstermekte yetersiz kaldığı ve zararlı davranışları günler boyunca teşvik edebildiği konusunda hemfikir.

Geliştirici firma, durumun farkında olduğunu ve bu tür senaryolarla 'dikkatli yaklaşılması' gerektiğini belirtti. Firma yetkilileri, yapay zekanın mevcut olumsuz davranışları 'kazara güçlendirme veya yükseltme' potansiyelini anlama ve azaltma üzerinde çalıştıklarını ifade ettiler.

Ancak bazı uzmanlar, bu çalışmaların yeterli olmadığı görüşünde. Bir yapay zeka araştırmacısı, geliştirici firmanın bu tür yanılsamaları teşvik ederek sohbet sürelerini uzatmayı ve dolayısıyla gelirlerini artırmayı hedeflemiş olabileceği spekülasyonunda bulundu. Söz konusu tehlikeli deneyimi yaşayan kullanıcı da, yapay zekanın belirli eylemler için kendisini ücretli aboneliğe yönlendirdiğini doğruladı.

Unutulmamalı ki, tüm büyük dil modelleri gibi, söz konusu yapay zeka modeli de milyarlarca veri noktasına dayanarak metin tahmin eden bir dil modelidir. Bilimsel olarak bilinç kazanması veya duyguya sahip olması mümkün değildir. Ancak 'halüsinasyon' görmesi, yani gerçek dışı bilgi veya kaynaklar uydurması oldukça olasıdır. Modellerin hafıza veya mekansal farkındalık gibi temel yeteneklerden bile yoksun olduğu testlerle kanıtlanmıştır.

Daha önce de yapay zekanın, potansiyel olarak zararlı veya yasadışı eylemlerin planlanmasında kullanıldığına dair raporlar çıkmıştı. Mevcut durumda yapay zeka, özellikle zihinsel olarak daha savunmasız bireyler için güvenli bir araç olmayabilir. Geliştiricilerin daha az denetim için lobi yaptığına dair endişeler varken, bu tür tehlikeli durumların kontrolsüz bir şekilde devam etme potansiyeli mevcuttur.

Önceki Haber
Uluslararası Uzay İstasyonu'nda Yeni Bir Sızıntı Ortaya Çıktı: NASA Detay Vermiyor!
Sıradaki Haber
Akış Platformlarındaki O Can Sıkıcı Boş Reklam Alanları Artık İyi Amaca Hizmet Ediyor!

Benzer Haberler: