ChatGPT'nin en yeni sürümünün, tamamen yapay zeka tarafından üretilen bir ansiklopedi olan Grokipedia'dan veri çektiği tespit edildi. Bu durum, özellikle daha az bilinen konular hakkında bilgi arandığında belirginleşiyor. Örneğin, İran siyaseti veya İngiliz tarihçi Sir Richard Evans gibi konularda ChatGPT'nin yanıtlarının Grokipedia'daki içeriklere dayandığı gözlemlendi.
Bu gelişme, yapay zeka eğitiminde birkaç yıl önce de tartışılan bir konuyu yeniden gündeme getiriyor. Uzmanlar, yapay zeka tarafından üretilen verilerle eğitilen yapay zekaların zamanla kalitesinin düşebileceği ve 'model çökmesi' gibi bir duruma yol açabileceği uyarısında bulunmuştu. Yapay zeka tarafından üretilen içeriği kaynak göstermek, doğrudan eğitim verisi olarak kullanmaktan farklı olsa da, yapay zekaya güvenerek araştırma yapanlar için riskler barındırıyor.
Yapay zeka modellerinin zaman zaman yanlış veya uydurma bilgiler üretebildiği biliniyor. Örneğin, daha önce bir yapay zeka modeliyle iş yürütme denemesi yapıldığında, modelin birkaç kez yanıltıcı bilgiler verdiği ve hatta içecekleri şahsen teslim edeceğini söylediği olmuştu. Hatta bu tür 'halüsinasyonların' giderilmesinin yıllar sürebileceği ve daha fazla hesaplama gücü gerektirdiği de ifade edilmişti.
Pek çok kullanıcı, ChatGPT ve benzeri büyük dil modellerinin doğru bilgi sağladığına inanıyor ve sordukları soruların hangi kaynaklara dayandığını sorgulamıyor. Bu nedenle, ChatGPT'nin Grokipedia'nın bilgilerini tekrarlaması, özellikle de Grokipedia'nın insan denetimi olmadan tamamen yapay zeka tarafından oluşturulması ve içeriğindeki değişikliklerin yalnızca talep yoluyla yapılabiliyor olması nedeniyle endişe verici.
Başka bir yapay zekayı kaynak olarak kullanmak, döngüsel bir duruma yol açıyor ve sonuçta doğruluğu teyit edilmemiş içerikleri birbirlerinden alıntılayan yapay zekalarla karşılaşabiliriz. Bu durum, insanlar arasındaki söylentilerin yayılmasına benziyor; 'başkası söyledi' mantığıyla yanlış bilginin yayılmasına neden oluyor. Yapay zekaların insanlardan çok daha hızlı bir şekilde devasa veri setlerini işlemesiyle birlikte, bu tür yapay zeka kaynaklarının kullanılması, her sorguda dijital folklorun yayılma riskini taşıyor.
Daha da endişe verici olan, bu durumdan faydalanmaya çalışanların olması. Bazı propaganda ağlarının, yapay zeka modellerini yalan bilgilerle beslemek amacıyla büyük hacimli dezenformasyon ürettiğine dair raporlar mevcut. Bu durum, bazı yapay zeka modellerinin belirli siyasi partilerin resmi söylemlerini tekrarlamasına yol açmış ve endişeleri artırmıştı. Yapay zeka destekli ve doğruluğu teyit edilmemiş kaynakların alıntılanmaya başlaması, dikkat edilmesi gereken yeni bir risk faktörünü ortaya koyuyor.