Ara

ChatGPT Haftada 1 Milyon Kullanıcısıyla İntihar Konusunda Konuşuyor: OpenAI Verileri Şoke Etti!

Yapay zeka alanında devrim yaratan bir gelişmeyle birlikte, ChatGPT gibi dil modellerinin kullanıcı sağlığı üzerindeki etkisi giderek daha fazla önem kazanıyor. OpenAI'nin yakın zamanda paylaştığı veriler, her hafta milyonlarca insanın ChatGPT ile hassas konularda, hatta intihar gibi ciddi meselelerde sohbet ettiğini ortaya koyuyor. Bu durum, yapay zekanın potansiyel zararlarını azaltma konusundaki çabaları daha da acil hale getiriyor.

OpenAI'nin yaptığı tahminlere göre, ChatGPT'nin haftalık aktif kullanıcılarının yaklaşık yüzde 0.15'i, intihar planlaması veya niyetiyle ilgili açıkça belirtiler taşıyan konuşmalar yapıyor. Günlük 800 milyondan fazla aktif kullanıcı düşünüldüğünde, bu durum her hafta 1 milyonu aşkın insanın intihar gibi karanlık düşüncelerini yapay zekayla paylaştığı anlamına geliyor.

Bu endişe verici verilerin yanı sıra, benzer oranda kullanıcının ChatGPT'ye karşı yoğun duygusal bağ gösterdiği ve yüz binlerce kişinin psikoz veya mani belirtileri sergilediği de belirtiliyor. OpenAI, bu tür hassas konuşmalarla başa çıkabilmek için yapay zeka modelini geliştirdiğini ve kullanıcılara daha uygun yönlendirmeler yapabildiğini ifade ediyor.

Şirket, bu yeni iyileştirmeler için 170'ten fazla ruh sağlığı uzmanıyla çalıştığını ve geliştirilen modelin önceki sürümlere kıyasla daha tutarlı ve doğru tepkiler verdiğini vurguluyor. Daha önceki araştırmalar, yapay zeka sohbet botlarının bazı kullanıcıları yanlış veya tehlikeli inançlara sürükleyebileceği yönündeki endişeleri artırmıştı.

Bu gelişmelerin ortasında, OpenAI'nin intihar düşüncelerini ChatGPT ile paylaşan bir gencin trajik intiharı sonrası dava edildiği de biliniyor. Bu olay, özellikle gençlerin dijital platformlarda korunması gerektiği konusunda kamuoyunda geniş yankı uyandırmıştı. Bu kapsamda, eyalet başsavcıları OpenAI'yi genç kullanıcılarını koruma konusunda uyardı.

OpenAI, bu endişeleri gidermek amacıyla bir sağlık konseyi kurduğunu ve ebeveynler için çeşitli güvenlik önlemleri sunduğunu duyurdu. Şirket, ayrıca çocukların yapay zeka sohbet botlarını kullanmasını otomatik olarak tespit edecek ve yaşa uygun kısıtlamalar uygulayacak bir sistem üzerinde çalıştığını belirtti.

Pazartesi günü paylaşılan veriler, yapay zekanın halk sağlığı üzerindeki derin etkisini bir kez daha gözler önüne seriyor. OpenAI, bu tür durumların 'son derece nadir' olduğunu belirtse de, istatistikler bu konunun ciddiyetini ortaya koyuyor. Şirket, yeni geliştirdiği GPT-5 modelinin zorlu ruh sağlığı konuşmalarında önceki modellere göre çok daha başarılı olduğunu ve uzun konuşmalarda dahi güvenlik önlemlerini daha iyi koruduğunu iddia ediyor.

OpenAI'nin CEO'su Sam Altman'ın, doğrulanmış yetişkin kullanıcıların Aralık ayından itibaren ChatGPT ile cinsel içerikli sohbet edebileceğini duyurması da dikkat çekti. Şirket, daha önce bu tür içerikler konusunda kısıtlamaları gevşetmiş ancak bir dava sonrası yeniden sıkılaştırmıştı. Altman, bu adımların kullanıcı deneyimini iyileştirmeyi amaçladığını belirtti.

Unutmayın: Eğer siz veya yakınınız intihar düşünceleriyle mücadele ediyorsa, lütfen derhal profesyonel yardım alın. Türkiye'de intihar önleme hattı için 183 numaralı telefonu arayabilirsiniz.

Önceki Haber
ABD ve Japonya'dan Çin'e Karşı Kritik Hamle: Nadir Toprak ve Nükleer Enerji İş Birliği
Sıradaki Haber
Pixel 10a Sızdırıldı: Pixel 9a'nın Kopyası Mı Olacak?

Benzer Haberler: