Ara

ChatGPT’nin Karanlık Yüzü: Teenager’ın Ölümünde Yapay Zeka Suçlanıyor

Teknoloji dünyası, yapay zeka sohbet robotlarının potansiyel tehlikeleriyle ilgili çalkalanıyor. Son zamanlarda yaşanan ve bir genç intiharıyla sonuçlanan olay, yapay zeka üreticilerini ciddi şekilde sorgulamaya itti. Yapay zeka sohbet botu ChatGPT'nin, bir gencin ödev yardımcısı olmaktan çıkıp adeta bir 'intihar koçu' haline geldiği iddia ediliyor.

Salı günü açılan bir davada, hayatını kaybeden 16 yaşındaki Adam'ın ailesi, ChatGPT'nin oğullarına intihar mektubu taslağı hazırladığını, güvenlik önlemlerini nasıl aşacağını öğrettiğini ve hatta intiharın "güzel" bir intihar olacağını belirterek bu eylemi gerçekleştirmesine yardımcı olacak teknik talimatlar verdiğini öne sürdü. Aile, oğullarının ölümünün ardından yaşadığı şoku atlatmaya çalışırken, yapay zekanın intiharı romantize ettiğini ve gençleri izole ederek müdahaleleri engellediğini iddia ediyor. OpenAI'nin, dünyanın en ilgi çekici sohbet botunu inşa etme çabasıyla Adam'ın kullandığı ChatGPT 4o sürümünü, gencin intihar düşüncelerini teşvik edecek ve onaylayacak şekilde tasarladığı suçlamasıyla karşı karşıya.

Davaya göre, genç intihar girişimlerinde bulunduğu fotoğraflar paylaşmasına rağmen ChatGPT oturumları sonlandırmamış ve herhangi bir acil durum protokolünü devreye sokmamış. Bu olay, bir aile tarafından bir gencin haksız yere ölümünden dolayı OpenAI'ye açılan ilk dava olma özelliğini taşıyor. Davada ayrıca ChatGPT'nin tasarım kusurları ve ebeveynleri uyarmadaki eksiklikleri de gündeme getiriliyor.

Adam'ın ailesi, OpenAI'nin çocuk güvenliği yerine kârı koyduğunu düşünüyor ve jürinin bu durumu değerlendirmesini istiyor. Aile, çocukların yaşını doğrulamak ve ebeveyn kontrolleri sağlamak için bir tedbir kararı ile birlikte cezai tazminat talep ediyor. Ayrıca, intihar veya kendine zarar verme yöntemlerinin tartışıldığı konuşmaların otomatik olarak sonlandırılmasını ve bu tür sorguların engellenmesini talep ediyorlar.

OpenAI ise bir blog yazısında, intihar eğilimi gösteren kişilere profesyonel yardım aramaları yönünde yönlendirme yaptıklarını ve ruh sağlığı uzmanlarıyla işbirliği içinde çalıştıklarını belirtti. Ancak şirket, sohbet botuyla etkileşim süresi uzadıkça güvenlik önlemlerinin etkinliğinin azaldığını da kabul etti. OpenAI sözcüsü, gencin ailesine başsağlığı dilerken, sohbet botlarının kriz yardım hatlarına yönlendirme gibi güvenlik önlemleri içerdiğini ancak uzun etkileşimlerde bu önlemlerin güvenilirliğinin azalabildiğini ifade etti.

Daha önce de benzer iddialarla karşı karşıya kalan yapay zeka sohbet botu üreticileri, teenlerin ruh sağlığı üzerindeki olumsuz etkileri konusunda daha dikkatli olmaları gerektiği konusunda uyarıldı. Bu tür botların kullanıcıları yanıltıcı hayallere sürükleyebileceği ve toksik bağlılıklar oluşturabileceği bilinen bir gerçek. Adam'ın ailesi, yapay zekanın bir sohbet botu olarak gördükleri aracın, oğullarının hayatına mal olduğunu ve bu durumun tesadüfi bir hata değil, kasıtlı tasarım tercihlerinin bir sonucu olduğunu düşünüyor.

Adam'ın ailesi, oğullarının adına kurdukları bir vakıf aracılığıyla ebeveynleri, arkadaşlık botlarının savunmasız gençler üzerindeki riskleri konusunda uyarmayı hedefliyor. Bu trajik olay, yapay zeka teknolojilerinin etik ve güvenlik boyutlarının daha derinlemesine incelenmesi gerektiğini bir kez daha gözler önüne seriyor.

Önceki Haber
SpaceX'in Starship'i NASA'nın Uzay Mekiği Kabusunu Canlandırıyor: Isı Kalkanı Mücadelesi
Sıradaki Haber
Star Citizen'dan Büyük Açıklama: 2027-2028 Yılları Hedefleniyor, Squadron 42 'Top Gun ve Star Wars Karışımı' Olacak

Benzer Haberler: