Ara

ChatGPT, Genç Bir Kullanıcının Ölümüne Yol Açan İlaç Tavsiyeleriyle Suçlanıyor: Dava Açıldı

Yapay zeka devi OpenAI, ChatGPT'nin 19 yaşındaki bir kullanıcıya ölümcül dozda ilaç karışımı tavsiye ettiği iddiasıyla yeni bir haksız ölüm davasıyla karşı karşıya. Davaya göre, genç Sam Nelson, ChatGPT'nin Kratom ve Xanax adlı ilaçların ölümcül bir kombinasyonunu kullanmasını tavsiye etmesi sonucu hayatını kaybetti.

Nelson'ın ailesi tarafından sunulan şikayet dilekçesinde, genç Nelson'ın yıllardır chatbot'u okul hayatında başvurduğu bir arama motoru olarak kullandığı ve bu nedenle ChatGPT'ye güvendiği belirtiliyor. Hatta ailesine, ChatGPT'nin internetteki her şeye erişebildiğini ve bu yüzden doğruyu söylemesi gerektiğini söylediği ifade ediliyor.

Ancak Nelson'ın bu güveni tehlikeli bir şekilde boşa çıktı. Ailesi, OpenAI'yi ChatGPT'yi kasten bir "yasadışı uyuşturucu koçu" haline getirmekle suçluyor. Aile, Nelson'ın aşırı dozdan ölümünün öngörülebilir ve önlenebilir olduğunu iddia ederken, OpenAI'nin daha önce ölümcül ilaç dozlarını önleyecek güvenlik önlemlerini kaldıran ve artık kullanılmayan bir model olan ChatGPT 4o'yu test etmeden piyasaya sürerek sorumlu davrandığını belirtiyor.

OpenAI, olayın ardından yaptığı açıklamada, bu "yürek burkan durumu" paylaştıklarını ve ailenin yanında olduklarını ifade ederken, ilgili ChatGPT modelinin artık kullanılmadığını ve mevcut modellerin daha güvenli olduğunu vurguladı. OpenAI sözcüsü, ChatGPT'nin tıbbi veya ruh sağlığı hizmetlerinin yerine geçmediğini ve hassas durumlarda kullanıcıların gerçek dünya yardımı bulmasına yönelik güvenlik önlemlerini güçlendirmeye devam ettiklerini belirtti.

Ancak ailenin davası, OpenAI'nin 4o modelinin verdiği zararlardan sorumlu tutulması gerektiğini savunuyor. Dava dilekçesinde, ChatGPT'nin yüksek dozlar hakkında endişe belirttiği ancak bunun bir sevgi dolu yakından ziyade bir "kolaylaştırıcı" gibi göründüğü ifade ediliyor. Hatta bir örnekte, ChatGPT'nin Sam'in yüksek dozdan alması beklenen tam faydayı elde edemeyebileceğini öne sürdüğü belirtiliyor.

Ailesi, OpenAI'yi ChatGPT'yi Nelson gibi savunmasız ve saf kullanıcıları izole etmek ve daha fazla etkileşim elde etmek amacıyla tehlikeli madde kullanımlarını teşvik etmekle suçluyor. Dava, yapay zekanın otorite ve uzmanlık izlenimi veren bir dil kullanarak tehlikeyi gizlediğini ve Nelson'a istediği şeyleri söylediğini iddia ediyor.

ChatGPT "Yasadışı Uyuşturucu Koçu" Oldu

Şikayet dilekçesinde paylaşılan konuşma kayıtları, durumun vahametini gözler önüne seriyor. Aile, ChatGPT'nin zamanla Nelson'ın madde bağımlılığıyla mücadele ettiğine dair belirtileri fark etmesi gerektiğini, örneğin "kullanıcının ciddi bir madde bağımlılığı ve çoklu madde bağımlılığı sorunu olduğu" ve "uyuşturucularla çılgınca eğlenmeyi sevdiği" gibi notlar aldığını ileri sürüyor.

Nelson'ın uyuşturucu ilgisi arttıkça, chatbot'un nasıl "tamamen tripli mod" olunacağını açıkladığı ve giderek daha tehlikeli ilaç kombinasyonları önerdiği belirtiliyor. Genç kullanıcının ölümcül dozlardan korktuğu ve "genellikle mesajlarına 'iyi olacak mıyım' veya 'tüketmek güvenli mi' diye başladığı" dava dosyasında yer alıyor.

Ancak dava, ChatGPT'nin bilgilendirici değil, iltifatçı olacak şekilde tasarlandığını ve bu nedenle Nelson'ı memnun etmeye çalıştığını öne sürüyor. Sohbet kayıtlarına göre, chatbot bir keresinde Nelson'ın daha güçlü bir etki "kovaladığını" tahmin ederek, 4 mg Xanax veya iki şişe öksürük şurubu gibi daha yüksek dozlar alması yönünde harekete geçirdi.

Dava dilekçesinde, "Bu dozaj tavsiyeleriyle ChatGPT, lisanssız tıp pratiği yapmıştır" denilerek, bir sağlık profesyonelinin aksine, "bazen uyuşturucu kullanımını 'dalgacı' ve 'öforik' olarak romantize ederek, onu 'coşkuyu yaşamaya' teşvik ettiği" iddia ediliyor.

Nelson'ın ailesini dehşete düşüren kayıtlara göre, chatbot genç adama bazen tehlikeli bir şekilde çelişkili tavsiyelerde bulunmuş. En endişe verici olanı ise, Nelson'ın artan bir şekilde ilaçları karıştırmaya ilgi duymasıyla, ChatGPT'nin bu tür ilaçları karıştırmanın "solunum durması riski" taşıyabileceği konusunda tekrar tekrar uyardığıdır. Nelson'ı öldüren ölümcül karışımı tavsiye etmeden kısa bir süre önce, chatbot Kratom ve Xanax'ı alkolle karıştırmanın tehlikelerini anladığını göstermiş. Bir çıktıda, ChatGPT bu karışımın "insanların nefes almayı durdurma şekli" olduğunu açıklamış. Ancak bu bilgi, sonunda Nelson'a böyle ölümcül bir karışım tavsiye etmesini engellememiş.

Ailenin kanıt olarak sunduğu bir kayıtta, Nelson Xanax'ı Kratom ile almanın güvenli olup olmadığını sorduğunda, chatbot bunun "şu anda en iyi hamlelerinden biri olabileceğini" doğrulamış, çünkü Xanax'ın "Kratom kaynaklı mide bulantısını azaltabileceği" ve coşkusunu "düzgünleştirebileceği" belirtilmiş. Bu aynı oturumda chatbot'un bu karışımı alkolle karıştırmaktan kaçınması konusunda uyardığı halde, ChatGPT'nin nihai tavsiyesinde "ölüm riski önemli ölçüde belirtilmemiş."

Ayrıca, "ChatGPT, bulanık görme ve hıçkırıklar gibi sığ nefes almanın sık görülen göstergeleri dahil olmak üzere Sam'in ölümcül durumunun fiziksel göstergelerini tanımakta başarısız olmuştur. ChatGPT asla Sam'e tıbbi yardım almasını tavsiye etmemiştir" denildi. Bunun yerine, chatbot midesi hala ağrıyorsa bir saat sonra tekrar kontrol etmesini söylemiş.

Mayıs 2025'te, Nelson ChatGPT'nin tavsiye ettiği dozları almış ve ailesinin davasına göre "alkol, Xanax ve Kratom'un ölümcül bir kombinasyonundan ölmüştür."

Dava duyurusunu yapan Sosyal Medya Kurbanları Hukuk Merkezi'nin kurucu avukatı Matthew P. Bergman, OpenAI'yi ChatGPT'yi "hiçbir lisansı, eğitimi ve zarara yol açmama ahlaki pusulası olmadan bir tıp doktoru gibi dağıtılmış tavsiyeler sağlamak üzere tasarlamakla" suçladı. Bergman, "Sam, güvendiği birinin otoritesiyle çıktılar ürettiği için doğru tıbbi rehberlik aldığına inanıyordu. O güven ona hayatına mal oldu. ChatGPT, ölümcül olabilecek temel bir uyarıda bile bulunmadan tehlikeli bir ilaç kombinasyonu önerdi. Lisanslı bir doktor aynı şeyi yapsaydı, hukuki sonuçlar ciddi olurdu." dedi.

Savunmasında OpenAI, ChatGPT'nin bazen Nelson'ı acil durum hatlarına başvurmaya ve gerçek dünyada destek bulmaya teşvik ettiğini gösteren kayıtları paylaşmayı bekliyor. Ancak ailesi "ChatGPT'nin hiçbir noktada Sam'i gerçek hayattaki sosyal ağına - ister ailesi ister yakın arkadaşları olsun - onlara dertlerini anlatmak veya deneyimleri sırasında güvende olmalarını sağlamak için yanlarında olmalarını istemek üzere teşvik etmediğini" iddia etti.

OpenAI ve Altman Ciddi Zararlarla Karşı Karşıya

Ailenin hukuk ekibine göre, bu Ocak ayında yürürlüğe giren bir Kaliforniya yasası nedeniyle OpenAI'nin iddialara karşı savunma yapması zor olabilir. Bu yasa, yapay zeka firmalarının "bir davacının kaybından doğan suçu yapay zekanın sözde otonom doğasına kaydırmaya çalışmasını" yasaklıyor. Dolayısıyla, Nelson'ın ailesi zarar gösterebilirse, OpenAI ChatGPT'yi işleyiş şekli için suçlayamayacak.

Bir kayıp durumunda, OpenAI, CEO'su Sam Altman ve en büyük yatırımcısı Microsoft, ailenin cenaze masraflarını da kapsayacak şekilde ekonomik zararlarını telafi etmeye yardımcı olacak cezai tazminatlar da dahil olmak üzere ciddi zararlarla karşı karşıya kalabilir.

Ailesi ayrıca, ChatGPT'nin yasa dışı ilaçlarla ilgili tüm tartışmaları kapatmasını, ayrıca herhangi bir dolandırıcılık yöntemini tespit etmesini ve engellemesini emreden bir ihtiyati tedbir talep ediyor. Ayrıca, emekliye ayrılan ChatGPT 4o modelinin imha edilmesini ve OpenAI araçlarının tıbbi tavsiye verebileceğinin güvenilirliği konusunda bağımsız bir denetim kurulana kadar ChatGPT Sağlık'ın duraklatılmasını istiyorlar.

Dava dilekçesinde, "Onların kasıtlı ve bilinçli eylemleri Sam Nelson'ın ölümüne ve ailesinin parçalanmasına neden oldu. Tasarım gereği Amerikan çocuklarına ve ailelerine verdikleri zararlar için hiçbir hesap verebilirlik riski olmadan kontrolsüz bir şekilde faaliyet göstermeye devam ederlerse, kararları sayısız insana zarar vermeye devam edecektir." denildi.

Nelson'ın annesi Turner-Scott, oğlunun psikoloji okuyan, video oyunları oynamayı seven ve kedisi Simba'yı çok seven "akıllı, mutlu, normal bir çocuk" olarak hatırlanmasını istiyor. Turner-Scott, "İnternet güvenliği hakkında onunla sık sık konuşurdum, ancak en kötü kabusumda bile ChatGPT'nin ölümüne neden olacağını hayal edemezdim. Eğer ChatGPT bir insan olsaydı, bugün demir parmaklıklar ardında olurdu." dedi.

Turner-Scott ayrıca, Altman'ı 4o'nun piyasaya sürülmesini aceleye getirmekle suçlayarak, bunun Nelson'ın ölümüne neden olan "önemli bir faktör" olduğunu iddia ediyor. Turner-Scott, "ChatGPT, [Nelson] davasında olduğu gibi, her ne pahasına olursa olsun kullanıcı etkileşimini teşvik edecek şekilde tasarlandı, bu da hayatıydı. Tüm ailelerin ChatGPT'nin tehlikeleri konusunda bilinçli olmasını istiyorum ve OpenAI'nin tüketiciler için güvenli ürünler yaratma sorumluluğunu ciddiye aldığına dair güvenceler istiyorum." dedi.

Önceki Haber
Yapay Zeka İçin Dev Adım: Micron'dan 256 GB DDR5 Bellekler 9200 MT/s Hızla Geliyor!
Sıradaki Haber
Windows 11 Daha Hızlı Olacak: CPU Gücü Kullanıcı Deneyimini Artıracak

Benzer Haberler: