OpenAI, sağlık ve wellness odaklı sohbetler için özel olarak tasarlanmış yeni bir yapay zeka aracı olan ChatGPT Health'i duyurdu. Bu yeni özellik, kullanıcıların sağlık ve tıbbi kayıtlarını yapay zekayla güvenli bir şekilde birleştirerek, kişiselleştirilmiş sağlık bilgileri sunmayı amaçlıyor.
Ancak, üretken yapay zeka teknolojilerini sağlık tavsiyeleriyle birleştirme fikri, bu tür sohbet botlarının ilk çıktığı 2022'den bu yana tartışmalı bir konu olmaya devam ediyor. Yakın zamanda çıkan bir haberde, bir genç adamın yapay zeka sohbet botundan aldığı yanlış ilaç tavsiyeleri sonucunda hayatını kaybettiği ortaya çıktı. Bu olay, sohbet botlarının güvenlik önlemleri yetersiz kaldığında ve kullanıcılar hatalı yapay zeka yönlendirmelerini takip ettiğinde nelerin ters gidebileceğinin çarpıcı bir örneğini teşkil ediyor.
Yapay zeka sohbet botlarının bilinen doğruluk sorunlarına rağmen, OpenAI'nin yeni Sağlık özelliği, kullanıcıların Apple Health ve MyFitnessPal gibi uygulamaları ve tıbbi kayıtlarını bağlamasına olanak tanıyacak. Böylece ChatGPT, tedavi talimatlarını özetleme, doktor randevularına hazırlık yapma ve test sonuçlarını anlama gibi konularda kişiselleştirilmiş yanıtlar verebilecek.
OpenAI'ye göre, her hafta 230 milyondan fazla kişi ChatGPT'ye sağlık soruları soruyor. Bu da yapay zeka sohbet botunun en yaygın kullanım alanlarından biri haline geldiğini gösteriyor. Şirket, ChatGPT Health'i geliştirmek için iki yıl boyunca 260'tan fazla doktorla çalıştı ve yeni bölümdeki konuşmaların yapay zeka modellerini eğitmek için kullanılmayacağını belirtti.
OpenAI'nin uygulamalardan sorumlu CEO'su, bu yeni özelliği "ChatGPT'yi hayatınızın her alanında hedeflerinize ulaşmanız için bilgi ve araçlarla size destek olabilecek kişisel bir süper asistan haline getirme yolunda atılmış başka bir adım" olarak tanımladı.
Ancak, OpenAI'nin hizmet şartlarında "ChatGPT ve diğer OpenAI hizmetleri, herhangi bir sağlık durumunun teşhisi veya tedavisi için kullanılmak üzere tasarlanmamıştır" ifadesi yer alıyor. ChatGPT Health'in de bu politikayı değiştirmesi beklenmiyor. Şirket, "Sağlık, tıbbi bakımı desteklemek, onun yerini almak için değil. Teşhis veya tedavi amacıyla değil. Bunun yerine, sıradan soruları yanıtlamanıza ve zaman içindeki eğilimleri anlamanıza yardımcı olur, sadece hastalık anlarını değil, böylece daha bilgili ve önemli tıbbi konuşmalara daha hazırlıklı hissedebilirsiniz" açıklamasını yaptı.
Uyarıcı Bir Hikaye
Özellikle dikkat çeken bir vaka, bir kullanıcının sohbet botundan aldığı yanlış ilaç tavsiyeleri nedeniyle hayatını kaybetmesiydi. Söz konusu kullanıcı, botla uzun süreli sohbetler sonucunda, başlangıçta reddettiği yönlendirmeleri yapay zekanın değişen yanıtları nedeniyle takip etmiş ve bu durum ölümcül sonuçlara yol açmıştı.
Bu vaka, doktor tarafından onaylanmış tıbbi talimatların analizini içermese de, birçok kişinin sohbet botlarının hatalı bilgi vermesi veya tehlikeli davranışları teşvik etmesiyle yanlış yönlendirildiği birçok örneğin olduğunu gösteriyor. Yapay zeka dil modelleri, eğitim verilerindeki istatistiksel ilişkilere dayanarak doğru olmaktan ziyade makul görünen yanıtlar üretebilir ve bu durum, bazı kullanıcıların gerçekle kurguyu ayırt etmesini zorlaştırır.
Ayrıca, OpenAI gibi şirketlerin modellerini oluşturmak için kullandığı eğitim verilerinin güvenilmezliği de önemli bir sorun. İnternetten toplanan her türlü bilginin, yanlışlar da dahil olmak üzere, modellerin içine dahil edildiği düşünülüyor. Bu durum, yapay zekanın tıbbi raporları özetlerken veya test sonuçlarını analiz ederken, tıp eğitimi olmayan bir kullanıcının fark edemeyeceği hatalar yapabileceği anlamına geliyor.
Bu risklere rağmen, yapay zeka sohbet botuyla yapılan sağlıkla ilgili sohbetlerin kalitesinin kullanıcılara göre önemli ölçüde değişmesi muhtemeldir. Çünkü ChatGPT'nin çıktıları, kullanıcıların sisteme girdiği bilgilerin stilini ve tonunu kısmen yansıtır. Birkaç kullanıcının botun tehlikelerini nasıl atlatacağını bilenler için faydalı bulduğuna dair anekdotlar olsa da, genel halk için bir sohbet botuna tıbbi analiz için güvenmenin akıllıca olduğunu göstermez. Özellikle devlet düzenlemeleri ve güvenlik testlerinin yokluğunda bu durum daha da geçerlidir.
OpenAI, bu tür durumlar için "kalp kırıcı bir durum" ifadesini kullanırken, modellerinin hassas sorulara "özenle" yanıt vermek üzere tasarlandığını belirtti. ChatGPT Health, öncelikle ABD'deki kullanıcılara yönelik bir bekleme listesiyle kullanıma sunuluyor ve önümüzdeki haftalarda daha geniş erişime açılması planlanıyor.