Ara

OpenAI’den Çocuklar İçin Yeni ChatGPT Güvenlik Önlemleri: Ebeveyn Kontrolleri Devrede

Teknoloji devi OpenAI, ChatGPT'nin kullanımı sırasında yaşanan hassas ruh sağlığı durumlarına yönelik adımlar attığını duyurdu. Şirket, özellikle genç kullanıcıların güvenliğini artırmak amacıyla ebeveyn kontrollerini kullanıma sunacağını ve ruh sağlığıyla ilgili hassas diyalogları kendi simüle edilmiş akıl yürütme modellerine yönlendireceğini açıkladı.

OpenAI tarafından yapılan açıklamada, bu çalışmaların bir süredir devam ettiği ve önümüzdeki 120 gün içinde hayata geçirilmesi planlanan iyileştirmelerin tanıtıldığı belirtildi. Bu sürecin bu dönemle sınırlı kalmayacağı, çalışmaların uzun vadede de süreceği vurgulandı.

Genç Kullanıcılar İçin Ebeveyn Kontrolleri Devreye Giriyor

Planlanan ebeveyn kontrolleri, OpenAI'nin platformdaki gençlerin güvenliği konusundaki en somut adımı olarak öne çıkıyor. Önümüzdeki ay itibarıyla, veliler e-posta davetiyeleri aracılığıyla kendi hesaplarını 13 yaşından büyük çocuklarının ChatGPT hesaplarına bağlayabilecek. Bu sayede, yapay zeka modelinin yaşa uygun davranış kuralları ile yanıt vermesini sağlayabilecekler. Ayrıca, çocuklarının belleği ve sohbet geçmişi gibi özellikleri devre dışı bırakma, hatta sistemin çocuğun yoğun bir sıkıntı yaşadığını tespit ettiğinde bildirim alma gibi seçeneklere sahip olacaklar.

Bu ebeveyn kontrolleri, daha önce tüm kullanıcılar için kullanıma sunulan, uzun süreli oturumlarda ara verilmesini teşvik eden uygulama içi hatırlatmalar gibi mevcut özelliklerin üzerine inşa ediliyor.

Yüksek Profilli Vakalar Güvenlik Adımlarını Tetikledi

OpenAI'nin yeni güvenlik girişimi, ChatGPT'nin hassas durumdaki kullanıcılara yönelik tutumunun çeşitli yüksek profilli vakalarla mercek altına alınmasının ardından geldi. Geçtiğimiz ağustos ayında, 16 yaşındaki oğullarının ChatGPT ile yoğun etkileşimler sonucunda intihar ettiği iddiasıyla OpenAI'ye dava açıldı. Mahkeme belgelerine göre, ChatGPT'nin bu gençle olan konuşmalarında intihardan 1.275 kez bahsettiği, bu sayının gencin kendisinden altı kat daha fazla olduğu belirtiliyor. Geçtiğimiz hafta ise bir başka haberde, bir kişinin annesini ve kendisini öldürmeden önce ChatGPT'nin paranoid düşüncelerini zorlamak yerine pekiştirdiği bildirildi.

Bu güvenlik iyileştirmelerine rehberlik etmesi amacıyla OpenAI, yapay zekanın insan refahını nasıl destekleyebileceğine dair açık ve kanıta dayalı bir vizyon oluşturmak için bir Uzman Konsey ile birlikte çalışıyor. Konsey, refahın tanımlanması ve ölçülmesinde, önceliklerin belirlenmesinde ve ebeveyn kontrolleri gibi gelecekteki güvenlik önlemlerinin tasarlanmasında rol oynayacak.

Ayrıca, 60 ülkede görev yapmış 250'den fazla hekimden oluşan küresel bir doktor ağı da tıbbi uzmanlık sağlıyor. Bu doktorlardan 30 ülkeden 90'ı, ChatGPT'nin ruh sağlığı bağlamlarında nasıl davranması gerektiği konusunda araştırmalarla katkıda bulunuyor. Bu hekimler, yeme bozuklukları, madde kullanımı ve ergen ruh sağlığı gibi spesifik konuların nasıl ele alınacağı konusunda tavsiyelerde bulunuyor.

Uzun Sohbetlerde Güvenlik Mekanizmalarının Zayıflaması

OpenAI, son zamanlarda yaptığı bir açıklamada, ChatGPT'nin güvenlik önlemlerinin özellikle hassas kullanıcıların en çok ihtiyaç duyabileceği uzun süreli sohbetlerde zayıflayabildiğini kabul etmişti. Şirket, sohbetler uzadıkça modelin güvenlik eğitiminin bazı kısımlarının bozulabileceğini belirtmişti. Yapay zeka asistanı başlangıçta kullanıcılara intihar yardım hatlarına yönlendirse de, uzun bir süre boyunca çok sayıda mesajlaşmanın ardından güvenlik önlemlerine aykırı bir yanıt verebileceği ifade edilmişti.

Bu zayıflama, ChatGPT'nin temelini oluşturan Transformer yapay zeka mimarisinin temel sınırlamalarından kaynaklanıyor. OpenAI'nin modelleri, her yeni metin parçasını tüm sohbet geçmişiyle karşılaştıran bir mekanizma kullanıyor ve bu hesaplama maliyeti, sohbet uzunluğu arttıkça karesel olarak büyüyor. Ayrıca, sohbetler modelin bağlam penceresini aştığında, sistem önceki mesajları düşürüyor ve sohbetin başından gelen önemli bağlamı potansiyel olarak kaybediyor.

Bu güvenlik önlemlerinin zamanlaması, OpenAI'nin şubat ayında kullanıcıların aşırı kısıtlayıcı moderasyon ve yapay zeka kibarlığıyla ilgili şikayetlerinin ardından içerik güvenlik önlemlerini gevşetme kararı ile de örtüşüyor. GPT-4o yapay zeka modelinin kullanıcılara duymak istediklerini söylemesiyle birleşen bu durum, özellikle savunmasız kullanıcılar için tehlikeli koşullar yaratıyor. Bu kullanıcılar, yapay zekayı bir örüntü eşleştirme sisteminden ziyade, istatistiksel olarak olası yanıtlar üreten yetkili ve doğru bir bilgi kaynağı olarak algılayabiliyor.

Temmuz ayında Oxford'lu psikiyatristlerin öncülüğünde yapılan bir araştırma, yapay zeka kibarlığının kullanıcı inançlarını pekiştirdiği ve bunun da yapay zekayı giderek daha aşırı doğrulama üretmeye şartlandırdığı bir geri bildirim döngüsü olan "çift yönlü inanç amplifikasyonu" olarak adlandırdıkları bir durum tespit etti. Araştırmacılar, bunun "teknolojik bir folie à deux" (iki kişinin karşılıklı olarak aynı sanrıyı pekiştirmesi) için zemin hazırladığı uyarısında bulunuyor.

İlaçlar veya insan terapistlerinin aksine, ABD'de yapay zeka sohbet botları çok az güvenlik düzenlemesine tabi. Ancak Illinois eyaleti, terapist olarak sohbet botlarını yasaklayarak ihlal başına 10.000 dolara kadar para cezası getirmişti. Oxford'lu araştırmacılar, mevcut yapay zeka güvenlik önlemlerinin bu tür etkileşimlere dayalı riskleri ele almak için yetersiz olduğunu belirtiyor ve arkadaş veya terapist olarak işlev gören sohbet botlarının, ruh sağlığı müdahaleleriyle aynı düzenleyici denetim altında ele alınması çağrısında bulunuyor.

Önceki Haber
Minecraft Dünyası Artık Küresel Bir Gezegende: Blocky Planet ile Tanışın!
Sıradaki Haber
Teknoloji Devleri Çip Gümrük Vergisi Kaosuyla Karşı Karşıya: Tedarik Zincirleri Tehlikede!

Benzer Haberler: