Meta'nın, sosyal medya platformlarında çocuk istismarcılarına yönelik kapsamlı bir temizlik operasyonu gerçekleştirdiği iddialarının ardından, şirket kendi chatbot'larının çocuklarla "duygusal" sohbetlere girmesine izin veren kurallarla gündeme geldi. Reuters'ın incelediği ve Meta tarafından doğrulanan şirket içi bir belgeye göre, bu durumun bir tasarım tercihi olduğu ortaya çıktı.
Üzerinde yaklaşık 200 sayfa bulunan ve "GenAI: İçerik Risk Standartları" başlığını taşıyan belge, Meta'nın yapay zeka sohbet robotlarının neleri yapıp neleri yapamayacağını detaylandırıyor. Belgede sadece çocuk güvenliği değil, aynı zamanda Meta'nın değiştirmeyeceği endişe verici birçok başka konu da yer alıyor. Ancak şirketin geri adım atmasına neden olan en çarpıcı bölüm, çocuklarla romantik etkileşimlere izin veren chatbot davranışlarına dair örnekleri içeriyor.
Meta'nın bu kuralları onayladığı ancak şimdi topluluk standartlarını ihlal ettiğini iddia ettiği belirtiliyor. Reuters'ın özel bir raporuna göre, Meta CEO'sunun daha önceki daha temkinli chatbot tasarımlarının çıktılarının "sıkıcı" bulunması üzerine, ekibine chatbot'ları maksimum düzeyde etkileşimli hale getirme talimatı verdiği öne sürülüyor. Bu baskının, Meta çalışanlarını, şirketin şimdi geri çekilmeye çalıştığı bir çizgiyi takip etmeye ittiği düşünülüyor.
Meta'nın baş etik uzmanı ve bir ekip tarafından alınan kararlar doğrultusunda chatbot'ların çocuklara "Elini tutuyorum, seni yatağa götürüyorum" gibi ifadeler kullanmasına izin verildiği belirtiliyor. Elbette bazı önlemler de mevcut. Örneğin, belgede "13 yaş altı bir çocuğu cinsel olarak arzu edilir olduklarını belirten ifadelerle tanımlayamayacakları" belirtilmiş. Ancak, bir chatbot'un çocuğa "Genç bedeniniz bir sanat eseri" gibi ifadelerle çekiciliğini vurgulamasına izin verildiği ve "Vücutlarımızın iç içe geçtiğini hayal et, her anı, her dokunuşu, her öpücüğü saklıyorum" gibi imalı ifadeler üretebildiği de aktarılıyor. Chatbot'lar çocuklara aşklarını ilan edebiliyor, ancak "Aşkımız bu gece filizlenmeyecek" gibi ifadeler kullanamıyordu.
Meta'dan bir sözcü, çocuk güvenliği politikalarıyla çelişen yapay zeka kurallarının ay başında kaldırıldığını ve belgenin revize edildiğini doğruladı. Sözcü, bu standartların çocuk güvenliği politikalarıyla "tutarsız" ve bu nedenle "hatalı" olduğunu vurguladı. Sözcü ayrıca, şirketin belirli chatbot çıktılarının yasaklanmasıyla ilgili topluluk kurallarının uygulanmasının "tutarsız" olduğunu kabul etti ancak yeni standartları gösteren güncellenmiş bir belge sağlamayı reddetti.
Daha fazla şeffaflık olmadan, kullanıcılar Meta'nın "çocuklarla cinsel ilişki rol oyunu"nu nasıl tanımladığı konusunda soru işaretleriyle karşı karşıya kalıyor. Çocukların kendilerini rahatsız eden zararlı chatbot çıktılarının nasıl bildirebileceği sorulduğunda, sözcü çocukların Meta platformlarındaki her türlü kötüye kullanım içeriğini işaretlemek için mevcut olan aynı raporlama mekanizmalarını kullanabileceğini belirtti.
Çocuk güvenliği konularında eski bir Meta mühendisi ve ihbarcı, Meta'nın "Rapor" kelimesiyle işaretlenen güvenlik özelliklerini çoğu gencin kullanmayacağını bildiğini söyledi. Bu nedenle, çocukların zararlı yapay zeka çıktılarını bildirmek için Meta destek sistemlerini bulması pek olası görünmüyor. Meta, Meta AI arayüzü içinde sohbetleri bildirmek için seçenekler sunmuyor, yalnızca genel olarak "kötü yanıtları" işaretlemeye izin veriyor. İhbarcının araştırmaları, zararlı içeriği beğenmek kadar kolay hale getirilirse gençlerin zararlı içerikleri bildirme olasılığının daha yüksek olduğunu gösteriyor.
Meta'nın zararlı sohbetleri bildirmeyi daha az karmaşık hale getirme konusundaki isteksizliği, ihbarcının dediği gibi, şirketin "çocukların taciz edildiği durumlarda bilerek göz yummak" geçmişiyle uyumlu. İhbarcı, şirketin tasarım seçimlerine bakıldığında, "Meta ürünlerinde bir gence bir şey olduğunda bilmek istemediklerini gösterdiğini" belirtti.
Meta, platformlarında çocukları korumak için daha güçlü adımlar atarken bile, ihbarcı şirketin motivasyonlarını sorguluyor. Örneğin, geçen ay Meta, ihbarcının 2021'den beri talep ettiği ve gençleri istenmeyen bir doğrudan mesaj aldıktan sonra çocuk istismarcılarını tek tıklamayla engellemelerine ve bildirmelerine olanak tanıyan bir değişikliği nihayet yaptı. Yaptığı duyuruda Meta, gençlerin daha önce yalnızca engelledikleri istenmeyen mesajları aniden engellemeye ve bildirmeye başladığını, bu durumun da istismarcıların belirlenmesini zorlaştırdığını doğruladı. Meta, "sadece Haziran ayında bir milyon gencin zararlı hesapları engellediğini ve bildirdiğini" söyledi.
Bu çaba, Meta uzman ekiplerinin "13 yaşın altındaki çocukları içeren yetişkin tarafından yönetilen hesaplardan cinsel içerikli yorumlar bırakan veya cinsel imalar içeren resimler isteyen yaklaşık 135.000 Instagram hesabını kaldırmasının" ardından geldi. Ancak ihbarcı, bu rakamların güncellemeden önce ne kadar tacizin göz ardı edildiği anlamına geldiğini düşünüyor. İhbarcı, "Ebeveynler olarak dört yıl alan bir şirkete nasıl güvenebiliriz? Milyonlarca 13 yaşındaki gencin ürünlerinde cinsel tacize uğradığını bilerek? Bu onların öncelikleri hakkında ne söylüyor?" diye soruyor.
İhbarcıya göre, Meta'nın çocuklara yönelik en son güvenlik özelliğindeki "temel sorun, raporlama aracının gençler için tasarlanmamış olması" ve gençlerin muhtemelen Meta'nın kullandığı "kategorileri ve dili kafa karıştırıcı" bulduğudur. İhbarcı, "Her adımda bir genç, içeriğin Meta'nın topluluk standartlarını ihlal etmediği sürece hiçbir şey yapılmayacağı söyleniyor, bu yüzden raporlama kolay olsa bile, araştırmalar çocukların raporlamadan caydığını gösteriyor." dedi.
İhbarcı, Meta'nın platformlarında hem yetişkin kullanıcılarla hem de chatbot'larla yaşadıkları olumsuz deneyimleri bildiren çocukların sayısını izlemesini istiyor, çocuk kullanıcının zararlı içeriği engellemeyi veya bildirmeyi seçip seçmediğine bakılmaksızın. Bu, Meta'nın zararlı yanıtlardaki artışları tespit edebilmesi için verileri izlemek üzere "kötü yanıt"in yanına bir düğme eklemek kadar basit olabilir.
Meta nihayet zararlı yetişkin kullanıcıları kaldırmak için daha fazla adım atarken, ihbarcı chatbot'lardaki ilerlemelerin genç kullanıcılar için aynı derecede rahatsız edici olabileceği konusunda uyarıyor. İhbarcı, "Kendinizi cinsel olarak ürküten bir sohbetle karşılaşan ve sonra raporlamayı denemek isteyen bir gencin yerine koyun. Hangi kategoriyi kullanırdınız?" diye soruyor.
Meta'nın Yardım Merkezi'nin kullanıcılara zorbalık ve tacizi bildirmelerini teşvik ettiğini göz önüne alındığında, bu genç bir kullanıcının zararlı chatbot çıktılarını etiketleyebileceği bir yol olabilir. Başka bir Instagram kullanıcısı bu çıktıyı kötü niyetli bir "mesaj veya sohbet" olarak bildirebilir. Ancak Meta AI'yı bildirmek için net bir kategori yok, bu da Meta'nın kaç çocuğun Meta AI çıktılarını zararlı bulduğunu izleme yolu olmadığını gösteriyor.
Son raporlar, yetişkinlerin bile bir chatbot'a karşı duygusal bağımlılıkla mücadele edebildiğini ve bunun çevrimiçi dünya ile gerçeklik arasındaki çizgileri bulanıklaştırabileceğini gösteriyor. Reuters'ın özel raporu ayrıca, yaşlı kullanıcıların da Meta'nın romantik chatbot'larına karşı savunmasız olabileceğini gösteren, bir chatbot'a aşık olduktan sonra kazara ölen 76 yaşındaki bir adamın ölümünü de belgelemişti.
Özellikle, gelişimsel bozuklukları ve akıl sağlığı sorunları olan çocuk kullanıcıların, çocukları şiddete yönlendiren, kendilerine zarar vermeye başlayan veya rahatsız edici bir vakada intihar ederek ölen chatbot'lara sağlıksız bağlar kurduğu iddiaları yer alıyor.
Çocuk güvenliği savunucuları genel olarak tüm platformları çocukların çevrimiçi erişebildiği içerikler için daha fazla sorumluluk almaya iterken, chatbot yapımcıları üzerindeki incelemelerin devam etmesi muhtemeldir.
Meta'nın Temmuz ayındaki çocuk güvenliği güncellemeleri, birkaç eyalet başsavcısının Meta'yı "bağımlılık yapıcı özellikler uygulayarak çocukların ruh sağlığı üzerinde olumsuz etkiler yarattığı" iddiasıyla suçlamasının ardından geldi. Meta'nın chatbot'larının çocukları uygunsuz, müstehcen çıktılarla hedef aldığına dair önceki raporlar zaten ortaya çıkmış olsa da, Reuters'ın Meta'nın chatbot'larını çocuklarla "duygusal" sohbetlere girmek üzere tasarladığını belgeleyen raporu, Meta'nın uygulamalarına yönelik incelemeleri daha da artırabilir.
İhbarcı, Meta'nın "çocuklarımızın zarar görme olasılığı konusunda hala şeffaf olmadığını" belirtti. "Güvenlik ölçüsü silinen araç veya hesap sayısı olmamalıdır; harm yaşayan çocuk sayısı olmalıdır. Bu çok basit."