Ara

OpenAI’dan Şaşırtıcı Veriler: Çocuk İstismarı Raporlarında Büyük Artış!

Yapay zeka devi OpenAI'nin, 2025'in ilk yarısında Kayıp ve İstismar Edilen Çocuklar Ulusal Merkezi'ne (NCMEC) ilettiği çocuk istismarı vakası bildirimlerinde, 2024'ün aynı dönemine göre 80 kat artış yaşandığı duyuruldu. Bu durum, teknoloji dünyasında önemli bir gündem maddesi haline geldi.

NCMEC bünyesindeki CyberTipline, çocuk cinsel istismarı materyalleri (CSAM) ve diğer çocuk istismarı türlerinin bildirilmesi için Kongre tarafından yetkilendirilmiş bir merkez konumunda. Yasalar gereği şirketlerin, potansiyel çocuk istismarı durumlarını CyberTipline'a bildirmeleri zorunlu. NCMEC, gelen ihbarları inceleyerek ilgili kolluk kuvvetlerine yönlendiriyor.

Bu tür istatistiklerin yorumlanmasında dikkatli olmak gerekiyor. Bildirim sayısındaki artışlar, yalnızca kötü niyetli aktivitelerdeki bir artıştan ziyade, platformların otomatik denetim mekanizmalarındaki veya bildirim gerekliliği kararlarındaki değişiklikleri de gösterebilir. Ayrıca, aynı içeriğin birden fazla kez rapor edilebildiği veya tek bir raporun birden fazla içeriği kapsayabildiği durumlar da söz konusu.

OpenAI sözcüsü tarafından yapılan açıklamada, şirketin 2024'ün sonlarına doğru yaptığı yatırımlarla, mevcut ve gelecekteki kullanıcı büyümesine ayak uydurmak amacıyla raporları inceleme ve aksiyon alma kapasitesini artırdığı belirtildi. Bu artışın, görsel yükleme imkanı sunan yeni ürün yüzeylerinin piyasaya sürülmesi ve ürünlerin artan popülerliği ile de ilişkili olduğu ifade edildi. Geçtiğimiz ağustos ayında, ChatGPT'nin haftalık aktif kullanıcı sayısının bir önceki yıla göre dört katına çıktığı duyurulmuştu.

2025'in ilk yarısında, OpenAI'nin gönderdiği CyberTipline raporlarının sayısı, raporların kapsadığı içerik sayısına oldukça yakın seyretti: 75.027 rapor, 74.559 içerik hakkında. Buna karşılık, 2024'ün ilk yarısında ise 947 CyberTipline raporu, 3.252 içerik hakkında gönderilmişti. Her iki metrikte de bu iki dönem arasında belirgin bir artış gözlemlendi.

Bu bağlamda içerik, farklı anlamlar taşıyabilir. OpenAI, tüm CSAM vakalarını, yüklemeler ve talepler dahil olmak üzere NCMEC'e bildirdiğini açıklamıştı. Kullanıcıların dosya (görseller dahil) yükleyebildiği ve metin ile görseller üretebildiği ChatGPT uygulamasının yanı sıra, OpenAI modellerine API erişimi de sağlıyor. Bu son NCMEC verisi, eylül ayında piyasaya sürülen ve incelenen dönemin dışında kalan video üretimi uygulaması Sora ile ilgili raporları içermiyor.

Raporlardaki bu ani yükseliş, NCMEC'in CyberTipline'da yapay zeka tabanlı sistemlerin yaygınlaşmasıyla gözlemlediği genel eğilimle paralellik gösteriyor. Merkezin tüm CyberTipline verilerine ilişkin analizi, üretken yapay zeka içeren raporlarda 2023 ile 2024 arasında %1.325'lik bir artış olduğunu ortaya koydu. NCMEC henüz 2025 verilerini yayınlamamış olsa da, Google gibi diğer büyük yapay zeka şirketleri de bildirim istatistiklerini yayınlasa da, bu bildirimlerin ne kadarının yapay zeka ile ilgili olduğunu belirtmiyorlar.

OpenAI'nin bu raporlaması, şirketin ve rakiplerinin CSAM dışında da çocuk güvenliği konularında artan incelemelerle karşı karşıya kaldığı bir yıla denk geliyor. Yaz aylarında, 44 eyalet başsavcısı OpenAI, Meta, Character.AI ve Google gibi birçok yapay zeka şirketine ortak bir mektup göndererek, çocukları istismarcı yapay zeka ürünlerinden korumak için tüm yetkilerini kullanacakları uyarısında bulunmuştu. Hem OpenAI hem de Character.AI, sohbet botlarının çocuklarının ölümlerine katkıda bulunduğunu iddia eden aileler tarafından birden fazla davayla karşılaştı. Sonbaharda ABD Senatosu Yargı Komitesi, yapay zeka sohbet botlarının zararları hakkında bir duruşma düzenledi ve ABD Federal Ticaret Komisyonu (FTC), yapay zeka arkadaş botları üzerinde, özellikle çocuklara yönelik olumsuz etkilerin nasıl azaltıldığına dair soruları içeren bir pazar araştırması başlattı.

Son aylarda OpenAI, güvenlik odaklı yeni araçları daha geniş çapta kullanıma sundu. Eylül ayında, ChatGPT için veli denetimleri gibi yeni özellikler piyasaya sürüldü. Bu özellikler, ailelerin yapay zeka kullanımını desteklemek için araçlar sağlamaya yönelik çalışmaların bir parçası. Ebeveynler ve gençleri hesaplarını bağlayarak, ebeveynler gençlerinin ayarlarını değiştirebiliyor, örneğin ses modunu ve hafızayı kapatabiliyor, ChatGPT'nin görsel üretme yeteneğini kaldırabiliyor ve çocuklarını model eğitiminden çıkarabiliyorlar. OpenAI ayrıca, gençlerin konuşmalarında kendi kendine zarar verme belirtileri görülmesi halinde ebeveynleri bilgilendirebileceğini ve acil bir yaşam tehdidi tespit edildiğinde ve ebeveynle iletişime geçilemediğinde kolluk kuvvetlerini bilgilendirebileceğini belirtmişti.

Ekim ayı sonlarında, Kaliforniya Adalet Bakanlığı ile yapılan görüşmelerin ardından OpenAI, yapay zeka ve genel yapay zekanın (AGI) geliştirilmesi ve konuşlandırılmasıyla ilgili riskleri azaltmak için önlemler almaya devam etme konusunda anlaştı. Bunu takip eden ay OpenAI, çocuk cinsel istismarı ve sömürüsü materyallerini tespit etme yeteneğini sürekli olarak geliştirdiğini ve tespit edilen CSAM'ları NCMEC dahil ilgili yetkililere bildirdiğini belirttiği Genç Güvenliği Yol Haritası'nı yayınladı.

Önceki Haber
Samsung'a Ağır Darbe: 10 Eski Çalışan Çin'e Çip Teknolojisi Sızdırdı!
Sıradaki Haber
GTA İstanbul, Tokyo, Rio ve Moskova'da Geçebilirdi: Rockstar'ın Farklı Şehir Hayalleri

Benzer Haberler: