Anthropic'in yapay zeka modelleri, sınıflandırılmış belgelerin analizinde casuslara yardımcı olabilecek potansiyele sahip olsa da, şirket iç gözetim konusunda net çizgiler çekiyor. Bu kısıtlamanın, ABD yönetiminde rahatsızlığa yol açtığı bildiriliyor.
Salı günü yapılan bir habere göre, Anthropic'in, Claude modellerinin kolluk kuvvetleri tarafından kullanımına yönelik getirdiği kısıtlamalar nedeniyle ABD yönetiminden artan bir tepkiyle karşı karşıya kaldığı belirtildi. İki üst düzey Beyaz Saray yetkilisi, FBI ve Gizli Servis gibi kurumlarla çalışan federal yüklenicilerin, gözetim görevleri için Claude'u kullanmaya çalıştıklarında engellerle karşılaştığını ifade etti.
Bu gerginliğin temelinde, Anthropic'in iç gözetim uygulamalarını yasaklayan kullanım politikaları yatıyor. Anonim olarak konuşan yetkililer, Anthropic'in politikalarını siyasi tercihlere göre seçici olarak uyguladığından ve kuralların geniş yorumlanmasına imkan tanıyan muğlak ifadeler kullandığından endişe duyduklarını dile getirdi.
Bu kısıtlamalar, kolluk kuvvetleri ile çalışan ve işleri için yapay zeka modellerine ihtiyaç duyan özel yüklenicileri etkiliyor. Yetkililere göre, bazı durumlarda Anthropic'in Claude modelleri, Amazon Web Services'in GovCloud'u aracılığıyla en gizli güvenlik durumları için onaylanmış tek yapay zeka sistemleri olma özelliğini taşıyor.
Anthropic, ulusal güvenlik müşterilerine yönelik özel bir hizmet sunuyor ve federal hükümetle, hizmetlerini nominal bir dolar karşılığında kurumlara sağlamak üzere bir anlaşma yapmış durumda. Şirket ayrıca Savunma Bakanlığı ile de çalışıyor, ancak politikaları modellerin silah geliştirme için kullanımını hala yasaklıyor.
Geçtiğimiz Ağustos ayında, OpenAI da federal yönetici kadrosundaki 2 milyona yakın çalışana, bir yıl boyunca ajans başına bir dolara ChatGPT Enterprise erişimi sağlama konusunda benzer bir anlaşma duyurmuştu. Bu anlaşma, Genel Hizmetler İdaresi'nin OpenAI, Google ve Anthropic'in federal çalışanlara araç sağlamasına izin veren toplu bir sözleşme imzalamasından bir gün sonra geldi.
Para ve Etik Arasında Sıkışmak
ABD yönetimi ile yaşanan bu gerginliğin zamanlaması, Anthropic'in Washington'da medya çalışmaları yürüttüğü bir döneme denk gelmesiyle karmaşıklık yaratıyor. Yönetim, Amerikan yapay zeka şirketlerini küresel rekabette kilit oyuncular olarak konumlandırıyor ve bu şirketlerden karşılıklı işbirliği bekliyor. Ancak bu, Anthropic'in ABD yönetimi yetkilileriyle yaşadığı ilk sorun değil. Şirket daha önce, ABD eyaletlerinin kendi yapay zeka düzenlemelerini çıkarmasını engelleyecek bir yasa tasarısına karşı çıkmıştı.
Genel olarak Anthropic, şirket değerlerini koruma, sözleşme arayışı ve işini desteklemek için risk sermayesi toplama arasında zorlu bir yol izliyor. Örneğin, geçtiğimiz Kasım ayında Anthropic, Claude'u ABD istihbarat ve savunma kurumlarına Palantir'in "gizli" sınıflandırma düzeyine kadar verileri işleyen Impact Level 6 ortamı aracılığıyla sunmak üzere Palantir ve Amazon Web Services ile bir ortaklık duyurdu. Bu ortaklık, yapay zeka etiği topluluğundaki bazı kişiler tarafından, Anthropic'in yapay zeka güvenliğine odaklanma beyanıyla çeliştiği gerekçesiyle eleştirilere yol açtı.
Daha geniş bir perspektifte, yapay zeka dil modellerinin potansiyel gözetim yetenekleri güvenlik araştırmacılarının merceği altına alındı. Bir güvenlik araştırmacısı, yapay zeka modellerinin, büyük konuşma veri kümelerinin analizini ve özetlenmesini otomatikleştirerek benzeri görülmemiş bir toplu casusluğa olanak tanıyabileceği uyarısında bulunmuştu. Geleneksel casusluk yöntemlerinin yoğun insan emeği gerektirdiğini, ancak yapay zeka sistemlerinin iletişimi büyük ölçekte işleyebildiğini ve potansiyel olarak gözetimi eylemleri gözlemlemekten duygu analizi yoluyla niyetleri yorumlamaya kaydırabileceğini belirtmişti.
Yapay zeka modelleri, insan iletişimini benzeri görülmemiş bir ölçekte işleyebildikçe, kimin onları gözetim için (ve hangi kurallar dahilinde) kullanabileceğine dair mücadele daha yeni başlıyor.