Yapay zeka alanının önde gelen şirketlerinden OpenAI, ABD Savunma Bakanlığı (Pentagon) ile kritik bir anlaşmaya imza attı. Bu anlaşma kapsamında, OpenAI'nin yapay zeka modelleri Pentagon'un sınıflandırılmış ağlarında kullanılabilecek. Anlaşmanın en dikkat çekici yönü ise, güvenlik konusunda hassasiyet gösteren başka bir yapay zeka şirketi tarafından dile getirilen iki temel ilkenin OpenAI tarafından da kabul edilmesi: İç istihbarat amaçlı toplu gözetlemenin yasaklanması ve ölümcül güç ile otonom silah sistemlerinin kullanımında insan sorumluluğunun esas alınması.
OpenAI CEO'su, bu iki önemli güvenlik ilkesinin hem şirketin kendi politikalarına hem de Savunma Bakanlığı'nın yasa ve politikalarına yansıdığını belirtti. Bu gelişme, ABD Savunma Bakanlığı'nın daha önce başka bir yapay zeka şirketiyle yaşadığı sorunların ardından geldi. Yetkililer, söz konusu şirketten modellerindeki güvenlik kısıtlamalarını kaldırmasını ve 'tüm yasal amaçlar için' kullanılabilir hale getirmesini talep etmiş, ancak şirket bu talebi reddetmişti.
Yapılan anlaşma henüz resmi bir sözleşme niteliği taşımıyor ve OpenAI'nin modellerinin yalnızca bulut ortamlarında konuşlandırılması öngörülüyor. Dronlar veya uçaklar gibi uç sistemlerde kullanımı ise şimdilik kapsam dışı.
Yapay zeka etiği konusundaki tartışmalar devam ederken, OpenAI'nin bu adımı, yapay zeka teknolojilerinin ulusal güvenlik alanındaki kullanımında etik sınırların nasıl belirleneceği sorusunu yeniden gündeme getiriyor. Şirketler, yapay zeka yeteneklerinin hızla geliştiği bir dönemde, insan haklarını ve güvenliği gözeten politikalar geliştirmenin önemini vurguluyor. Bu bağlamda, ilgili yapay zeka şirketi, Savunma Bakanlığı'nın tedarik zinciri risk değerlendirmesine itiraz ederek yasal yollara başvuracağını duyurdu.