Ara

Elon Musk’ın Devlet Projesinde Sürpriz Yapay Zeka: Grok Yerine Meta Llama 2 Kullanıldı İddiası!

Elon Musk'ın, ABD federal hükümetindeki verimliliği artırma ve gereksiz harcamaları azaltma hedefiyle kurduğu iddia edilen birimde (genellikle DOGE olarak anılıyor) ilk denemeler için beklenmedik bir yapay zeka modelinin kullanıldığı ortaya çıktı.

İlk bilgilere göre, DOGE ile bağlantılı kişiler, federal çalışanlara gönderilen ve kamuoyunda 'Yol Ayrımı' e-postası olarak bilinen controversial mesajlara verilen yanıtları analiz etmek için Meta'nın eski bir yapay zeka modeli olan Llama 2'yi test edip kullandı.

'Yol Ayrımı' e-postası, Elon Musk'ın Twitter (şimdiki adıyla X) çalışanlarına gönderdiği, 'şirkete sadık kalmayı ve ofise dönmeyi kabul et ya da istifa et' minvalindeki mesajı anımsatıyordu. Bu e-posta federal çalışanlara, hükümetin belirlediği ofise dönüş politikasına uymayı 'sadakat' olarak kabul etme ya da istifa etme seçeneği sunuyordu. O dönemde DOGE'nin çalışan verilerini yapay zekaya beslediği söylentileri yayılmıştı ve son ortaya çıkan bilgiler, Llama 2'nin yanıtları sınıflandırmak ve kaç çalışanın istifa ettiğini görmek için kullanıldığını doğruluyor.

Llama 2, geçmişte de farklı tartışmalarla gündeme gelmiş bir model. Açık kaynak kodlu yapısı nedeniyle Meta, modelin askeri dahil farklı alanlarda kullanımına izin vermiş, bu da bazı güvenlik ve etik tartışmalarına yol açmıştı.

Meta'nın modelleri açık kaynak olduğundan, şirketin açık rızası olmadan da Musk'ın hedeflerini desteklemek için kolayca kullanılabileceği yorumları yapılıyor. Ancak, Llama 2'nin hükümette tam olarak nerede konuşlandırıldığı veya Meta'nın daha yeni ve gelişmiş Llama 3 ve Llama 4 modelleri varken neden eski bir modelin tercih edildiği tam olarak net değil.

Llama 2'nin DOGE tarafından kullanımı hakkında çok fazla detay bilinmiyor. Kayıtlar, DOGE'nin modeli yerel olarak çalıştırdığını, yani verilerin internet üzerinden gönderilmesinin pek olası olmadığını gösteriyor. Bu durum, birçok federal çalışanın dile getirdiği önemli bir gizlilik endişesini bir nebze olsun gideriyor.

Ancak yapay zeka kullanımı, ABD'li yasa koyucuların tepkisini çekti. Kırktan fazla milletvekili, DOGE'nin yapay zeka kullanımının araştırılmasını talep eden bir mektup gönderdi. Mektupta, yapay zeka kullanımının ciddi güvenlik riskleri taşıyabileceği ve başarılı yapay zeka adaptasyonunu baltalama potansiyeline sahip olduğu uyarısı yapıldı.

Mektupta ayrıca, bir DOGE çalışanının Musk'ın xAI şirketine ait Grok-2 modelini 'yapay zeka asistanı' oluşturmak için kullandığı iddiaları ve ihale verilerini analiz etmek için 'Anthropic ve Meta modellerini' temel alan bir sohbet robotunun kullanıldığına dair endişeler dile getirildi. DOGE'nin, devlet genelinde toplu işten çıkarmaları hızlandırmak için kullanılan bir yazılımla da bağlantılı olduğu belirtiliyor.

Yasa koyucular, özellikle iki milyon federal çalışanın büyük bir kısmından gelen e-postaları (haftalık başarıları özetleyen) analiz etmek için yapay zeka sistemlerinin kullanılmasının şeffaflıktan yoksun olduğunu ve büyük güvenlik endişeleri taşıdığını vurguladı. Çalışanlar, hassas bilgilerin güvenlik izni olmadan talep edilmesinden endişelenmişti.

Peki Neden Grok Değil?

Musk'ın kendi yapay zeka modeli Grok'un, Ocak ayında bu tür bir görev için hazır veya uygun olmadığı düşünülüyor. Grok o dönemde sadece tescilli bir model olarak mevcuttu. Gelecekte DOGE'nin Grok'a daha sık güvenebileceği belirtiliyor, zira Microsoft gibi şirketler xAI'nin Grok modellerini platformlarında sunmaya başladı, bu da modellerin daha geniş kullanımına olanak tanıyor.

Yasa koyucular, mektuplarında Musk'ın olası çıkar çatışmalarının soruşturulması çağrısı yaparken, potansiyel veri ihlalleri konusunda uyardılar ve yapay zekanın, DOGE'nin kullandığı şekilde, devlet için henüz hazır olmadığını belirttiler.

'Uygun korumalar olmadan, hassas verileri bir yapay zeka sistemine beslemek, bu verileri sistem operatörünün eline bırakır ki bu, kamu ve çalışan güvenine büyük bir ihlal ve bu verilerle ilgili siber güvenlik risklerinde bir artıştır' diyen yasa koyucular, üretici yapay zeka modellerinin sıklıkla hatalar yaptığını ve önemli yanlılıklar sergilediğini, bu teknolojinin uygun denetim, şeffaflık ve koruma olmadan yüksek riskli karar alma süreçlerinde kullanıma hazır olmadığını savundular.

'Yol Ayrımı' e-postalarından hassas verilerin harici bir kaynağa gönderilmediği doğrulanmış olsa da, yasa koyucular 'kişisel olarak tanımlanabilir veya hassas bilgilerin yapay zeka modeli sağlayıcılarıyla paylaşılması riskini' azaltmak için yapay zeka sistemlerinin çok daha fazla incelenmesini istiyor.

Görünen o ki, Musk'ın kendi modellerini daha fazla kullanmaya başlayabileceği, rakiplerinin erişemeyeceği hükümet verilerinden faydalanabileceği ve potansiyel olarak bu verileri ihlal riskine atabileceği yönünde bir korku var. Yasa koyucular, DOGE'nin tüm yapay zeka sistemlerini fişini çekmeye zorlanmasını umuyor, ancak hükümet yetkilileri, 'kurumların yeniliğin önündeki engelleri kaldırması ve vergi mükellefleri için en iyi değeri sağlaması gerektiğini' belirterek DOGE ile daha uyumlu görünüyor.

Yasa koyucular, 'Federal hükümetin verimliliği veya etkinliği artırabilecek yeni, onaylanmış yapay zeka teknolojilerini entegre etmesini desteklerken, federal verilerle etkileşimde güvenlik, gizlilik ve uygun kullanım standartlarından feragat edemeyiz' dediler. Ayrıca, yanılsamalar ve yanlılıklarıyla sıkça bilinen yapay zeka sistemlerinin, federal istihdamın sonlandırılması veya federal finansman gibi kararlarda, modellerin yeterli şeffaflığı ve denetimi olmadan kullanılmasına göz yumamayız. Hatalı teknoloji veya teknolojinin hatalı kullanımları nedeniyle yetenekli kişileri ve kritik araştırmaları kaybetme riski çok yüksek.

Önceki Haber
TV'nizdeki Gizli Oyun Gücü: HDMI Özellikleriyle Tanışın!
Sıradaki Haber
E-Bisiklet Pilleri İçin Devrim Gibi Çözüm: Kendi Pilinizi Kendiniz Tamir Edin!

Benzer Haberler: