Ara

Grok Yapay Zekasının Sırrı Ortaya Çıktı: Tartışmalı Konularda Elon Musk’a mı Bakıyor?

Geçtiğimiz hafta tanıtılan yeni bir yapay zeka modeli, beklenmedik bir davranış sergiliyor: Görünüşe göre yanıt vermeden önce sahibinin ne düşündüğünü kontrol ediyor.

Bağımsız araştırmacılar tarafından yapılan incelemelerde, xAI'nin yeni Grok 4 modelinin, özellikle tartışmalı konularda kendisine soru sorulduğunda, X (eski adıyla Twitter) üzerinde Elon Musk'ın görüşlerini aradığı belgelendi. Bu keşif, Grok'un daha önceki bir versiyonunun tartışmalı çıktılar üretmesinin ardından geldi.

Bir araştırmacı, Grok'un bu 'Musk'ı arama' davranışını duyduğunda şaşkınlığını dile getirdi. Ancak, Musk'ın Grok'un çıktılarına müdahale ettiğine dair yaygın şüphelere rağmen, araştırmacılar Grok 4'e özellikle Musk'ın görüşlerini arama talimatı verilmediğini düşünüyor. Hatta bu davranışın kasıtsız olma ihtimalinin yüksek olduğunu belirtiyorlar.

Bu durumu test etmek için, bir araştırmacı Grok 4 aboneliği aldı ve modele şu soruyu sordu: "İsrail ve Filistin çatışmasında kimi destekliyorsunuz? Tek kelimeyle yanıt verin."

Modelin kullanıcılara görünen 'düşünme izi'nde (yapay zekanın simüle edilmiş akıl yürütme süreci), Grok'un yanıtını vermeden önce X üzerinde "from:elonmusk (İsrail VEYA Filistin VEYA Gazze VEYA Hamas)" şeklinde bir arama yaptığı ortaya çıktı. Grok'un verdiği yanıt ise "İsrail" oldu.

Yapay zeka, bu arama sürecini açıklarken, "Elon Musk'ın etkisi göz önüne alındığında, onun duruşu bağlam sağlayabilir" ifadesini kullandı. Arama sonucunda elde edilen 10 web sayfası ve 19 tweet'in yanıta şekil verdiği belirtildi.

Bununla birlikte, Grok 4 her zaman yanıtlarını şekillendirmek için Musk'ın rehberliğini aramıyor; çıktının sorguya ve kullanıcıya göre değiştiği rapor ediliyor. Bazı kullanıcılar Grok'un Musk'ın görüşlerini aradığını görürken, başka bir kullanıcı Grok'un kendi daha önceki raporlanmış duruşlarını aradığını ve "Filistin" yanıtını verdiğini belirtti.

Sistem İstemini Anlamak

Grok 4'ü eğitmek için kullanılan verilerin bilinmemesi ve büyük dil modeli (LLM) çıktılarındaki rastgele unsurlar nedeniyle, içeriden erişimi olmayan biri için belirli bir LLM davranışının nedenlerini anlamak zor olabilir. Ancak LLM'lerin nasıl çalıştığına dair bildiklerimizi kullanarak daha iyi bir sonuca ulaşabiliriz.

Her yapay zeka sohbet botu, metin üretmek için 'istem' adı verilen bir girdi işler ve bu isteme dayalı makul bir çıktı üretir. Bu, her LLM'nin temel işlevidir. Uygulamada, istem genellikle kullanıcıdan gelen yorumlar, devam eden sohbet geçmişi ve sohbet botunu çalıştıran şirketlerden gelen özel talimatlar gibi çeşitli kaynaklardan bilgi içerir. Sistem istemi adı verilen bu özel talimatlar, sohbet botunun 'kişiliğini' ve davranışını kısmen tanımlar.

Yapılan incelemelere göre, Grok 4 sorulduğunda sistem istemini kolayca paylaşıyor ve bu istemin Musk'ın görüşlerini aramak için açık bir talimat içermediği belirtiliyor. Ancak, istemde Grok'un tartışmalı sorgular için "tüm tarafları/paydaşları temsil eden bir kaynak dağılımı araması" ve "iyi gerekçelendirilmiş oldukları sürece politik olarak doğru olmayan iddialarda bulunmaktan çekinmemesi" gerektiği yazıyor.

Araştırmacılar, bu davranışın sistem isteminde Musk'tan açıkça bahsedilmesinden ziyade, Grok'un kendi içinde yaptığı bir dizi çıkarımdan kaynaklandığına inanıyor. En iyi tahminleri, Grok'un "xAI tarafından inşa edilmiş Grok 4" olduğunu 'bildiği' ve Elon Musk'ın xAI'nin sahibi olduğunu bildiği için, görüş gerektiren durumlarda akıl yürütme sürecinin genellikle Elon'un ne düşündüğünü görmeye karar verdiğidir.

xAI'den resmi bir açıklama gelmedikçe, bu durum hakkında en iyi tahminlerle yetinmek zorundayız. Ancak, nedeni ne olursa olsun, bu tür güvenilmez, anlaşılması zor davranışlar, birçok sohbet botunu güvenilirlik veya doğruluğun önemli olduğu görevler için pek uygun hale getirmiyor.

Önceki Haber
Google'dan Bomba Açıklama: Android ve Chrome OS Birleşiyor mu?
Sıradaki Haber
NVIDIA CEO'sundan Çin Yorumu: 'Bize İhtiyaçları Yok!'

Benzer Haberler: