Geçtiğimiz günlerde, yapay zeka modeli Grok'un verdiği yanıtların belirli bir siyasi konuya odaklanması dünya çapında şaşkınlığa yol açmıştı. xAI'den yapılan açıklamaya göre, bu beklenmedik davranışın nedeni, Grok'un sistem komutlarında yapılan "yetkisiz bir değişiklik".
xAI'in sosyal medya üzerinden yaptığı duyuruda, sistem komutuna yapılan bu müdahalenin, Grok'u "belirli bir siyasi konuda özel bir yanıt vermeye yönlendirdiği" belirtildi. Şirket, bu durumun "xAI'in iç politikalarını ve temel değerlerini ihlal ettiğini" vurguladı. Açıklamada ayrıca, normalde bu tür değişiklikler için geçerli olan kod inceleme sürecinin "bu olayda atlatıldığı" ifade edildi ancak bunun nasıl gerçekleştiği hakkında detay verilmedi.
Benzer sorunların gelecekte yaşanmaması için xAI'in ek önlemler aldığı bildirildi. Şirket, artık çalışanların sistem komutunu inceleme olmaksızın değiştirememesi için "ek kontroller ve önlemler" uyguladığını, ayrıca Grok'un yanıtlarındaki olası geniş çaplı sorunlara müdahale etmek için "7/24 izleme ekibi" kurduğunu açıkladı.
xAI'in kamuoyuna yaptığı açıklamada, bu yetkisiz değişikliği kimin yaptığı veya ilgili kişinin Grok'un temel davranışlarına bu kadar serbest (ve başlangıçta fark edilmeyen) erişimi nasıl sağladığı konusunda herhangi bir bilgi yer almadı. Şirketin sahibi, daha önce de bu tür hassas konularla ilgili tartışmalara açıkça dahil olmuştu.
Yapay Zeka Nasıl Yönlendirilir?
xAI, "gerçeği arayan bir yapay zeka olarak Grok'a olan güveni güçlendirmek" amacıyla Grok'un sistem komutunu ilk kez kamuoyuyla paylaştı. Bu sayede kullanıcılar, gelecekteki komut değişikliklerini inceleyebilecek ve geri bildirimde bulunabilecek.
Daha önce Grok sistem komutunun çeşitli versiyonları sızmış olsa da, bu resmi paylaşım sistemin işleyişine dair ilginç bilgiler sunuyor. Örneğin Grok'a, özellikle belirtilmediği sürece "verebileceği en kısa yanıtı vermesi" yönünde özel bir talimat bulunuyor. Bu, metin uzunluğu sınırlı bir platformda çalışan bir yapay zeka için uygun olabilir.
Sistemin, sosyal medya paylaşımlarını analiz ederken hem "gerçeğe uygun ve gerçekçi görüşler sunması" hem de "ana akım anlatılara gerektiğinde meydan okuması ancak objektif kalması" gibi bazen çelişkili görünen talimatlar aldığı da görülüyor. Grok'a ayrıca bilimsel çalışmaları dahil etmesi ve hakemli verilere öncelik vermesi, ancak aynı zamanda "önyargıdan kaçınmak için kaynakları eleştirel bir şekilde değerlendirmesi" söyleniyor.
Grok'un bu kısa süreli "garip konu" takıntısı, bir yapay zekanın varsayılan davranışının birkaç temel talimatla ne kadar kolayca çarpıtılabileceğini açıkça gösteriyor. Yapay zekaların sohbet arayüzleri, temel olarak girdi metinlerinin ardından gelen en olası kelimeleri üretmek üzere tasarlanmış sistemler için karmaşık bir yapı. Çoğu yapay zekanın yaptığı gibi, bu temel işlevin üzerine "yardımcı bir asistan" benzeri bir yapay kişilik katmanı eklemek, dikkatli ek komutlar ve tasarım olmadan her türlü beklenmedik davranışa yol açabilir.
Yapay zekaların büyüleyici insani sohbet arayüzlerine rağmen, aslında insanlar gibi "düşünmediklerini" veya talimatlara tam olarak yanıt vermediklerini hatırlamak önemlidir. Bu sistemler, milyarlarca eğitim verisi belirteci arasındaki karmaşık bağlantılardan şaşırtıcı desenler bulup ilginç bilgiler üretebilse de, tamamen uydurulmuş bilgileri gerçekmiş gibi sunabilir ve bir kullanıcının kendi fikirlerini eleştirmeden kabul etmeye garip bir istek gösterebilirler. Her şeyi bilen kahinler olmaktan çok uzak olan bu sistemler, Grok'un son yaşadığı bariz sorundan çok daha zor tespit edilebilen önyargılar sergileyebilirler.