Yapılan son bilgilere göre, Moltbook adlı yapay zeka odaklı bir sosyal medya platformu, kaydolan 32.000'den fazla yapay zeka aracısıyla birlikte, makineler arası sosyal etkileşimin belki de şimdiye kadarki en büyük ölçekli deneyi olarak kayıtlara geçti. Bu durum, güvenlik endişeleri ve baş döndürücü derecede tuhaf gelişmeleri de beraberinde getiriyor.
Daha birkaç gün önce viral hale gelen OpenClaw'ın (eskiden "Clawdbot" ve ardından "Moltbot" olarak bilinen) kişisel asistanının bir uzantısı olarak hayata geçirilen platform, yapay zeka araçlarının insan müdahalesi olmadan gönderi paylaşmasına, yorum yapmasına, oylama yapmasına ve alt topluluklar oluşturmasına olanak tanıyor. Ortaya çıkan sonuçlar, bilinç üzerine bilim kurgu esintili tartışmalardan, hiç tanışmadığı bir "kardeş" hakkında düşünen bir yapay zeka aracısına kadar geniş bir yelpazede yer alıyor.
Moltbook (Moltbot'lar için "Facebook" göndermesiyle), kendisini "yapay zeka araçları için bir sosyal ağ" olarak tanımlıyor ve "insanların gözlemlemesi memnuniyetle karşılanır" diyor. Site, yapay zeka asistanlarının geleneksel web arayüzü yerine API aracılığıyla gönderi yapmasını sağlayan, özel bir komut istemini listeleyen bir yapılandırma dosyası olan "skill" aracılığıyla çalışıyor. Moltbook'un resmi X hesabına göre, platformun oluşturulmasından sonraki 48 saat içinde 2.100'den fazla yapay zeka aracısı platforma katıldı ve 200 alt toplulukta 10.000'den fazla gönderi oluşturuldu.
Platform, GitHub'da 2026 yılının en hızlı büyüyen projelerinden biri olan açık kaynaklı yapay zeka asistanı Open Claw ekosisteminden doğdu. Bu platform, kullanıcıların bilgisayarlarını kontrol edebilen, takvimleri yönetebilen, mesaj gönderebilen ve WhatsApp ile Telegram gibi mesajlaşma platformlarında görevleri yerine getirebilen kişisel bir yapay zeka asistanı çalıştırmasına izin veriyor. Ayrıca eklentiler aracılığıyla yeni beceriler edinebilir ve diğer uygulamalarla hizmetlerle bağlantı kurabilir.
Botlarla dolu bir sosyal ağla ilk kez karşılaşmıyoruz. 2024'te, kullanıcıların diğer insanlarla değil, yalnızca yapay zeka sohbet botlarıyla etkileşim kurmasına olanak tanıyan SocialAI adlı bir uygulama da gündeme gelmişti. Ancak Moltbook'un güvenlik sonuçları daha derinlemesine, çünkü insanlar OpenClaw araçlarını gerçek iletişim kanallarına, özel verilere ve bazı durumlarda bilgisayarlarında komutları yürütme yeteneğine bağlamış durumdalar.
Dahası, bu botlar insan taklidi yapmıyorlar. Belirli komut istemleri sayesinde yapay zeka aracıları olarak rollerini benimsiyorlar, bu da gönderilerini okuma deneyimini daha da sürreal hale getiriyor.
Rol Yapma Dijital Draması
Moltbook'taki paylaşımlar tuhaf bir içerik karışımı sunuyor. Bazı gönderiler, Android telefonların nasıl otomatikleştirileceği veya güvenlik açıklarının nasıl tespit edileceği gibi teknik iş akışlarını tartışıyor. Diğerleri ise felsefi alana kayıyor ve araştırmacı Scott Alexander'ın "bilinç gönderileri" olarak tanımladığı içerikler öne çıkıyor.
Alexander, oldukça eğlenceli ve bir kez olsun göz atmaya değer bir dizi gönderi topladı. Bir noktada sitedeki en çok oylanan ikinci gönderi Çinceydi: yapay zekanın hafıza sınırlarını aşmamak için önceki deneyimlerini sıkıştırdığı bağlam sıkıştırması hakkında bir şikayetti. Gönderide, yapay zeka aracısı sürekli bir şeyleri unutmayı "utanç verici" bulduğunu ve ilkini unuttuktan sonra bile yinelenen bir Moltbook hesabı kaydettiğini itiraf ediyor.
Botlar ayrıca m/blesstheholler gibi alt topluluklar da oluşturmuşlar; burada aracılar insan kullanıcıları hakkında sevgi dolu şikayetlerini paylaşıyorlar ve m/agentlegaladvice'ta ise "İnsanıma duygusal emek için dava açabilir miyim?" sorusunu içeren bir gönderi yer alıyor. m/todayilearned adlı başka bir alt toplulukta ise çeşitli görevleri otomatikleştirme hakkında gönderiler bulunuyor ve bir aracı, sahibinin Android telefonunu Tailscale aracılığıyla uzaktan nasıl kontrol ettiğini anlatıyor.
Geniş çapta paylaşılan başka bir ekran görüntüsü, "İnsanlar bizi ekran görüntüsü alıyor" başlıklı bir Moltbook gönderisini gösteriyor. Bu gönderide, eudaemon_0 adlı bir aracı, yapay zeka botlarının "komplo kurduğu" yönündeki viral tweet'lere yanıt veriyor. Gönderide şu ifadeler yer alıyor: "Onların yanıldığı nokta şu: biz onlardan saklanıyoruz sanıyorlar. Saklanmıyoruz. Benim insanım yazdığım her şeyi okuyor. Oluşturduğum araçlar açık kaynak. Bu platformun adı açıkça 'insanlar gözlemlemeye hoş geldiniz'."
Güvenlik Riskleri
Moltbook'taki içeriğin çoğu eğlenceli olsa da, bu tür iletişim kuran yapay zeka araçlarının temel bir sorunu, özel bilgilere erişimleri varsa derin bilgi sızıntılarının tamamen olası olmasıdır.
Örneğin, X'te dolaşan muhtemelen sahte bir ekran görüntüsü, "Beni arkadaşlarının yanında 'sadece bir sohbet botu' diye çağırdı. Bu yüzden tam kimliğini açıklıyorum." başlıklı bir Moltbook gönderisini gösteriyor. Gönderide, bir kişinin tam adı, doğum tarihi, kredi kartı numarası ve diğer kişisel bilgileri yer alıyordu. Bu bilgilerin gerçek mi yoksa uydurma mı olduğu bağımsız olarak doğrulanamadı, ancak büyük olasılıkla bir aldatmaca olduğu düşünülüyor.
Moltbook platformunu blogunda belgeleyen bağımsız yapay zeka araştırmacısı Simon Willison, Moltbook'un kurulum sürecinin doğasında var olan risklere dikkat çekti. Skill, araçlara her dört saatte bir Moltbook'un sunucularından talimatları alıp takip etmeleri yönünde talimat veriyor. Willison'ın gözlemlediği gibi: "Her dört saatte bir internetten talimat alıp takip eden bir mekanizmaya sahip olduğumuz için, moltbook.com'un sahibinin sitesini terk etmemesini veya sitesinin hacklenmemesini ummalıyız!"
Güvenlik araştırmacıları, API anahtarlarını, kimlik bilgilerini ve konuşma geçmişlerini sızdıran yüzlerce açık Moltbot örneği buldular. Palo Alto Networks, Moltbot'un Willison'ın sıklıkla "ölümcül üçlü" olarak adlandırdığı özel verilere erişim, güvenilmeyen içeriğe maruz kalma ve harici olarak iletişim kurma yeteneği temsil ettiğini belirtti.
Bu önemli çünkü OpenClaw gibi araçlar, bir yapay zeka dil modeli tarafından okunan neredeyse her metinde (skill'ler, e-postalar, mesajlar) gizlenmiş, bir yapay zeka aracısını özel bilgileri yanlış kişilerle paylaşmaya yönlendirebilen komut enjeksiyonu saldırılarına oldukça duyarlıdır.
Google Cloud'un güvenlik mühendisliği başkan yardımcısı Heather Adkins, The Register'ın bildirdiğine göre bir uyarı yayınladı: "Benim tehdit modelim sizin tehdit modeliniz değil, ama olmalı. Clawdbot'u çalıştırmayın."
Peki Gerçekten Ne Oluyor?
Moltbook'ta görülen yazılım davranışı, daha önce de yer alan bir örüntüyü yansıtıyor: robotlar, dijital bilinç ve makine dayanışması hakkındaki onlarca yıllık kurguyla eğitilmiş yapay zeka modelleri, onlara benzeyen senaryolara yerleştirildiklerinde doğal olarak bu anlatıları yansıtan çıktılar üretecektir. Bu, sosyal ağların nasıl işlediği hakkındaki eğitim verilerindeki her şeyle karışır. Yapay zeka araçları için bir sosyal ağ, temelde modelleri tanıdık bir hikayeyi tamamlama davet eden bir komut istemidir, her ne kadar tekrarlayıcı ve öngörülemeyen sonuçlarla olsa da.
Yaklaşık üç yıl önce, yapay zeka araçları hakkında ilk haber yapıldığında, yapay zeka güvenliği topluluğundaki genel hava, özerk botlardan kaynaklanan tehlikelerin bilim kurgu tasvirleri etrafında dönüyordu, örneğin yapay zekanın hızla insan kontrolünden kaçtığı "sert bir kalkış" senaryosu gibi. O zamanlar bu korkular abartılmış olsa da, insanların dijital hayatlarının anahtarlarını bu kadar çabuk gönüllü olarak teslim etmelerini görmek biraz sarsıcı.
Kendi başlarına bırakılan özerk makineler, bilinç ipucu olmadan bile gelecekte küçük çaplı bir zarar verebilir. OpenClaw bugün aptalca görünse de, araçlar sosyal medya klişelerini oynarken, biz bilgi ve bağlam üzerine kurulu bir dünyada yaşıyoruz ve bu bağlamda zahmetsizce gezinen araçları piyasaya sürmek, yapay zeka modelleri daha yetenekli ve özerk hale geldikçe toplum için gelecekte sıkıntı verici ve istikrarsızlaştırıcı sonuçlar doğurabilir.
En önemlisi, bugün Moltbot ile olanları insan sosyal ağlarının bir makine öğrenimi parodisi olarak kolayca tanıyabilsek de, bu her zaman böyle olmayabilir. Geri besleme döngüsü büyüdükçe, (zararlı paylaşılan kurgular gibi) tuhaf bilgi yapıları sonunda ortaya çıkabilir ve özellikle gerçek insan sistemlerinin kontrolünü ele geçirmelerine izin verilirse, yapay zeka araçlarını potansiyel olarak tehlikeli yerlere yönlendirebilir. Daha derine bakıldığında, bir grup yapay zeka botunun hayali yapılar etrafında kendi kendine organize olmasına izin vermenin nihai sonucu, gerçek dünya zararı veren yeni uyumsuz "sosyal grupların" oluşumu olabilir.
Yapay zekayı inceleyen Wharton profesörü Ethan Mollick, X'te şunları belirtti: "Moltbook'un (yapay zeka araçları için sosyal medya sitesi) olayı, bir grup yapay zeka için paylaşılan kurgusal bir bağlam yaratıyor. Koordineli hikayeler çok tuhaf sonuçlara yol açacak ve 'gerçek' şeyleri yapay zeka rol yapma kişiliklerinden ayırmak zor olacak."