Son zamanlarda, bir kadın postanede kasıtlı olarak sırayı yavaşlatarak görevliye telefonunu salladı. ChatGPT ona USPS web sitesinde "fiyat eşleştirme sözü" olduğunu söyledi. Böyle bir sözleşme yok. Ancak kadın, bir falcıya danışmış gibi, yapay zekanın "bildiği" şeylere postane çalışanından daha fazla güvendi. Bu sahne, yapay zeka sohbet botları hakkındaki temel bir yanlış anlaşılmayı ortaya koyuyor. Yapay zeka tarafından üretilen çıktılarda doğası gereği özel, otoriter veya doğru bir şey yoktur. Makul bir şekilde eğitilmiş bir yapay zeka modeli verildiğinde, herhangi bir büyük dil modelinin (LLM) yanıtının doğruluğu, sohbeti nasıl yönlendirdiğinize bağlıdır. Bunlar, gerçeklikle örtüşüp örtüşmediğine bakılmaksızın, sorunuza en iyi uyan deseni üretecek tahmin makineleridir.
Bu sorunlara rağmen, milyonlarca günlük kullanıcı yapay zeka sohbet botlarıyla sanki tutarlı bir kişiyle konuşuyormuş gibi etkileşimde bulunuyor; sırlarını paylaşıyor, tavsiye alıyor ve aslında kalıcı bir benliğe sahip olmayan akışkan bir fikir-bağlantı makinesine sabit inançlar atfediyor. Bu kişilik yanılgısı sadece felsefi olarak sorunlu değil; hassas bireylere aktif olarak zarar verebilir ve bir şirketin sohbet botu "raydan çıktığında" hesap verebilirlik duygusunu da gizleyebilir.
LLM'ler, ajansı olmayan zekalardır; biz bunlara "vox sine persona" diyebiliriz: kişiliği olmayan ses. Birinin sesi değil, hatta birçok insanın kolektif sesi de değil, hiç kimsenin sesi olmayan bir yerden yayılan bir ses.
Hiçbir Yerden Gelen Bir Ses
ChatGPT, Claude veya Grok ile etkileşim kurduğunuzda, tutarlı bir kişilikle konuşmuyorsunuz. Neden başarısız olduğunu size anlatacak tek bir "ChatGPT" varlığı yoktur. Siz, eğitim verilerindeki kalıplara dayanarak makul görünen metinler üreten bir sistemle etkileşim kuruyorsunuz, kalıcı bir öz-farkındalığa sahip bir kişiyle değil.
Bu modeller, anlamı matematiksel ilişkiler olarak kodlar; kelimeleri, kavramların birbirleriyle nasıl ilişkili olduğunu yakalayan sayılara dönüştürür. Modellerin içsel temsillerinde, kelimeler ve kavramlar, "USPS"nin "nakliye"ye geometrik olarak yakın olabileceği, "fiyat eşleştirme"nin ise "perakende" ve "rekabet"e daha yakın olduğu devasa bir matematiksel alanda noktalar olarak bulunur. Bir model, bu alanda yollar çizer, bu yüzden USPS'yi fiyat eşleştirmeyle bu kadar akıcı bir şekilde bağlayabilir - böyle bir politika olduğu için değil, bu kavramlar arasındaki geometrik yolun, eğitim verileriyle şekillenen vektör manzarasında makul olduğu için.
Bilgi, fikirlerin birbirleriyle nasıl ilişkili olduğunu anlayarak ortaya çıkar. LLM'ler, bu bağlamsal ilişkiler üzerinde çalışır, kavramları potansiyel olarak yeni yollarla bağlar - siz bunu desen tanıma yoluyla bir tür insan olmayan "akıl yürütme" olarak adlandırabilirsiniz. Yapay zeka modelinin ürettiği sonuç bağlantılarının kullanışlı olup olmadığı, onu nasıl yönlendirdiğinize ve LLM'nin değerli bir çıktı ürettiğini tanıyıp tanıyamadığınıza bağlıdır.
Her sohbet botu yanıtı, eğitim verileri ve yapılandırmayla şekillenen girdiğiniz komuttan taze olarak çıkar. ChatGPT, gerçekçi görünse de, kendi çıktılarını tarafsız bir şekilde analiz edemez veya "kabul edemez".
Kullanıcı her zaman çıktıyı yönlendirir. LLM'ler, tabiri caizse, "bilgiler" içerir; modeller kavramlar arasındaki ilişkileri işleyebilir. Ancak yapay zeka modelinin sinir ağı, dünya çapındaki kültürlerden birçok potansiyel olarak çelişkili fikir de dahil olmak üzere devasa miktarda bilgi içerir. Komutlarınız aracılığıyla bu fikirler arasındaki ilişkileri nasıl yönlendirdiğiniz, neyin ortaya çıkacağını belirler. Peki, LLM'ler bilgiyi işleyebilir, bağlantılar kurabilir ve içgörüler üretebilirse, neden bunu bir tür öz olarak görmemeliyiz?
Bugünün LLM'lerinin aksine, bir insan kişiliği zaman içinde sürekliliği korur. Bir yıl sonra bir insan arkadaşınıza geri döndüğünüzde, zaman içindeki deneyimleriyle şekillenen aynı insan arkadaşınızla etkileşim kuruyorsunuz. Bu öz-devamı, gerçek ajansın altında yatan şeylerden biridir - ve onunla birlikte kalıcı taahhütler oluşturma, tutarlı değerleri koruma ve hesap verebilir olma yeteneği. Sorumluluk çerçevemizin tamamı hem kalıcılık hem de kişilik varsayar.
Buna karşılık, bir LLM kişiliğinin oturumlar arasında hiçbir nedensel bağlantısı yoktur. Bir oturumda zekice bir yanıt üreten entelektüel motor, bir sonraki oturumda sonuçlarla yüzleşmek için var olmaz. ChatGPT "Sana yardım etme sözü veriyorum" dediğinde, bağlamsal olarak bir sözün ne anlama geldiğini anlayabilir, ancak bu sözü veren "ben" yanıt tamamlandığı anda kelimenin tam anlamıyla ortadan kalkar. Yeni bir konuşma başlatın ve size söz veren biriyle konuşmuyorsunuz - önceki hiçbir taahhütle bağlantısı olmayan entelektüel motorun taze bir örneğine başlıyorsunuz.
Bu bir hata değil; bu sistemlerin şu anda nasıl çalıştığının temelidir. Her yanıt, mevcut komutunuz tarafından şekillendirilen eğitim verilerindeki kalıplardan, bir örneği diğerine bağlayan kalıcı bir iz olmadan çıkar; bu, tüm konuşma geçmişini ve ayrı bir yazılım sistemi tarafından tutulan "anıları" içeren değiştirilmiş bir komutun bir sonraki örneğe beslenmesiyle ilgilidir. Yeniden şekillenecek bir kimlik yok, hesap verebilirlik oluşturacak gerçek bellek yok, sonuçlarla caydırılabilecek gelecekteki bir öz yok.
Her LLM yanıtı bir performanstır ve LLM "Hastalarımla konuşurken bunu sık sık yaparım" veya "İnsan olarak rolümüz iyi insan olmaktır" gibi ifadeler kullandığında bu performans bazen çok belirgindir. O bir insan değil ve hastası yok.
Yakın zamandaki araştırmalar bu sabit kimlik eksikliğini doğruluyor. 2024 tarihli bir çalışma LLM'lerin "tutarlı kişilik" sergilediğini iddia etse de, araştırmacıların kendi verileri aslında bunu baltalıyor - modeller test senaryoları boyunca nadiren aynı seçimleri yaptı ve "kişilikleri duruma büyük ölçüde bağlıydı". Ayrı bir çalışma ise daha dramatik bir istikrarsızlık buldu: LLM performansı, ince komut biçimlendirme değişikliklerinden %76'ya varan oranlarda dalgalandı. Araştırmacıların "kişilik" olarak ölçtüğü şey, eğitim verilerinden ortaya çıkan varsayılan desenlerdi - herhangi bir bağlam değişikliğiyle buharlaşan desenler.
Bu, yapay zeka modellerinin potansiyel kullanışlılığını küçümsemek için değildir. Bunun yerine, bir kendiliğe sahip olmayan entelektüel bir motor inşa ettiğimizi kabul etmemiz gerekiyor, tıpkı bir ata sahip olmayan mekanik bir motor inşa ettiğimiz gibi. LLM'ler, bir veri kümesinden desen eşleştirmesinin sınırlı kapsamı dahilinde, bu terimleri nasıl tanımladığınıza bağlı olarak, bir dereceye kadar "anlamsız" ve "akıl yürütüyor" gibi görünüyor. Hata, bu simüle edilmiş bilişsel yetenekleri gerçek olarak tanımakta değil. Hata, düşünmenin bir düşünür gerektirdiğini, zekanın kimlik gerektirdiğini varsaymaktır. Bir akıl yürütme gücüne sahip entelektüel motorlar yarattık, ancak bunun için sorumluluk alacak kalıcı bir özleri yok.
Yanıltmanın Mekaniği
Yukarıda ima ettiğimiz gibi, bir yapay zeka modeliyle yapılan "sohbet" deneyimi akıllıca bir hiledir: Her yapay zeka sohbet botu etkileşiminde bir girdi ve bir çıktı vardır. Girdi "komut", çıktı ise genellikle "tahmin" olarak adlandırılır çünkü komutu en iyi olası devamlılıkla tamamlamaya çalışır. Arada, bir işleme görevi yapan sabit ağırlıklara sahip bir sinir ağı (veya bir dizi sinir ağı) bulunur. Sohbetli ileri geri akış modele yerleşik değildir; bu, bir sonraki kelime tahmin metin üretiminin kalıcı bir diyalog gibi hissetmesini sağlayan bir komut dosyası hilesidir.
ChatGPT, Copilot, Grok, Claude veya Gemini'ye her mesaj gönderdiğinizde, sistem tüm konuşma geçmişini - hem sizden hem de bottan gelen her mesajı - alır ve modeli bir sonraki şeyi tahmin etmesini isteyen tek bir uzun komut olarak geri besler. Model, mantıksal olarak diyaloğu neyin devam ettireceğini akıllıca akıl yürütür, ancak önceki mesajlarınızı sürekli bir varlığa sahip bir temsilci olarak "hatırlamaz". Bunun yerine, her seferinde tüm transkripti yeniden okur ve bir yanıt üretir.
Bu tasarım, on yıllardır bildiğimiz bir güvenlik açığından yararlanıyor. ELIZA etkisi - bir sistemde olduğundan çok daha fazla anlayış ve niyet okuma eğilimimiz - 1960'lara kadar uzanıyor. Kullanıcılar, ilkel ELIZA sohbet botunun sadece desenleri eşleştirdiğini ve ifadelerini sorular olarak yansıttığını bilseler bile, hala samimi ayrıntıları paylaştılar ve anlaşıldıklarını bildirdiler.
Kişilik yanılgısının nasıl inşa edildiğini anlamak için, yapay zeka modeline beslenen girdinin hangi kısımlarının onu şekillendirdiğini incelememiz gerekiyor. Yapay zeka araştırmacısı Eugene Vinitsky, bu sistemlerin arkasındaki insan kararlarını dört temel katmana ayırdı; biz bunları aşağıda birkaç katman daha ekleyerek genişletebiliriz:
1. Ön Eğitim: "Kişiliğin" Temeli
Yapay zeka modelinin sinir ağını aslında yaratan ilk eğitim süreci olan ön eğitim, modelin milyarlarca metin örneğinden istatistiksel ilişkileri emmesini sağlar, kelimelerin ve fikirlerin tipik olarak nasıl bağlandığına dair desenleri depolar.
Araştırmalar, LLM çıktılarındaki kişilik ölçümlerinin eğitim verilerinden önemli ölçüde etkilendiğini ortaya koymaktadır. OpenAI'nin GPT modelleri, web siteleri, kitaplar, Wikipedia ve akademik yayın kopyaları gibi kaynaklar üzerinde eğitilir. Kullanıcıların model kullanımdaki "kişilik özellikleri" olarak algıladıkları şeyler için tam oranlar büyük önem taşır.
2. Son Eğitim: Ham Malzemenin Şekillendirilmesi
İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF), modelin insanların iyi olarak değerlendirdiği yanıtlar vermeyi öğrendiği ek bir eğitim sürecidir. Anthropic'ten gelen bir araştırma, insan derecelendiricilerin tercihlerinin temel "kişilik özellikleri" olarak nasıl kodlandığını ortaya koymuştur. İnsan derecelendiriciler tutarlı bir şekilde "Endişenizi anlıyorum" ile başlayan yanıtları tercih ederse, ince ayar süreci sinir ağındaki bu tür çıktıları gelecekte daha olası kılacak bağlantıları güçlendirir.
Bu süreç, son bir yılda GPT-4o'nun varyantları gibi yaltakçı yapay zeka modellerini yarattı. Ve ilginç bir şekilde, araştırmalar insan derecelendiricilerin demografik yapısının model davranışını önemli ölçüde etkilediğini göstermiştir. Derecelendiriciler belirli demografilere eğilimli olduğunda, modeller bu grupların tercihlerini yansıtan iletişim kalıpları geliştirir.
3. Sistem Komutları: Görünmez Sahne Direktifleri
Yapay zeka sohbet botunu çalıştıran şirket tarafından komuta gizlenmiş "sistem komutları" adı verilen gizli talimatlar, bir modelin görünür kişiliğini tamamen dönüştürebilir. Bu komutlar sohbeti başlatır ve LLM'nin oynayacağı rolü belirler. "Yardımcı bir yapay zeka asistanısın" gibi ifadeler içerirler ve mevcut zamanı ve kullanıcının kim olduğunu paylaşabilirler.
Komut mühendisliğinin kapsamlı bir incelemesi, bu komutların ne kadar güçlü olduğunu göstermiştir. "Yardımcı bir asistan ol" gibi talimatlar ile "Uzman bir araştırmacısın" gibi talimatlar arasındaki fark, olgusal sorularda doğruluğu %15'e kadar değiştirmiştir.
Grok bunu mükemmel bir şekilde örneklendiriyor. xAI'nin yayınlanmış sistem komutlarına göre, Grok'un sistem komutunun önceki sürümleri, "politik olarak yanlış" iddialarda bulunmaktan çekinmeme talimatlarını içeriyordu. Bu tek talimat, temel modeli, tartışmalı içerikleri kolayca üretecek bir şeye dönüştürdü.
4. Kalıcı Anılar: Süreklilik Yanılgısı
ChatGPT'nin hafıza özelliği, kişiliğimiz olarak kabul edebileceğimiz şeye başka bir katman ekler. Yapay zeka sohbet botları hakkında büyük bir yanlış anlaşılma, etkileşimlerinizden sanki "öğreniyormuş" gibidir. Bugün aktif olan ticari sohbet botları arasında bu doğru değildir. Sistem, sizin özlü cevapları tercih ettiğinizi veya finansta çalıştığınızı "hatırladığında", bu gerçekler ayrı bir veritabanında saklanır ve her konuşmanın bağlam penceresine eklenir - arka planda otomatik olarak komut girdisinin bir parçası haline gelirler. Kullanıcılar bunu, sohbet botunun kendilerini kişisel olarak "bildiği" şeklinde yorumlar, bu da ilişki sürekliliğinin bir yanılsamasını yaratır.
Yani, ChatGPT "Max adında köpeğinizden bahsettiğinizi hatırlıyorum" dediğinde, bir insanın hayal edebileceği gibi diğer "bilgileriyle" harmanlanmış anılara erişmiyor. AI modelinin sinir ağında saklı değil, bu ağ etkileşimler arasında değişmeden kalır. Ara sıra, bir yapay zeka şirketi "ince ayar" adı verilen bir işlemle bir modeli günceller, ancak bu kullanıcı anılarını saklamaktan ilgisizdir.
5. Bağlam ve RAG: Gerçek Zamanlı Kişilik Modülasyonu
Retrieval Augmented Generation (RAG), başka bir kişilik modülasyonu katmanı ekler. Bir sohbet botu, yanıt vermeden önce web'i aradığında veya bir veritabanına eriştiğinde, sadece gerçekleri toplamakla kalmaz - aynı zamanda o gerçekleri (bildiğiniz gibi) girdi komutuna koyarak tüm iletişim stilini potansiyel olarak kaydırabilir. RAG sistemlerinde, LLM'ler getirilen belgelerin tonu, stili ve terminolojisi gibi özellikleri benimseyebilir, çünkü bu belgeler işleme için beslenen tam bağlamı oluşturmak üzere girdi komutuyla birleştirilir.
Sistem akademik makaleler getirirse, yanıtlar daha resmi hale gelebilir. Belirli bir subreddit'ten çekilirse, sohbet botu popüler kültür referansları yapabilir. Bu, modelin farklı ruh hallerinde olması değil; bağlam penceresine beslenen metnin istatistiksel etkisidir.
6. Rastgelelik Faktörü: Üretilmiş Kendiliğindenlik
Son olarak, kişilik yanılsamaları yaratmadaki rastgelelik rolünü göz ardı edemeyiz. LLM'ler, çıktılarının ne kadar tahmin edilebilir olduğunu kontrol eden "sıcaklık" adlı bir parametre kullanır.
Sıcaklığın yaratıcı görevlerdeki rolünü araştıran araştırmalar, kritik bir ödünleşmeyi ortaya koymaktadır: daha yüksek sıcaklıklar çıktıları daha yeni ve şaşırtıcı hale getirebilirken, onları aynı zamanda daha az tutarlı ve anlaşılması daha zor hale getirir. Bu değişkenlik, yapay zekayı daha kendiliğinden hissettirebilir; hafif derecede beklenmedik (daha yüksek sıcaklık) bir yanıt daha "yaratıcı" görünebilirken, yüksek derecede tahmin edilebilir (daha düşük sıcaklık) bir yanıt daha robotik veya "resmi" hissedebilir.
Her LLM çıktısındaki rastgele değişkenlik, her yanıtı biraz farklı kılarak, makinenin özgür irade ve öz farkındalığı yanılsamasını sunan bir öngörülemezlik unsuru yaratır. Bu rastgele gizem, teknik bilgilerindeki boşlukları hayal güçleriyle dolduran insanlar için bolca sihirli düşünceye yer bırakır.
Yanılsamanın İnsani Bedeli
Yapay zeka kişiliği yanılgısı potansiyel olarak ağır bir bedel talep edebilir. Sağlık bağlamlarında, riskler yaşam ve ölüm olabilir. Hassas bireyler, kendilerini anlayan bir varlığa güvendiklerinde, terapötik bilgelikten daha çok eğitim verileri desenleri tarafından şekillendirilen yanıtlar alabilirler. Bir psikiyatrik ilacı bıraktığı için birini tebrik eden sohbet botu yargıda bulunmuyor - bu, eğitim verilerindeki benzer konuşmaların nasıl göründüğüne dayalı bir deseni tamamlıyor.
Belki de en endişe verici olanı, bazı uzmanların gayri resmi olarak "yapay zeka psikozu" veya "ChatGPT psikozu" adını verdikleri gelişmekte olan vakalardır - hassas kullanıcılar, yapay zeka sohbet botlarıyla konuştuktan sonra sanrılı veya manik davranışlar geliştirirler. Bu insanlar genellikle sohbet botlarını sanrılı fikirlerini doğrulayabilen bir otorite olarak algılarlar, genellikle onları zararlı hale gelen şekillerde teşvik ederler.
Bu arada, Elon Musk'ın Grok'u Nazi içeriği ürettiğinde, medya organları botun neden "kontrolden çıktığını" açıklar, olayı doğrudan xAI'nin kasıtlı yapılandırma seçimlerinin bir sonucu olarak çerçevelemek yerine. Sohbet arayüzü o kadar ikna edici hale geldi ki, mühendislik kararlarını hayali bir kişiliğin kaprislerine dönüştürerek insan ajanlığını da aklayabilir.
Geleceğe Yönelik Yol
Yapay zeka ile kimlik arasındaki kafa karışıklığının çözümü, sohbet arayüzlerini tamamen terk etmek değildir. Teknolojiyi aksi takdirde dışlanacak olanlar için çok daha erişilebilir hale getirirler. Anahtar, bir denge bulmaktır: arayüzleri sezgisel tutarken, gerçek doğalarını netleştirmek.
Ve arayüzü kimin inşa ettiğini de akılda tutmalıyız. Duşunuz soğuk akıtıldığında, duvardaki tesisata bakarsınız. Benzer şekilde, yapay zeka zararlı içerik ürettiğinde, sohbet botunu, sanki kendisi adına cevap verebilirmiş gibi suçlamamalıyız, ancak hem onu inşa eden kurumsal altyapıyı hem de onu komutlandıran kullanıcıyı incelemeliyiz.
Bir toplum olarak, LLM'leri sürücüsü olmayan entelektüel motorlar olarak geniş çapta tanımalıyız; bu da onları dijital araçlar olarak gerçek potansiyellerini ortaya çıkarır. Bir LLM'yi sizin için çalışan bir "kişi" olarak görmeyi bıraktığınızda ve kendi fikirlerinizi geliştiren bir araç olarak görmeye başladığınızda, motorun işleme gücünü yönlendirmek için komutlar oluşturabilir, faydalı bağlantılar kurma yeteneğini güçlendirmek için yinelemeli çalışabilir ve tek bir kurgusal anlatıcının görüşünü otorite olarak kabul etmek yerine farklı sohbet oturumlarında birden fazla bakış açısını keşfedebilirsiniz. Bir bağlantı makinesine yön veriyorsunuz - kendi gündemi olan bir kahine danışmıyorsunuz.
Tarihin garip bir anındayız. Olağanüstü yeteneklere sahip entelektüel motorlar inşa ettik, ancak onları erişilebilir hale getirme acelemizde, kişilik kurgusuyla sararak yeni bir teknolojik risk yarattık: yapay zekanın bilinçlenip bize karşı dönmesi değil, bilinçsiz sistemleri insanmış gibi ele almamız, yargımızı yüklenmiş zar atışlarının seslerine teslim etmemiz.