Ara

ChatGPT Noktalama Kurallarını Nihayet Öğreniyor: Yapay Zekanın Gelişiminde Küçük Ama Mutlu Bir Adım mı?

Son yıllarda birçok kişi yapay zeka tarafından üretilen metinlerin belirgin bir işareti olarak tireleri (em dashes) görüyor. ChatGPT ve diğer yapay zeka sohbet robotlarının çıktılarında bu noktalama işareti sıkça karşımıza çıkıyor; öyle ki bazen okuyucular sadece tire kullanımının yoğunluğundan bile yapay zeka ürünü olduğunu anlayabiliyor. Elbette insanlar da tireleri aşırı kullanabiliyor.

Perşembe akşamı, OpenAI CEO'su Sam Altman X üzerinden yaptığı bir paylaşımda, ChatGPT'nin özel talimatlara uyarak tire kullanmaktan kaçınmaya başladığını duyurdu. Altman, "Küçük ama mutlu bir kazanım: ChatGPT'ye özel talimatlarınızda tire kullanmamasını söylerseniz, nihayet yapması gerekeni yapıyor!" diye yazdı.

OpenAI'nin yeni GPT-5.1 yapay zeka modelinin piyasaya sürülmesinden iki gün sonra gelen bu paylaşım, sohbet robotunun belirli biçimlendirme tercihlerine uymasını sağlamakta yıllardır zorluk yaşayan kullanıcılardan karışık tepkiler aldı. Bu 'küçük kazanım', çok daha büyük bir soruyu da beraberinde getiriyor: Dünyanın en değerli yapay zeka şirketi, basit bir noktalama işaretinin kullanımını yıllar süren denemelere rağmen kontrol etmekte zorlanıyorsa, belki de sektördeki bazılarının iddia ettiği yapay genel zeka (AGI), düşünüldüğünden daha uzak bir gelecekte.

X'te bir kullanıcı, "ChatGPT ilk piyasaya sürüleli 3 yıl oldu ve siz ancak şimdi bu basit gerekliliği yerine getirmeyi başardınız, bu durum üzerindeki kontrolünüzün ne kadar az olduğunu ve iç işleyişini ne kadar az anladığınızı gösteriyor," diye yorum yaptı. "Gelecek için iyi bir işaret değil."

Altman, OpenAI için fon toplarken yapay genel zekadan (AGI), süper zekadan ve 'gökyüzündeki sihirli zeka'dan (yapay zeka bulut bilişimi için kendi deyimi) bahsetmeyi sevse de, bugün dünyada güvenilir bir yapay zekaya sahip olmadığımız açık.

Peki, tire nedir ve neden bu kadar önemli?

Yapay Zeka Modelleri Neden Tireleri Seviyor?

Klavye üzerinde kendi tuşu olan ve kelimeleri veya kelime parçalarını birleştirmek için kullanılan kısa bir noktalama işareti olan hyphen'dan farklı olarak, em dash (—) özel bir karakterle belirtilen uzun bir çizgidir. Yazarlar bunu ara bilgileri ayırmak, ani düşünce değişikliklerini belirtmek veya bir özeti veya açıklamayı tanıtmak için kullanırlar.

Yapay zeka dil modelleri çağından önce bile, bazı yazarlar modern yazımda tirelerin aşırı kullanımından şikayetçiydi. 2011 tarihli bir makalede, bir yazar, yazarların tireleri "cümleleri doğru bir şekilde kurmak yerine" kullandığını ve buna aşırı güvenmenin "gerçekten verimli yazmayı caydırdığını" savundu. ChatGPT'nin piyasaya sürülmesinden önceki çeşitli Reddit başlıklarında, yazarların doğru tire kullanımıyla ilgili kurallarla boğuştuğu veya bunu bir zevk meselesi olarak kabul ettiği görüldü.

2021'de, bir yazar Reddit'te, "Uzun zamandır Em Dash'lere bağımlıydım. Yazdığım her paragrafta yer buluyorlar. Bana düzenli bir paragraf içine detay veya düşünce ekleme bahanesi veren o net düz çizgiyi seviyorum. Hatta iki yıllık bir yazım tıkanıklığından sonra tekrar yazmaya döndüğümde bile, hemen olabildiğince çok em dash ekliyorum." diye yazmıştı.

Yapay zeka sohbet robotlarının bunları aşırı kullanma eğilimi nedeniyle, tespit araçları ve insan okuyucular tire kullanımını bir örüntü olarak görmeyi öğrendi. Bu durum, doğal olarak bu noktalama işaretini tercih eden küçük bir yazar grubunu olumsuz etkiledi. Sonuç olarak, bazı gazeteciler yapay zekanın tireleri "öldürdüğünü" şikayet ediyor.

Büyük dil modellerinin (LLM'ler) neden tireleri aşırı kullandığı tam olarak bilinmiyor. Bu olguyu açıklamaya yönelik çevrimiçi birçok spekülasyon var; örneğin, ABD'deki 19. yüzyıl kitaplarında tirelerin daha popüler olması (bir 2018 araştırmasına göre, İngilizce'de tire kullanımı 1860 civarında zirveye ulaştıktan sonra 20. yüzyılın ortalarına kadar azaldı) veya yapay zeka modellerinin popüler blog sitesi Medium'daki otomatik tire karakter dönüşümünden bu alışkanlığı devralmış olabileceği düşünülüyor.

Kesin olarak bildiğimiz bir şey var ki, LLM'ler eğitim verilerinde sıkça görülen örüntüleri (ilk eğitim sürecinde beslenen veriler) ve insan tercihlerine dayanan takviyeli öğrenme sürecini çıktılarına yansıtırlar. Sonuç olarak, yapay zeka dil modelleri, sizden gelen isteklere göre ayarlanmış, "pürüzsüzleştirilmiş" ortalama bir stil sunar.

Bu nedenle, en olası açıklama hala, İnternet'ten alınan çok sayıda örneğe göre eğitilmiş bir yapay zeka modelinden profesyonel tarzda yazı taleplerinin, eğitim verilerindeki yaygın stille ağırlık kazanacağıdır; zira bu verilerde resmi yazılarda, haber makalelerinde ve editoryal içeriklerde tireler sıkça yer alır. Ayrıca, insan geri bildirimi (RLHF olarak adlandırılır) yoluyla eğitim sırasında, tireli yanıtların nedense daha yüksek puanlar almış olması da mümkündür. Belki de bu çıktılar değerlendiricilere daha sofistike veya ilgi çekici gelmiştir, ancak bu sadece bir spekülasyondur.

Tirelerden AGI'ye mi?

Altman'ın "kazanımının" ne anlama geldiğini ve AGI yolculuğu hakkında bize ne söylediğini anlamak için, ChatGPT'nin özel talimatlarının nasıl çalıştığını anlamamız gerekiyor. Bu özellik, kullanıcıların sohbetin başında modele gönderilen komuta yazılı talimatlar ekleyerek tüm konuşmalar boyunca kalıcı tercihler belirlemesine olanak tanır. Kullanıcılar, her yeni sohbeti manuel olarak tekrar etmeye gerek kalmadan ton, biçim ve stil gereksinimlerini belirtebilir.

Ancak, bu özellik her zaman güvenilir çalışmadı, çünkü LLM'ler (büyük dil modelleri) her zaman güvenilir çalışmıyor (OpenAI ve Anthropic bile bunu açıkça kabul ediyor). Bir LLM, bir girdi alır ve bir çıktı üretir; bir komutun istatistiksel olarak olası bir devamını verir (bir sistem komutu, özel talimatlar ve sohbet geçmişiniz) ve ne istediğinizi gerçekten "anlamaz". Yapay zeka dil modeli çıktılarında, istediğinizi elde etmek için her zaman biraz şans faktörü devreye girer.

GPT-5.1'i özel talimatlarla yaptığımız gayri resmi testlerde, ChatGPT'nin tire üretmeme talebimize uyduğu görüldü. Ancak Altman'ın iddiasına rağmen, X kullanıcılarından gelen tepkiler, en azından talep özel talimatlara yerleştirilmediğinde, özellikle de özellik dışı kullanımda, deneyimlerin değişken olmaya devam ettiğini gösteriyor.

Peki, LLM'ler istatistiksel metin üretim kutuları ise, "talimatları izlemek" ne anlama geliyor? Bu, LLM'lerden AGI'ye giden varsayımsal yolu çözmenin anahtarıdır. Bir LLM için talimatları izleme kavramı, genel zekaya sahip insanlar olarak veya geleneksel bir bilgisayar programı olarak talimatları takip etmeyi düşündüğümüzden temelde farklıdır.

Geleneksel bilgisayar biliminde, talimatları izlemek deterministiktir. Bir programa "X karakterini dahil etme" derseniz, o karakteri dahil etmez. Program, kuralları tam olarak yazıldığı gibi yürütür. LLM'lerde ise "talimatları izlemek" aslında istatistiksel olasılıkları kaydırmaktır. ChatGPT'ye "tire kullanma" dediğinizde, sert bir kural oluşturmuyorsunuz. Komuta, tirelerle ilişkili token'ların (kelime parçacıkları) üretim süreci sırasında seçilme olasılığını azaltan metin ekliyorsunuz. Ancak "daha az olası" olmak "imkansız" anlamına gelmez.

Modelin ürettiği her token, bir olasılık dağılımından seçilir. Özel talimatınız bu dağılımı etkiler, ancak modelin eğitim verileriyle (belirli bağlamlarda tirelerin sıkça göründüğü yerler) ve komuttaki diğer her şeyle rekabet eder. Koşullu mantığa sahip kodun aksine, çıktıları gereksinimlerinize göre doğrulayan ayrı bir sistem yoktur. Talimat, istatistiksel tahmin sürecini etkileyen ek bir metindir.

Altman'ın nihayet GPT'yi tirelerden kaçınmaya ikna ettiğini kutlaması, aslında OpenAI'nin GPT-5.1'in en son sürümünü, özel talimatları olasılık hesaplamalarında daha fazla ağırlık verecek şekilde (muhtemelen takviyeli öğrenme veya ince ayar yoluyla) ayarladığını kutladığı anlamına gelir.

Burada kontrolle ilgili bir ironi var: Konunun olasılıksal doğası göz önüne alındığında, sorunun düzeleceğine dair bir garanti yok. OpenAI, kullanıcı geri bildirimlerine ve yeni eğitimlere dayanarak çıktıları ayarlayarak modellerini sürekli olarak arka planda günceller. Her güncelleme, araştırmacıların "hizalama vergisi" olarak adlandırdığı bir olgu olan önceki davranış ayarlamalarını bozabilecek farklı çıktı özellikleriyle gelir.

Bir sinir ağının davranışını hassas bir şekilde ayarlamak henüz kesin bir bilim değildir. Ağdaki tüm kavramlar, ağırlık adı verilen değerlerle birbirine bağlı olduğundan, bir davranıştaki ayarlama diğerlerini istenmeyen şekillerde değiştirebilir. Bugün tire aşırı kullanımını düzeltirseniz, yarının güncellemesi (örneğin kodlama yeteneklerini geliştirmeyi amaçlayan) istemeden de olsa onları geri getirebilir; bu OpenAI bunu istediği için değil, milyonlarca rakip etkiyle istatistiksel bir sistemi yönlendirmeye çalışmanın doğası gereğidir.

Bu, daha önce bahsettiğimiz ima edilen bir soruya yol açıyor. Noktalama kullanımını kontrol etmek hala zaman zaman geri dönebilecek bir mücadeleyse, AGI'den ne kadar uzaktayız? Kesin olarak bilemeyiz, ancak yalnızca büyük bir dil modelinden ortaya çıkması pek olası görünmüyor. Çünkü insan genel öğrenme yeteneğini kopyalayacak bir teknoloji olan AGI, istatistiksel örüntü eşleştirmesinden ziyade, gerçek anlama ve öz-yansıtıcı kasıtlı eylem gerektirecektir; şans eseri talimatlarla uyum sağlayan değil.

Ve şanstan bahsetmişken, bazı kullanıcılar hala "özel talimatlar" özelliği dışında tire kullanımını kontrol etmekte şanslı değil. Bir sohbet sırasında sohbet içinde tire kullanmaması söylendiğinde, ChatGPT kaydedilmiş bir belleği güncelledi ve bir X kullanıcısına, "Anlaşıldı, bundan sonra yalnızca kısa tirelere bağlı kalacağım" diye yanıt verdi.

Önceki Haber
Çin Uzay İstasyonunda Kritik Durum: Bir 'Can Yeleği' Hasarlı, Üç Astronot Geri Dönüş Yolculuğunu Bekliyor
Sıradaki Haber
Buzul Çağı Mamutu Yuka'dan 40.000 Yıllık RNA Çıkarıldı: Bilim Dünyası Şaşkın!

Benzer Haberler: