Ara

OpenAI CEO Sam Altman Güvenilir mi? İçeriden Gelen İddialar Şoke Ediyor!

Yapay zeka alanında öncü kuruluşlardan OpenAI'nin, süper zeka çağında teknolojinin insanlığa fayda sağlamasına yönelik politika önerilerini yayınladığı gün, önemli bir araştırma CEO Sam Altman'ın şirketin en büyük vaatlerini yerine getirip getiremeyeceği konusundaki güvenilirliğini sorgulattı.

Bu iki farklı yayın, birbiriyle çelişen iki ayrı tablo çiziyor.

Bir yandan OpenAI, yapay zekanın insan zekasını aşmaya başladığı bir dönemde, teknolojinin 'insanları önceliklendirmesini' sağlayacak politikalar izleme niyetini dile getiriyor. Bu doğrultuda, riskler konusunda 'açık sözlü' ve şeffaf olacaklarını taahhüt eden şirket, yapay zeka sistemlerinin insan kontrolünden kaçması veya demokrasinin zayıflatılması gibi riskleri de kabul ediyor. Bu risklerin doğru bir şekilde yönetilmemesi halinde 'insanların zarar göreceği' uyarısında bulunan OpenAI, süper zekaya ulaşmanın 'herkes için daha yüksek bir yaşam kalitesi' anlamına geleceği bir gelecek için şirkete güvenilebileceğini belirtiyor.

Diğer yandan, yapılan kapsamlı araştırma, Altman'ın iş yapış biçimleri hakkında bilgi sahibi 100'den fazla kişiyle yapılan röportajlara ve incelenen dahili belgelere dayanıyor. Araştırma, kamuoyunun OpenAI CEO'suna yapay zekanın 'geleceğini kontrol etme' konusunda ne kadar güvenebileceğini sorgulatan uzun bir karşı argüman sunuyor.

İçeriden gelen bilgilere göre Altman, insanların hoşuna gidecek şeyler söyleyen ve gücü elinde toplama çabasında olan, kendi çıkarlarını her zaman önde tuttuğu iddia edilen bir figür olarak resmediliyor. Bir yönetim kurulu üyesinin Altman'ı tanımlarken kullandığı ifade ise şöyle: "İkisinin aynı anda bir insanda bulunması neredeyse imkansız olan iki özelliği var. Birincisi, insanları memnun etme, her etkileşimde sevilme yönünde güçlü bir arzu. İkincisi ise birini aldatmaktan kaynaklanabilecek sonuçlara karşı neredeyse sosyopatik bir kayıtsızlık."

Araştırmada kesin bir kanıt bulunamamış olsa da, OpenAI'nin eski baş bilim insanı ve eski araştırma başkanı tarafından gönderilen ve "iddia edilen aldatmacalar ve manipülasyonların birikimini" belgeleyen mesajlar incelenmiş. Araştırmaya göre, bu olayların her biri tek başına göz ardı edilebilecek nitelikte olsa da, toplu olarak değerlendirildiğinde, her iki isim de Altman'ın gelişmiş yapay zeka için güvenli bir ortam oluşturmadığı sonucuna varmış.

Araştırmada yer alan bir ismin, "OpenAI'nin sorunu, sorunun kendisi Sam" şeklindeki yorumu dikkat çekiyor.

OpenAI'ye Yönelik Endişeler Yapay Zeka Algısını Olumsuz Etkiliyor

Altman, araştırmadaki iddiaları reddediyor veya bazı olayları hatırlamadığını belirtiyor. Ayrıca, bazı söylemlerindeki değişiklikleri yapay zeka alanındaki sürekli değişen dinamiklere bağlıyor ve geçmişte çatışmadan kaçınma eğiliminde olduğunu itiraf ediyor. Ancak, yapay zeka modellerine artan devlet desteği ve teknolojiyi güvensiz olarak nitelendiren davalarla birlikte OpenAI üzerindeki incelemeler yoğunlaştıkça, Altman'ın tutarsızlıkları giderek daha fazla dikkat çekiyor.

Kamuoyunun en çok dikkatini çeken noktalardan biri, Altman'ın son dönemde OpenAI'yi yapay zeka kıyamet senaryolarını engelleyen bir kurtarıcı olarak konumlandırmaktan vazgeçip, yerine 'coşkulu bir iyimserlik' tonunu benimsemesi oldu.

Politika önerileri de bu durumu zaman zaman yansıtıyor. Şirketin küresel işler başkanı, önerileri tartışırken, yapay zeka konusundaki olumsuz kamuoyu görüşlerinden acilen endişe duyduklarını doğruladı. İnsanlığı yapay zeka tehlikelerinden kurtaracak büyük fikirlerini duyururken, OpenAI aynı zamanda bu ve benzeri politika fikirlerini geliştirecek projelere 100.000 dolara kadar burs ve 1 milyon dolara kadar API kredisi sunan bir pilot programı da duyurmuştu.

Ancak, yapılan araştırma, bu önerilerin çocuk güvenliği, işsizlik veya enerji tüketen veri merkezleri gibi konulardaki artan kamu endişelerinden dikkati dağıtmak için mi sunulduğunu sorgulamayı kolaylaştırıyor. Yapılan bir araştırmaya göre, Amerikalıların en büyük endişesi, yapay zekayı çalıştırmak için gereken enerjinin yaşam kalitelerini olumsuz etkileyeceği yönünde. Nihayetinde bu endişeler, önümüzdeki ara seçimlerde siyasi partilerin oy oranlarını etkileyebilir; zira veri merkezi kısıtlamaları gibi yapay zekayı yavaşlatabilecek adımlar giderek daha fazla destek görüyor.

Altman ve şirketi için, bu kritik dönüm noktasında kamuoyunu vizyonlarına ikna etmek hayati önem taşıyor; zira Kongre'nin kontrolünü kaybeden Cumhuriyetçiler, yapay zeka güvenliği konusunda daha sıkı yasaların önünü açabilir ki Altman'ın özel olarak bu tür yasalara karşı lobi yaptığı biliniyor.

Altman'a duyulan güven eksikliği, OpenAI'nin yalnızca kendi hakimiyetini pekiştirmek için ne gerekiyorsa söylemediğini kamuoyuna kabul ettirmeyi çok daha zorlaştıracaktır.

OpenAI Tam Olarak Ne Öneriyor?

OpenAI, "Tüm, hatta çoğu cevaba sahip değiliz" ifadesini kullanıyor. Bunun yerine, şirket 'zeka çağı için endüstriyel politikalarını', "süper zekaya geçiş sırasında insanları önceliklendirmek için bir endüstriyel politika gündemine yönelik ilk fikirler" olarak tanımlıyor.

"Sağduyuya dayalı" düzenlemeler ve başarıları hızla tekrarlamak için bir kamu-özel ortaklığı çağrısında bulunan OpenAI, herkesin yapay zekaya erişebilmesini ve ondan faydalanabilmesini sağlamak için "iddialı" politika fikirleri sundu. İyimser vizyonu, toplumun hiçbir zaman başaramadığı şeyi umduğunu kabul ediyor: İnternet erişimini garanti etmek ve yapay zekanın ABD genelinde "adil bir şekilde dağıtılmasını" sağlamak, herkesin onu kullanmak üzere eğitilmesi.

Çalışan hakları OpenAI'nin planının odak noktası. Öneriler arasında, üretkenliği artırmak ve iş yerlerini daha güvenli hale getirmek için yapay zeka sistemlerinin nasıl çalıştığına dair tartışmalara çalışanların dahil edilmesi ve "zararlı yapay zeka kullanımlarına açık sınırlar konulması" yer alıyor. OpenAI ayrıca, şirketlerin insan emeğine daha az bağımlı hale gelmesiyle Sosyal Güvenlik, Medicaid, SNAP ve barınma yardımı gibi temel programları finanse etmek için kullanılabilecek otomatikleştirilmiş emek üzerinden bir vergi önerdi. Diğer cazip fikirler arasında, "işverenleri ve sendikaları, çıktı ve hizmet seviyelerini sabit tutarak, ödemede herhangi bir kayıp olmaksızın süresi belirli 32 saatlik / dört günlük iş haftası pilot uygulamaları yürütmeye ve ardından geri kazanılan saatleri kalıcı kısa bir haftaya, biriktirilebilir ücretli izne veya her ikisine dönüştürmeye teşvik etme" planı da bulunuyordu.

Ek olarak, OpenAI, "finansal piyasalara yatırım yapmayanlar da dahil olmak üzere her vatandaşa, yapay zeka güdümlü ekonomik büyümeden bir pay sağlayan" bir "halk serveti fonu" önerdi.

OpenAI, "Fonun getirileri doğrudan vatandaşlara dağıtılabilir, bu da daha fazla insanın başlangıç ​​serveti veya sermayeye erişiminden bağımsız olarak yapay zeka güdümlü büyümenin getirisinden doğrudan yararlanmasına olanak tanır" dedi.

Yapay zeka daha fazla görevi üstlendikçe, insanların bakım odaklı işlere yönelebileceğini öne süren OpenAI, yerinden edilen çalışanların sağlık hizmetleri, yaşlı bakımı, kreş veya topluluk hizmeti alanlarında çalışmak üzere eğitim almalarına yardımcı olacak politika fikirleri önerdi. Tarihsel olarak kadın işi olarak hafife alınan bu rolleri çekici kılmak için OpenAI, bakımın "ekonomik olarak değerli bir iş" olduğunu topluma tanıtmaya yardımcı olacak girişimler önerdi.

İnsan çalışanlar ayrıca bilimsel ilerlemeyi hızlandırmak için yapay zekayı kullanmak üzere de gerekecek.

Ancak, OpenAI'nin vaat ettiği tüm bu kamu yararlarının, yalnızca riskli uygulamalara hızla yanıt verebilen ve "yapay zekayı güvenli, yönetilebilir ve demokratik değerlerle uyumlu tutabilen" "dayanıklı bir toplum" inşa edersek gerçekleştirilebileceğini belirtti.

OpenAI'nin vizyonunun bu yönü, halkın yapay zekaya olan güvenini artırmaya yardımcı olacak güvenlik sistemleri geliştiren kuruluşlar gibi firmaları gerektiriyor. OpenAI, bu sistemlerin işe yarayacağına ve yalnızca gerçek tehlikeler belirdiğinde bu firmalarla etkileşime girilmesi gerektiği fikrini savunuyor gibi görünüyor.

OpenAI, "Süper zekaya doğru ilerlerken, kimyasal, biyolojik, radyolojik, nükleer veya siber riskleri önemli ölçüde ilerletebilecek, özellikle dar bir dizi yüksek düzeyde yetenekli modelin daha güçlü kontrollere ihtiyaç duyabileceği bir noktaya gelinebilir" diyor.

OpenAI'ye göre, o gün geldiğinde, ortaya çıkan riskleri iletmek için küresel bir ağ oluşturulmalı. Ancak, yalnızca en gelişmiş modellere sahip firmalar sıkı denetimlere tabi tutulmalı, böylece daha küçük firmalar da rekabet edebilir. OpenAI, bu yolun, hiçbir firmanın hakim konumunun rakipleri haksız yere kapatmak veya demokratik değerleri zayıflatmak için kötüye kullanılamamasını sağlayacağını belirtirken, yapay zekanın başarısı için kamuoyu katılımının hayati önem taşıdığı konusunda ısrar ediyor.

Araştırmaya göre, Altman daha önce "teknolojiye şüpheyle yaklaşan bir kamuoyunu, öncelikleri, hatta karşılıklı olarak birbirini dışlayan öncelikleri bile kendi öncelikleri olduğuna ikna etmişti". Ancak, zaten OpenAI modellerinden kaynaklanan iddia edilen zararları bildiren kamuoyu için, "neslinin en büyük satıcısı" olarak tanımlanan bir şirket liderinden gelen gösterişli fikirleri değerlendirmek giderek zorlaşıyor olabilir.

Bir OpenAI araştırmacısı, Altman'ın vaatlerinin bazen bir sonraki kilometre taşını aşana kadar eleştirileri aşmak için bir ara çözüm gibi görünebileceğini belirtti. Süper zeka söz konusu olduğunda, bazı iyimser uzmanlar bunun iki yıl sürebileceğini düşünüyor ki bu da Elon Musk'ın OpenAI'deki görev süresinden daha uzun bir süre; Musk, Altman'ın liderliğini eleştirmek ve kendi yapay zeka şirketini kurmak için ayrılmıştı.

OpenAI araştırmacısı, "Altman, kağıt üzerinde onu gelecekte kısıtlayan yapılar kuruyor" dedi. "Ancak daha sonra, gelecek geldiğinde ve kısıtlama zamanı geldiğinde, mevcut yapıyı ortadan kaldırıyor."

Önceki Haber
Corsair'dan Yapay Zeka İş İstasyonuna ŞOK Fiyat Artışı: Binlerce Dolarlık Zam Geldi!
Sıradaki Haber
Apple'dan Sürpriz Hamle: M4 Teknolojili Mac Modellerine Erişmek Zorlaşıyor!

Benzer Haberler: