Hava durumu tahminleri ve iklim modellemeleri, doğanın bize sunduklarını öngörme yeteneğimizin artması sayesinde giderek daha doğru hale geliyor. Bu gelişmeler, hem daha iyi modellerin geliştirilmesi hem de artan hesaplama gücü sayesinde mümkün oluyor.
Alman Max Planck Enstitüsü'nden araştırmacıların öncülük ettiği yeni bir çalışma, iklim modelleme topluluğu tarafından alanlarının "kutsal kase"si olarak nitelendirilen bir başarıyı duyuruyor: Hava durumu tahminlerini iklim modellemeleriyle birleştiren, neredeyse bir kilometrelik çözünürlüğe sahip bir model.
Teknik olarak modelin çözünürlüğü tam olarak 1 kilometrekarelik hücreler halinde değil, 1.25 kilometre olarak belirlenmiş.
Ancak bu noktada detaylar çok da önemli değil. Dünya üzerindeki tüm kara ve deniz alanını kapsamak için yaklaşık 336 milyon hücre kullanılmış. Araştırmacılar, yer tabanlı hücrelerin hemen üzerinde de aynı sayıda "atmosferik" hücre ekleyerek toplamda 672 milyon hesaplanmış hücreye ulaşıldığını belirtiyor.
Bu hücrelerin her biri için araştırmacılar, Dünya'nın temel dinamik sistemlerini yansıtan bir dizi birbirine bağlı model çalıştırmışlar. Bu sistemler "hızlı" ve "yavaş" olarak iki kategoriye ayrılmış.
"Hızlı" sistemler enerji ve su döngülerini, yani temel olarak hava durumunu kapsıyor. Bunları net bir şekilde takip edebilmek için modelin, yeni sistemin 1.25 kilometrelik çözünürlüğü gibi son derece yüksek bir çözünürlüğe sahip olması gerekiyor.
Bu model için araştırmacılar, Alman Hava Durumu Servisi ve Max Planck Meteoroloji Enstitüsü tarafından geliştirilen ICOsahedral Nonhydrostatic (ICON) modelini kullanmış.
Öte yandan "yavaş" süreçler, karbon döngüsü ve biyosferdeki değişiklikler ile okyanus jeokimyasını içeriyor. Bunlar, bir gök gürültüsünün 1.25 kilometrelik bir hücreden diğerine geçmesi için geçen birkaç dakika yerine, yıllar hatta on yıllar boyunca süren eğilimleri yansıtıyor.
Bu hızlı ve yavaş süreçlerin birleştirilmesi, makalenin gerçek atılımı olarak araştırmacılar tarafından da kabul ediliyor. Bu karmaşık sistemleri içeren tipik modeller, 40 kilometreden daha yüksek çözünürlüklerde hesaplanabilir durumdaydı.
Peki bunu nasıl başardılar? Derinlemesine yazılım mühendisliği ile en son teknolojiye sahip bilgisayar çiplerinin birleşimini kullanarak. Bu noktada bilgisayar yazılımı ve donanım mühendisliği detaylarına gireceğiz.
Bu çalışmanın temelini oluşturan modelin ilk yazıldığı dil Fortran idi. 1990 öncesi yazılmış kodu modernize etmeye çalışan herkes için bu durum zorlayıcı olabiliyor.
Model ilk geliştirildiğinden bu yana, modern hesaplama mimarilerinde kullanımını zorlaştıran birçok ek özellik kazanmıştı. Bu nedenle araştırmacılar, veriyi modern sistemlerle uyumlu bir şekilde işleyen Data-Centric Parallel Programming (DaCe) adlı bir çerçeve kullanmaya karar verdiler.
Bu modern sistem, Almanya ve İsviçre'de bulunan ve her ikisi de Nvidia'nın yeni GH200 Grace Hopper çipine dayanan JUPITER ve Alps süper bilgisayarlarını içeriyordu.
Bu çiplerde, yapay zeka eğitimi için kullanılan bir GPU (bu durumda Hopper olarak adlandırılıyor) ile bir CPU (bu durumda başka bir çip tedarikçisi olan ARM'dan ve Grace olarak etiketlenmiş) birlikte bulunuyor.
Hesaplama sorumluluklarının ve uzmanlıklarının bu şekilde ayrılması, araştırmacıların "hızlı" modelleri nispeten hızlı güncelleme hızlarını yansıtmak için GPU'da çalıştırmalarına olanak tanırken, daha yavaş karbon döngüsü modelleri ise paralel olarak CPU'lar tarafından desteklendi.
Gereken hesaplama gücünü bu şekilde ayırmak, 145.7 günlük simülasyonu tek bir günde doğru bir şekilde modellemek için 20.480 adet GH200 süper çip kullanmalarını sağladı. Bu model, hesaplaması gereken toplam değer sayısı olan yaklaşık 1 trilyon "serbestlik derecesi" kullandı. Bu modelin çalışması için bir süper bilgisayar gerekmesi şaşırtıcı değil.
Ne yazık ki bu durum, bu kadar karmaşık modellere yerel hava durumu istasyonlarınızda yakın zamanda ulaşamayacağımız anlamına geliyor.
Bu düzeyde bir hesaplama gücüne erişmek kolay değil ve büyük teknoloji şirketlerinin bu gücü, iklim modellemesi üzerindeki sonuçları ne olursa olsun, üretken yapay zekadan en son bitleri sıkıştırmak için kullanmaları daha olası.
Ancak en azından araştırmacıların bu etkileyici hesaplama başarısını gerçekleştirebilmiş olmaları takdire şayan ve umarız bir gün bu tür simülasyonlar yaygınlaşır.