A previsão do tempo é notoriamente imprecisa — a modelagem climática, que usa equações matemáticas para simular o sistema climático da Terra e prever o clima futuro, ainda mais. Mas sua crescente capacidade de prever o que o mundo natural nos reserva deve-se, em grande parte, a dois fatores: modelos melhores e maior poder computacional.
Agora, um novo artigo de pesquisadores liderados por Daniel Klocke, do Instituto Max Planck, na Alemanha, descreve o que alguns na comunidade de modelagem climática consideram o “santo graal” da área: um modelo com resolução de quase um quilômetro, capaz de conferir uma precisão muito maior à previsão do tempo e à modelagem climática, diz a Science Alert.
Em artigo publicado no Universe Today, o engenheiro Andy Tomaswick pontuou que estima-se que existam 336 milhões de células para cobrir toda a terra e o mar do nosso planeta, e os autores adicionaram a mesma quantidade de células “atmosféricas” diretamente acima das células terrestres, totalizando 672 milhões de células calculadas.
Para cada uma delas, foi executada uma série de modelos interconectados para refletir os principais sistemas dinâmicos da Terra, divididos em duas categorias: rápidos e lentos.
Os sistemas rápidos, segundo Klocke, incluem os ciclos de energia e água, o que basicamente significa o clima. “Para rastreá-los com clareza, um modelo precisa de uma resolução extremamente alta, como os 1,25 km que o novo sistema é capaz de alcançar”, destacou o engenheiro.
Neste caso, os pesquisadores utilizaram o modelo ICOsaédrico não hidrostático (ICON), desenvolvido pelo serviço meteorológico alemão e pelo Instituto Max Planck de Meteorologia.
Os processos lentos, por sua vez, incluem o ciclo do carbono e as mudanças na geoquímica da biosfera e dos oceanos. “Estes refletem tendências ao longo de anos ou mesmo décadas, em vez dos poucos minutos que uma tempestade leva para se deslocar de uma célula de 1,25 km para outra”, explicou Klocke.
Ele acrescentou que “a verdadeira inovação do artigo reside na combinação desses dois processos, um rápido e outro lento, como os próprios autores reconhecem. Modelos típicos que incorporariam esses sistemas complexos só seriam computacionalmente viáveis em resoluções superiores a 40 km”.
Mas, então, como os cientistas conseguiram? “Combinando engenharia de software de altíssima qualidade com uma grande quantidade dos chips de computador mais modernos que o dinheiro pode comprar”, comentou o engenheiro no artigo da Universe Today.
O modelo usado como base para grande parte deste trabalho foi originalmente escrito em Fortran. Como devido a inúmeros recursos extras que dificultavam seu uso em qualquer arquitetura computacional moderna, decidiu-se por utilizar uma estrutura chamada Programação Paralela Centrada em Dados (DaCe).
Esse sistema, escreveu Klocke, tomou a forma do JUPITER e do Alps, dois supercomputadores localizados na Alemanha e na Suíça, respectivamente, e ambos baseados no novo chip GH200 Grace Hopper da Nvidia.
“Nesses chips, uma GPU (como o tipo usado no treinamento de IA – neste caso chamada Hopper) é acompanhada por uma CPU (neste caso da ARM, outra fornecedora de chips, e denominada Grace)”, complementou o autor. “Essa bifurcação de responsabilidades e especialidades computacionais permitiu aos autores executar os modelos ‘rápidos’ na GPU para refletir suas velocidades de atualização relativamente rápidas, enquanto os modelos mais lentos do ciclo do carbono foram suportados pelas CPUs em paralelo.”
Ao separar o poder computacional necessário dessa forma, o grupo conseguiu utilizar 20.480 superchips GH200 para modelar com precisão 145,7 dias em um único dia. “Para isso, o modelo utilizou quase 1 trilhão de ‘graus de liberdade’, o que, neste contexto, significa o número total de valores que teve de ser calculado”, comentou o engenheiro.
Infelizmente, isso também significa que modelos com essa complexidade não chegarão às estações meteorológicas da sua cidade tão cedo – mas podem chegar um dia.
“Poder computacional como esse não é fácil de se obter, e é mais provável que as grandes empresas de tecnologia o utilizem para extrair o máximo proveito da IA generativa”, indicou. “Mas, no mínimo, o fato de os autores terem conseguido realizar essa impressionante façanha computacional merece elogios e reconhecimento – e esperamos que um dia cheguemos a um ponto em que esse tipo de simulação se torne comum”, diz o especialista






