Innovación tecnológica
12/11/2025 | 09:40
Redacción Cadena 3
La predicción del clima ha sido históricamente complicada, y el modelado climático aún más. Sin embargo, la capacidad de anticipar lo que la naturaleza nos depara ha mejorado gracias a dos factores clave: modelos más precisos y un aumento en la potencia de cálculo. Recientemente, un equipo de investigadores liderado por Daniel Klocke del Instituto Max Planck en Alemania, presentó un modelo que algunos en la comunidad de modelado climático consideran el "santo grial" de su campo: un modelo de resolución casi kilométrica que combina pronósticos meteorológicos con modelado climático.
El nuevo modelo tiene una resolución de 1.25 kilómetros, lo que implica que cubre un total de 336 millones de celdas para toda la tierra y el mar, además de un número igual de celdas atmosféricas directamente sobre las celdas terrestres, sumando un total de 672 millones de celdas calculadas. Para cada una de estas celdas, los autores ejecutaron una serie de modelos interconectados para reflejar los principales sistemas dinámicos de la Tierra, clasificándolos en dos categorías: "rápidos" y "lentos".
Los sistemas "rápidos" incluyen los ciclos de energía y agua, que son esenciales para el clima. Para rastrearlos de manera efectiva, se requiere una resolución extremadamente alta, como la que ofrece el nuevo sistema. Para este modelo, se utilizó el modelo ICOsahedral Nonhydrostatic (ICON), desarrollado por el servicio meteorológico alemán y el Instituto Max Planck para la Meteorología.
Por otro lado, los procesos "lentos" abarcan el ciclo del carbono y los cambios en la biosfera y la geoquímica oceánica, que reflejan tendencias a lo largo de años o incluso décadas. La combinación de estos procesos rápidos y lentos representa un avance significativo, como coinciden los autores del estudio.
Los modelos típicos que integran estos sistemas complejos solo son viables a resoluciones superiores a 40 km. ¿Cómo lograron esto? A través de una profunda ingeniería de software y el uso de los chips de computadora más avanzados disponibles en el mercado.
El modelo se basó en un código originalmente escrito en Fortran, que había acumulado muchas complicaciones a lo largo del tiempo, dificultando su uso en arquitecturas computacionales modernas. Por ello, los autores optaron por un marco llamado Data-Centric Parallel Programming (DaCe), que gestiona los datos de manera compatible con los sistemas actuales.
El sistema moderno utilizado fue el JUPITER y Alps, dos supercomputadoras ubicadas en Alemania y Suiza, respectivamente, ambas basadas en el nuevo chip GH200 Grace Hopper de Nvidia. Este chip combina una GPU, utilizada para ejecutar los modelos rápidos, con una CPU que apoya los modelos más lentos en paralelo.
Esta separación de responsabilidades computacionales permitió a los investigadores utilizar 20,480 superchips GH200 para modelar 145.7 días en un solo día. Para ello, el modelo utilizó casi 1 billón de "grados de libertad", que en este contexto se refiere al total de valores que tuvo que calcular.
Sin embargo, los modelos de esta complejidad no estarán disponibles en las estaciones meteorológicas locales en el corto plazo, ya que la potencia de cálculo necesaria no es fácil de conseguir. Las grandes empresas tecnológicas probablemente priorizarán su uso en optimizar la inteligencia artificial generativa, independientemente de las consecuencias para el modelado climático.
¿Qué se presentó recientemente?
Un modelo de 1.25 km de resolución que combina pronósticos meteorológicos y modelado climático.
¿Quién lideró la investigación?
El estudio fue liderado por Daniel Klocke del Instituto Max Planck.
¿Cuántas celdas se utilizaron en el modelo?
Se utilizaron un total de 672 millones de celdas para cubrir la tierra, el mar y la atmósfera.
¿Qué tecnología se utilizó para el modelo?
Se utilizó el modelo ICOsahedral Nonhydrostatic (ICON) y chips de Nvidia.
¿Cuál es el desafío para el futuro?
La complejidad del modelo requiere una gran potencia de cálculo, lo que limita su disponibilidad en estaciones meteorológicas locales.
Te puede Interesar
Estudio sobre chatbots
Cada día, millones de personas interactúan con chatbots y asistentes de IA como ChatGPT y Replika. Un estudio revela cómo estas interacciones crean la ilusión de amistad y conexión emocional.
Investigación en tecnología de radares
Un equipo de investigación desarrolló un algoritmo que mejora la resolución Doppler en radares de onda continua modulada en frecuencia, optimizando el rendimiento del sistema sin necesidad de hardware adicional.
Tecnología
Investigadores de la Universidad de Cambridge y Meta Reality Labs establecieron que hay un límite de resolución en la visión humana, lo que sugiere que los 4K y 8K no siempre son necesarios en pantallas de ciertas dimensiones.