Modelado Numérico en el CIMA

Transcripción

Modelado Numérico en el CIMA
Celeste Saulo
PRIMER ENCUENTRO NACIONAL DE COMPUTACION DE
ALTO RENDIMIENTO PARA APLICACIONES CIENTÍFICAS
La Falda, Córdoba, Argentina
3-5 de Mayo de 2010
Con agradecimiento especial a la colaboración de Juan Ruiz
`
`
`
Modelado climático
Modelado del tiempo
Modelado oceanográfico sobre la plataforma
continental argentina
`
`
`
15 servidores
2 Clusters de 32 y 12 nodos respectivamente
2 Sistemas tipo Data storage
`
`
Los modelos se emplean para estudiar la
dinámica de ambos sistemas y para predecir
sus cambios o su evolución
La calidad de una predicción depende
fundamentalmente de:
◦ La calidad con que se define el estado inicial
◦ La calidad del modelo
`
Dado que la predicción tiene incertidumbre,
es deseable buscar estrategias para
cuantificar esa incertidumbre
Seamless Prediction of Weather and Climate
1.
Planetary Scale Resolving Models (1970~): ∆x~500Km
2.
Cyclone Resolving Models (1980~):
3.
Mesoscale Resolving Models (1990~):
4.
Cloud System Resolving Models (2000 ~):
Organized
Convection
Convective
Heating
Mesoscale
System
Cloud
System
MJO
Center of Ocean-LandAtmosphere studies
∆x~100-300Km
∆x~10-30Km
Synoptic
Scale
ENSO
∆x~3-5Km
Planetary
Scale
Climate
Change
Shukla, 2009
International Research and Computational
Facilities to Revolutionize Climate Prediction
1. Computational Requirement:
- Sustained Capability of 2 Petaflops by 2011
- Sustained Capability of 10 Petaflops by 2015
Earth Simulator (sustained 7.5 Teraflops) takes 6 hours for 1 day forecast
using 3.5 km global atmosphere model; ECMWF (sustained 2 Teraflops)
takes 20 minutes for 10 day forecast using 24 km global model
2. Scientific Staff Requirement:
- Team of 200 scientists to develop next generation climate model
- Distributed team of 500 scientists (diagnostics, experiments)
A computing capability of sustained 2 Petaflops will enable 100 years of
integration of coupled ocean-atmosphere model of 5 km resolution in 1
month of real time
Center of Ocean-LandAtmosphere studies
Shukla, 2009
`
`
`
`
Estudios de caso, para entender la dinámica de
los sistemas y evaluar la calidad con que se
representan patrones específicos del tiempo o
del clima
Estudios de sensibilidad, para entender cómo
responde el sistema a forzantes externos (por
ejemplo, el estado de la superficie terrestre o el
estado del mar)
Asimilación de datos, para mejorar la calidad de
las condiciones iniciales
Pronósticos por ensambles, para mejorar la
representación de la incertidumbre
mas información en www.cima.fcen.uba.ar
`
`
`
`
`
Es un modelo de última generación, desarrollado por un
consorcio de instituciones de USA
Es de libre disponibilidad
Cuenta con 5 equipos de desarrollo, uno de los cuales se
concentra en la parte numérica y de software
La continuidad del uso de esta herramienta ha permitido
mejorar su performance para la representación de los
fenómenos significativos sobre Sudamérica
Además del uso para investigación, es la base de nuestra
página de pronósticos operativos: http://wrf.cima.uba.ar
Resolución
espacial (km)
Longitud
pronóstico
Area de
cobertura
Tiempo de
cómputo
Dimensión
matrices
WRF alta
15
2 días
Argentina
2 h 40 min
150x300x50
WRF baja
60 (/20)
3 días
Sudamérica
45 min
102x111x27
`
`
`
Modelo básico: WRF (Weather research and forecast model)
Ciclos: 00 UTC (21 HOA) y 12 UTC (09 HOA)
Cada matriz corresponde a 1 variable meteorológica
pronosticada (se emplean 7 ó más, dependiendo de la
versión)
WRF alta
WRF baja
Datos iniciales
Post-proces.
15-20 min
1 hora
5 minutos
`
`
`
Intel(R) Xeon(R) CPU E5405 @
2.00GHz (8 procesadores)
4Gb de memoria RAM
700 Gb de disco.
`
`
`
Esta escala requiere de
corridas de muy larga duración
(de meses a varias décadas)
Es deseable trabajar con
ensambles de al menos 15
miembros
El CIMA trabaja empleando
modelos regionales, ya que no
tiene la capacidad
computacional para correr
modelos globales
`
`
`
El CIMA ha empleado modelos desarrollados por
otras instituciones (MM5 y WRF, NCAR-USA y
RCA, Rossby Center, Suecia) , pero modificados
para su óptimo funcionamiento sobre
Sudamérica.
La estrategia adoptada para las simulaciones
largas (realizadas localmente) fue la de corridas
únicas
La resolución de las corridas regionales ha sido
mejorada respecto a la de los modelos globales
(por ejemplo, 50 km vs. 100 ó 200 km)
`
`
`
El CIMA es Centro responsable de la generación de
los escenarios del clima futuro para la realización
de las Comunicaciones Nacionales sobre Cambio
Climático en cumplimiento con los compromisos
asumidos por la República Argentina ante la
Convención Marco de las Naciones Unidas sobre
Cambio Climático.
Esto requiere corridas de décadas bajo
condiciones (escenarios) diferentes, además de
corridas de “control” que representan el clima
actual
La participación en la 2da Comunicación Nacional
(corridas simulando 10 años con 50 km sobre
Sudamérica) requirió meses de cómputos
empleando el cluster completo
`
`
Se realizan ensambles de corridas climáticas
multianuales en el cluster Tornado, un centro
de supercomputación sueco
http://www.nsc.liu.se/systems/cluster/torna
do/
Se participa del super-ensamble de modelos
regionales coordinado por la Universidad de
San Pablo, para disponer de ensambles de
pronósticos a corto plazo sobre Sudamérica
`
`
`
Ejecutar ensambles de pronósticos (i.e. varias
realizaciones con pequeñas diferencias en la
condición inicial)
Asimilación de datos
Simulaciones decadales a multi-decadales en
alta resolución (20 km o quizás mayor)
`
`
`
`
`
`
Si bien el CIMA posee un cluster interesante y
varios servidores, deben contemplarse
necesidades muy diversas.
2 grupos realizando experimentos climáticos y de
cambio climático (lo cual incluye más de 5
doctorandos con distinto grado de avance)
1 grupo realizando investigación en pronósticos
por ensambles y asimilación de datos
Varios investigadores realizando estudios de caso
(incluye simulaciones climáticas)
ejecución de pronóstico operativo en alta y baja
resolución
Participación de la 3ra Comunicación sobre
Cambio Climático
`
`
`
Bajo las condiciones actuales, implementar la
técnica de asimilación por Local Ensamble
Transform Kalman Filter (Hunt et al. 2007),
requeriría unas 11 horas para cada ciclo de
análisis (es decir, cada 6 horas).
Es completamente inviable para ser operativo, y
muy poco estimulante para pruebas
Cada día de análisis, llevaría 11*4 horas = 44
horas “máquina” para tener la representación de
“24 horas reales”
`
Sin embargo, esta técnica tiene la ventaja de
ser 100% paralelizable, con lo cual si en lugar
de 8 procesadores tuviéramos el doble,
entonces el tiempo bajaría a la mitad y así
sucesivamente
`
`
`
Hay que tener en cuenta que duplicar la
resolución espacial implica un incremento del
costo computacional de 24 aproximadamente
La eficiencia de paralelización del WRF es muy
dependiente de los tiempos asociados al
intercambio de datos entre los procesos (la
red).
Con una red tipo gigabit se saturaría la
eficiencia en 20 procesos
Tomada de:
https://srvgrid01.offis.
uni-oldenburg.de/wrfbenchmark/case.pl?cas
e=conus12km_2001

Documentos relacionados