COMPRENDRE LES MODELES METEO
MAJ le 16/07/2007 : correction du paragraphe "bilan de l'énergie thermodynamique"
Cet article a pour but de
présenter de façon simple les principes de la
modélisation numérique en météo, qui est
à la base de la prévision moderne du temps..
Tout d'abord, un excellent dossier sur l'interprétation des
modèles, basées sur des cartes modernes, faisant appel
aux notions de plus en plus utiles de météorologie
dynamique : DOSSIER
: COMMENT DEBUTER DANS L'INTERPRETATION DES MODELES ? Par Arnaud M.
Les modèles utilisés en météo sont des
programmes informatiques qui simulent l'évolution de
l'atmosphère. Chaque simulation s'appelle une "sortie" ou un
"run" (mot anglais pour "lancement"), les résultats sont
présentés sous forme de cartes ou diagrammes divers,
quelques heures après le début du "run".
Une simulation se base sur les données présentes de
l'atmosphère, et applique des lois d'évolutions pour
calculer l'état futur de l'atmosphère, à partir
duquel on pourra prévoir le temps. Les calculs sont
énormes, et nécessite des ordinateurs extrêmement
puissants. Mais la pratique a ses limites, notamment à longue
échéance, et donc un modèle reste avant tout un
outil de prévision, indispensables certes, mais non infaillible.
Résolution et paramétrisation
La première faille des modèles c'est leure
précision. En effet, il faut diviser toute l'atmosphère
en un maillage tri-dimensionnel,
où la simulation ne donnera les
résultats que maille par maille (mais les calculs sont rarement effectués maille par maille*). Pour rester dans des temps de
calcul acceptables, les modèles qui s'intéressent au
temps sur tout le globe (modèles globaux) doivent avoir une
maille assez grossière (plus de 50 km de côté
horizontal). Ainsi, les prévisions manqueront de
précision et tout phénomène de dimension
inférieure à la taille de la maille, ne pourra être
pris en compte directement. Mais on peut prévoir leur effet
moyen sur chaque maille. C'est pourquoi un modèle peut tenir
compte d'averses isolées en prévoyant de la pluie, mais
si les nuages sont isolés le modèle ne donnera qu'une
faible nébulosité sur la maille. Le fait de simuler de
cette manière des
phénomènes "sous-maille" s'appelle la
"paramétrisation" (on parle souvent en anglais de "physics" pour
désigner les phénomènes nécessitant une
paramétrisation). Les données sont toujours
présentées maille par maille, donc on ne connaît
que l'effet moyen des phénomènes
paramétrisés
(convection, relief, rayonnement du sol, turbulence au sol, etc.)
Les choix de paramétrisation diffèrent beaucoup suivant
les modèles, c'est pourquoi certains modèles sont
incapables de prévoir correctement des pluies orageuses, alors
que d'autres tendent même à les surestimer. La remarque
est aussi valable pour les températures au sol, qui sont souvent
très lissées lorsque le relief n'est pas bien pris en
compte.
Mais le rôle principal des modèles c'est surtout de
prendre en compte les interactions à grande échelle, ce
que l'homme est incapable de prévoir à une
échéance de plusieurs jours. Le coeur du modèle se
situe là, le modèle dynamique, qui en
quelques équations permet de prévoir avec réussite
l'évolution de l'atmosphère malgré son incroyable
complexité apparente. Ce modèle est aussi la source de
nombreuses approximations, qui va faire encore que certains
modèles sont plus performants que d'autres.
Principes du modèle dynamique
Dans un cas très simple, un modèle est basé sur 3
inconnues : la température, la pression, et le vent. Ce sont ces
3 paramètres qu'il faut calculer pour chaque maille, sachant que
les interactions entre toutes les mailles rendent impossibles le calcul
manuel. Même le calcul théorique exact est impossible car
les équations qui traduisent les interactions sont posées
de façon indirectes, et on ne peut pas calculer la solution
exacte que si l'état de l'atmosphère est très
régulier (or, chaque état réel de
l'atmosphère diffère et est on ne peut plus
irrégulier). Donc on va utiliser des approximations
numériques, sur le même principe que de remplacer la
valeur exacte de pi par son approximation 3.14....
Le vent est défini
avec le formalisme mathématique sur un intervalle de temps
infiniment petit, on va la définir sur un intervalle de temps
fini
(qu'on peut associer une valeur numérique) pour faire les
calculs. Cet intervalle est appelé "pas de temps" du
modèle : il correspond à l'échéance qui
sépare deux échances consécutives calculables par
le modèle. Et comme la théorie veut de l'infiniment
petit, alors il faut choisir des pas de temps suffisament petits pour
obtenir des résultats cohérents : la pas de temps d'un
modèle global est de l'ordre d'une dizaine de minutes. Ainsi,
contrairement aux cartes des modèles, qui sont
présentées pour des échéances souvent de
12h en 12h, le modèle fait les calculs intermédiaires de
10 minutes en 10 minutes. On comprend alors l'énorme
quantité de calcul à effectuer, et la puissance monstre
nécessaire. Des méthodes permettent actuellement
d'allonger le pas de temps et donc de limiter les calculs.
Etudions maintenant les interactions entre les 3 paramètres :
elles sont décrites mathématiquement par des
équations de conservation d'énergie qui lient les 3 paramètres.
Dans notre cas simple, ce sont :
- la conservation de la masse :
En considérant que l'air est peu compressible on a une
densité d'air pratiquement uniforme, on peut écrire la
conservation de la densité comme une condition
sur le vent : par exemple en surface, tout vent convergent/divergent ou
accélérant/ralentissant en ligne droite doit être
compensé par un flux vertical (on comprend bien qu'un vent
convergent en surface force l'air à
monter). On explique ainsi une interaction perpétuelle entre
vent horizontal et flux verticaux. Cette condition se résume
mathématiquement par un champ de vent à divergence nulle.
Les modèles utilisent le champ de vent horizontal pour calculer
le flux vertical (même si cette méthode n'est pas
très précise)
- le bilan de la quantité de mouvement :
Si rien ne vient
pertuber l'air, il avance en ligne droite avec la vitesse de
départ. Si on applique des forces qui ne s'opposent pas, il
dévie et modifie sa vitesse. C'est en fait la traduction du
second principe de Newton : somme des forces appliquées = masse
x accélération. Il existe trois forces pour
l'atmosphère, capable de modifier la circulation de l'air : le
gradient de pression, la gravité et le frottement. On ajoute la
"force" de Coriolis, pour se placer
du point de vue d'un observateur humain, fixé à la
surface terrestre.
Pour prévoir le gradient de pression
vertical (et déduire le champ de géopotentiel à
différents niveaux de pression), on postule
souvent qu'il s'oppose exactement aux effets de la gravité :
c'est
l'hydrostatique.
C'est l'état naturel vers lequel tend l'air
pour être à l'équilibre, chaque particule d'air
étant à la fois attirée par la Terre
(gravité) et bloquée par l'air en-dessous (pression). Il
ne faut alors plus considérer la densité de l'air comme
invariante. Les modèles qui utilisent cette relation sont
qualifiés d' "hydrostatiques", c'est le cas de la plupart des
modèles (surtout les modèles globaux). On note que
ces modèles oublient l'instabilité verticale en
première approche, et oblige tous les phénomènes
convectifs à être paramétrisés.
- le bilan de l'énergie thermodynamique :
Ce bilan traduit l'évolution
de la température de l'air en fonction des changements de
pression et des transferts thermiques.
L'air tend à
suivre la loi des gaz parfaits.
Si on emprisonne de l'air dans une boîte (on impose donc
une densité constante), la pression et la température
sont liés en permanence : augmenter la température
augmente la pression, diminuer la pression diminue la
température, etc. L'explication vient du fait que la
pression exercée par l'air correspond à
l'intensité des chocs des molécules sur les parois de la
boîte : si on augmente la température, on a une agitation
plus forte des molécules qui vont donc taper plus fort sur les
parois.
En considérant une bulle d'air qui est
transportée par les flux, sa température va
évoluer de deux manières : l'échange de chaleur au
contact du sol ou de l'air environnant et le changement de pression. On
mettait en évidence la pression exercée par l'air dans
une boîte sur les parois de cette boîte, mais dans un
fluide où il n'y a pas de frontière, la pression se
répercute sur tout l'air, et au bilan la pression
"intérieure" à notre bulle d'air est aussi la pression
exercée par l'air extérieur. Par exemple, le fait
d'amener une bulle d'air à plus haute altitude la soumet
à une pression extérieure plus faible, donc sa pression
diminue d'autant, et ça se répercute sur la
température et la densité : l'air qui monte se dilate et
se refroidit, l'air qui descend se comprime et se réchauffe.
Le fait d'échanger de la chaleur s'appelle
un transfert thermique. Les transferts air-sol sont favorisés
par le contact prolongé de l'air et du sol, soit dans une
situation avec vent faible. Ainsi en journée, le sol se
réchauffe en captant les rayons du soleil et réchauffe
l'air au contact par conduction, la nuit le sol se refroidit, et
contamine l'air en surface toujours par conduction. Pour
transférer la chaleur air-air il faut au contraire une situation
très turbulente, les tourbillons étant à la base
du mélange et donc de l'homogénéisation. Dans
l'atmosphère, la turbulence n'est généralement pas
suffisante pour mélanger les masses d'air sur des distances
importantes, sauf près du sol où le relief cause beaucoup
de turbulence : ainsi l'air de surface, qui évolue en
température au contact du sol, contamine toute une couche par
turbulence, laquelle atteint en moyenne 1500m d'altitude : c'est la
couche-limite. On ressent la différence entre le jour et la nuit
sur toute cette couche, les effets maximaux étants à
quelques mètres d'altitude. Sur toute les niveaux
supérieurs, la différence jour/nuit est
quasi-inexistante : on parle d'atmopshère libre.
Prévoir les nuages
On n'a pas tenu compte de l'humidité, qui est la teneur de l'air
en vapeur d'eau (forme gazeuse des molécules H2O). La vapeur
d'eau est assez instable dans les conditions atmosphériques,
tendant rapidement, dès qu'elle s'accumule un peu trop, à
évoluer en eau liquide, sous forme de gouttelettes d'eau qui
restent en suspension dans l'atmosphère : c'est le nuage.
Dans la partie
"dynamique", le modèle ne gère que le transport de la
vapeur d'eau et des nuages par le vent sans prévoir
la phase intermédiaire : formation/dissipation des nuages. Les
modèles présent souvent des cartes d'humidité
relative. Comme il calcule l'humidité
moyenne sur une maille et que les nuages sont fréquents dans le
ciel, on a en fait une idée sur la densité de nuages
(en-dessous de 50% d'humidité on peut considérer que les
nuages seront très rares, au dessus de 80% le ciel sera
très nuageux). Près du sol, l'humidité est
difficilement prévisible puisqu'il y a une forte interaction
avec la surface (fleuves, rejets industriels, relief...) et complique
ainsi la prévision du brouillard (ce qui peut fausser les
prévisions de température au sol) et autres nuages bas.
Les nuages réchauffent l'air au moment de leur formation (la
vapeur d'eau libère de l'énergie en se transformant en
gouttelettes), expliquent les pluies, et réfléchissent
une partie du rayonnement solaire, le modèle doit donc
absolument les simuler, dans la partie "paramétrisation".
Là les fortunes sont diverses... chaque modèle
étant caractérisé par une paramétrisation
qui varie en fonction de la précision attendue.
Il faut toujours
étudier les prévisions de pluie avec du
recul. Lorsque la situation est très convective (averses,
orages) les pluies s'organisent à très fine
échelle, ce que le modèle est incapable de
prévoir. Dans cette situation, doit considérer la
prévision de pluie
plus comme une probabilité de pluie (c'est déjà
mieux
que rien !), l'idéal étant d'étudier la situation
convective pour anticiper l'organisation et l'intensité possible
des pluies. La paramétrisation de la convection est parfois mal
stabilisée, conduisant le modèle à prévoir
des résultats peu réalistes : par exemple chez le
célèbre GFS, "bull-eyes" (noyaux localisés de
pluie très intense en situation orageuse) et "ondes de choc"
(propagation ondulatoire autour de certains noyaux ascendants
intenses). Ces possibles excès appellent toujours
une certaine méfiance du prévisionniste face aux
résultats bruts, d'autant plus en situation convective.
Des mailles plus fines pour des régions limitées
Les modèles qui étudient l'atmosphère sur une
région limitée sont qualifiés de
"régionaux" (en opposition à "globaux") et ont
généralement une maille plus fine qui leur permet de
prendre en compte des phénomènes de plus petite
échelle, et les détails du relief et des surfaces
terrestres/maritimes. Mais les modèles régionaux ont
besoin de savoir quel est l'état de l'atmosphère juste
en-dehors de leur région. Ils utilisent donc les données
de modèles globaux, et comme leur maille est
généralement plus petite que les modèles globaux,
ils faut adapter ces données peu précises à un
maillage précis, ce qui peut causer quelques problèmes.
On note que la fiabilité d'un modèle régional
dépend de celle du modèle global duquel il utilise les
données aux bords.
Effet papillon et limites des méthodes numériques
Le principal défaut des modèles c'est la
sensibilité numérique. On a évoqué les
innombrables opérations à effectuer pour faire une
prévision : le modèle doit résoudre toutes
les
équations (une dizaine), pour chaque maille* (il y en a
près de 5 millions pour un modèle global de maille
100km...), pour chaque pas de temps (il y en a près de 150 pour
une prévision à 24h d'échéance avec un pas
de 10 minutes). Et en plus, les données recueillies par le
résau d'observation météo sont
imprécises... Les modèles tiennent le choc pour les
prévisions à 24h mais au-delà les
prévisions commencent à devenir hésitantes dans le
détail : une petite pertubation dans les données de
calculs s'amplifie à vitesse grand V au fur-et-à-mesure
des milliards d'opérations qui suivent, et ainsi se
répercute sur la prévision finale de manière bien
plus conséquente que l'intensité initiale de la
pertubation. C'est l'effet "papillon". Il explique que plus
l'échéance est loin, plus la prévision
calculée par le modèle est susceptible de
s'écarter de la réalité. Ce constat réduit
à néant l'espoir de prévoir le temps à 10
jours avec grande fiabilité. On peut évaluer
l'instabilité de la prévision en effectuant plusieurs
"runs" contenant volontairement des pertubations et voir où les
scénarios divergent franchement : c'est la prévision
probabiliste.
La fiabilité des prévisions à courte
échance révèle que la théorie
utilisée dans les modèles est pertinente (suivant la
précision recherchée) et pourrait décerner
à la météo le titre de "science exacte" mais
l'incapacité des modèles à résister au
poids du calcul numérique est le fardeau de toute cette
théorie. Si en recherche scientifique on s'arrange pour que les
modèles reconstituent au mieux la réalité, on ne
peut pas rivaliser avec les modèles sur la prévision du
temps. Un modèle n'est pas infaillible, il est un outil aux
prévisionnistes, mais un outil INDISPENSABLE.
MAJ le 16/07/2007 : correction du paragraphe "bilan de l'énergie thermodynamique"
* Les principaux modèles utilisent en fait une méthode
plus performante que le calcul maille par maille (méthode des
points de grille), ils décomposent en premier temps la situation
météo en signaux ondulatoires de longueurs
différentes (et de forme sinusoïdales), sur lesquels on
peut faire
des opérations puissantes et plus économes en calcul :
c'est la méthode spectrale. La résolution du
modèle dynamique est alors la longueur de l'onde la plus courte
utilisée dans la décomposition. Mais tous les
phénomènes non-linéaires (turbulence) et
"sous-maille" doivent être calculés maille par
maille.