COMPRENDRE LES MODELES METEO


MAJ le 16/07/2007 : correction du paragraphe "bilan de l'énergie thermodynamique"

Cet article a pour but de présenter de façon simple les principes de la modélisation numérique en météo, qui est à la base de la prévision moderne du temps..

Tout d'abord, un excellent dossier sur l'interprétation des modèles, basées sur des cartes modernes, faisant appel aux notions de plus en plus utiles de météorologie dynamique :
DOSSIER : COMMENT DEBUTER DANS L'INTERPRETATION DES MODELES ? Par Arnaud M.




    Les modèles utilisés en météo sont des programmes informatiques qui simulent l'évolution de l'atmosphère. Chaque simulation s'appelle une "sortie" ou un "run" (mot anglais pour "lancement"), les résultats sont présentés sous forme de cartes ou diagrammes divers, quelques heures après le début du "run".
    Une simulation se base sur les données présentes de l'atmosphère, et applique des lois d'évolutions pour calculer l'état futur de l'atmosphère, à partir duquel on pourra prévoir le temps. Les calculs sont énormes, et nécessite des ordinateurs extrêmement puissants. Mais la pratique a ses limites, notamment à longue échéance, et donc un modèle reste avant tout un outil de prévision, indispensables certes, mais non infaillible.



    Résolution et paramétrisation

    La première faille des modèles c'est leure précision. En effet, il faut diviser toute l'atmosphère en
un maillage tri-dimensionnel, où la simulation ne donnera les résultats que maille par maille (mais les calculs sont rarement effectués maille par maille*). Pour rester dans des temps de calcul acceptables, les modèles qui s'intéressent au temps sur tout le globe (modèles globaux) doivent avoir une maille assez grossière (plus de 50 km de côté horizontal). Ainsi, les prévisions manqueront de précision et tout phénomène de dimension inférieure à la taille de la maille, ne pourra être pris en compte directement. Mais on peut prévoir leur effet moyen sur chaque maille. C'est pourquoi un modèle peut tenir compte d'averses isolées en prévoyant de la pluie, mais si les nuages sont isolés le modèle ne donnera qu'une faible nébulosité sur la maille. Le fait de simuler de cette manière des phénomènes "sous-maille" s'appelle la "paramétrisation" (on parle souvent en anglais de "physics" pour désigner les phénomènes nécessitant une paramétrisation). Les données sont toujours présentées maille par maille, donc on ne connaît que l'effet moyen des phénomènes paramétrisés (convection, relief, rayonnement du sol, turbulence au sol, etc.)
Les choix de paramétrisation diffèrent beaucoup suivant les modèles, c'est pourquoi certains modèles sont incapables de prévoir correctement des pluies orageuses, alors que d'autres tendent même à les surestimer. La remarque est aussi valable pour les températures au sol, qui sont souvent très lissées lorsque le relief n'est pas bien pris en compte.
Mais le rôle principal des modèles c'est surtout de prendre en compte les interactions à grande échelle, ce que l'homme est incapable de prévoir à une échéance de plusieurs jours. Le coeur du modèle se situe là, le modèle dynamique, qui en quelques équations permet de prévoir avec réussite l'évolution de l'atmosphère malgré son incroyable complexité apparente. Ce modèle est aussi la source de nombreuses approximations, qui va faire encore que certains modèles sont plus performants que d'autres.


   
    Principes du modèle dynamique

    Dans un cas très simple, un modèle est basé sur 3 inconnues : la température, la pression, et le vent. Ce sont ces 3 paramètres qu'il faut calculer pour chaque maille, sachant que les interactions entre toutes les mailles rendent impossibles le calcul manuel. Même le calcul théorique exact est impossible car les équations qui traduisent les interactions sont posées de façon indirectes, et on ne peut pas calculer la solution exacte que si l'état de l'atmosphère est très régulier (or, chaque état réel de l'atmosphère diffère et est on ne peut plus irrégulier). Donc on va utiliser des approximations numériques, sur le même principe que de remplacer la valeur exacte de pi par son approximation 3.14....

    Le vent est défini avec le formalisme mathématique sur un intervalle de temps infiniment petit, on va la définir sur un intervalle de temps fini (qu'on peut associer une valeur numérique) pour faire les calculs. Cet intervalle est appelé "pas de temps" du modèle : il correspond à l'échéance qui sépare deux échances consécutives calculables par le modèle. Et comme la théorie veut de l'infiniment petit, alors il faut choisir des pas de temps suffisament petits pour obtenir des résultats cohérents : la pas de temps d'un modèle global est de l'ordre d'une dizaine de minutes. Ainsi, contrairement aux cartes des modèles, qui sont présentées pour des échéances souvent de 12h en 12h, le modèle fait les calculs intermédiaires de 10 minutes en 10 minutes. On comprend alors l'énorme quantité de calcul à effectuer, et la puissance monstre nécessaire. Des méthodes permettent actuellement d'allonger le pas de temps et donc de limiter les calculs.

    Etudions maintenant les interactions entre les 3 paramètres : elles sont décrites mathématiquement par des équations de conservation d'énergie qui lient les 3 paramètres. Dans notre cas simple, ce sont :

- la conservation de la masse : 
    En considérant que l'air est peu compressible on a une densité d'air pratiquement uniforme, on peut écrire la conservation de la densité comme une condition sur le vent : par exemple en surface, tout vent convergent/divergent ou accélérant/ralentissant en ligne droite doit être compensé par un flux vertical (on comprend bien qu'un vent convergent en surface force l'air à monter). On explique ainsi une interaction perpétuelle entre vent horizontal et flux verticaux. Cette condition se résume mathématiquement par un champ de vent à divergence nulle. Les modèles utilisent le champ de vent horizontal pour calculer le flux vertical (même si cette méthode n'est pas très précise)

- le bilan de la quantité de mouvement :
    Si rien ne vient pertuber l'air, il avance en ligne droite avec la vitesse de départ. Si on applique des forces qui ne s'opposent pas, il dévie et modifie sa vitesse. C'est en fait la traduction du second principe de Newton : somme des forces appliquées = masse x accélération. Il existe trois forces pour l'atmosphère, capable de modifier la circulation de l'air : le gradient de pression, la gravité et le frottement. On ajoute la "force" de Coriolis, pour se placer du point de vue d'un observateur humain, fixé à la surface terrestre.
Pour prévoir le gradient de pression vertical (et déduire le champ de géopotentiel à différents niveaux de pression), on postule souvent qu'il s'oppose exactement aux effets de la gravité : c'est l'hydrostatique. C'est l'état naturel vers lequel tend l'air pour être à l'équilibre, chaque particule d'air étant à la fois attirée par la Terre (gravité) et bloquée par l'air en-dessous (pression). Il ne faut alors plus considérer la densité de l'air comme invariante. Les modèles qui utilisent cette relation sont qualifiés d' "hydrostatiques", c'est le cas de la plupart des modèles (surtout les modèles globaux).  On note que ces modèles oublient l'instabilité verticale en première approche, et oblige tous les phénomènes convectifs à être paramétrisés.

- le bilan de l'énergie thermodynamique :
    Ce bilan traduit l'évolution de la température de l'air en fonction des changements de pression et des transferts thermiques.
    L'air tend à suivre la loi des gaz parfaits.  Si on emprisonne de l'air dans une boîte (on impose donc une densité constante), la pression et la température sont liés en permanence : augmenter la température augmente la pression, diminuer la pression diminue la température, etc.  L'explication vient du fait que la pression exercée par l'air correspond à l'intensité des chocs des molécules sur les parois de la boîte : si on augmente la température, on a une agitation plus forte des molécules qui vont donc taper plus fort sur les parois.
      En considérant une bulle d'air qui est transportée par les flux, sa température va évoluer de deux manières : l'échange de chaleur au contact du sol ou de l'air environnant et le changement de pression. On mettait en évidence la pression exercée par l'air dans une boîte sur les parois de cette boîte, mais dans un fluide où il n'y a pas de frontière, la pression se répercute sur tout l'air, et au bilan la pression "intérieure" à notre bulle d'air est aussi la pression exercée par l'air extérieur. Par exemple, le fait d'amener une bulle d'air à plus haute altitude la soumet à une pression extérieure plus faible, donc sa pression diminue d'autant, et ça se répercute sur la température et la densité : l'air qui monte se dilate et se refroidit, l'air qui descend se comprime et se réchauffe.
      Le fait d'échanger de la chaleur s'appelle un transfert thermique. Les transferts air-sol sont favorisés par le contact prolongé de l'air et du sol, soit dans une situation avec vent faible. Ainsi en journée, le sol se réchauffe en captant les rayons du soleil et réchauffe l'air au contact par conduction, la nuit le sol se refroidit, et contamine l'air en surface toujours par conduction. Pour transférer la chaleur air-air il faut au contraire une situation très turbulente, les tourbillons étant à la base du mélange et donc de l'homogénéisation. Dans l'atmosphère, la turbulence n'est généralement pas suffisante pour mélanger les masses d'air sur des distances importantes, sauf près du sol où le relief cause beaucoup de turbulence : ainsi l'air de surface, qui évolue en température au contact du sol, contamine toute une couche par turbulence, laquelle atteint en moyenne 1500m d'altitude : c'est la couche-limite. On ressent la différence entre le jour et la nuit sur toute cette couche, les effets maximaux étants à quelques mètres d'altitude. Sur toute les niveaux supérieurs, la différence jour/nuit est quasi-inexistante : on parle d'atmopshère libre. 


    Prévoir les nuages

    On n'a pas tenu compte de l'humidité, qui est la teneur de l'air en vapeur d'eau (forme gazeuse des molécules H2O). La vapeur d'eau est assez instable dans les conditions atmosphériques, tendant rapidement, dès qu'elle s'accumule un peu trop, à évoluer en eau liquide, sous forme de gouttelettes d'eau qui restent en suspension dans l'atmosphère : c'est le nuage.
    Dans la partie "dynamique", le modèle ne gère que le transport de la vapeur d'eau et des nuages par le vent sans prévoir la phase intermédiaire : formation/dissipation des nuages. Les modèles présent souvent des cartes d'humidité relative. Comme il calcule l'humidité moyenne sur une maille et que les nuages sont fréquents dans le ciel, on a en fait une idée sur la densité de nuages (en-dessous de 50% d'humidité on peut considérer que les nuages seront très rares, au dessus de 80% le ciel sera très nuageux). Près du sol, l'humidité est difficilement prévisible puisqu'il y a une forte interaction avec la surface (fleuves, rejets industriels, relief...) et complique ainsi la prévision du brouillard (ce qui peut fausser les prévisions de température au sol) et autres nuages bas.
    Les nuages réchauffent l'air au moment de leur formation (la vapeur d'eau libère de l'énergie en se transformant en gouttelettes), expliquent les pluies, et réfléchissent une partie du rayonnement solaire, le modèle doit donc absolument les simuler, dans la partie "paramétrisation".  Là les fortunes sont diverses... chaque modèle étant caractérisé par une paramétrisation qui varie en fonction de la précision attendue.
    Il faut toujours étudier les prévisions de pluie avec du recul. Lorsque la situation est très convective (averses, orages) les pluies s'organisent à très fine échelle, ce que le modèle est incapable de prévoir. Dans cette situation, doit considérer la prévision de pluie plus comme une probabilité de pluie (c'est déjà mieux que rien !), l'idéal étant d'étudier la situation convective pour anticiper l'organisation et l'intensité possible des pluies. La paramétrisation de la convection est parfois mal stabilisée, conduisant le modèle à prévoir des résultats peu réalistes : par exemple chez le célèbre GFS, "bull-eyes" (noyaux localisés de pluie très intense en situation orageuse) et "ondes de choc" (propagation ondulatoire autour de certains noyaux ascendants intenses).  Ces possibles excès appellent toujours une certaine méfiance du prévisionniste face aux résultats bruts, d'autant plus en situation convective.



    Des mailles plus fines pour des régions limitées

    Les modèles qui étudient l'atmosphère sur une région limitée sont qualifiés de "régionaux" (en opposition à "globaux") et ont généralement une maille plus fine qui leur permet de prendre en compte des phénomènes de plus petite échelle, et les détails du relief et des surfaces terrestres/maritimes. Mais les modèles régionaux ont besoin de savoir quel est l'état de l'atmosphère juste en-dehors de leur région. Ils utilisent donc les données de modèles globaux, et comme leur maille est généralement plus petite que les modèles globaux, ils faut adapter ces données peu précises à un maillage précis, ce qui peut causer quelques problèmes.
On note que la fiabilité d'un modèle régional dépend de celle du modèle global duquel il utilise les données aux bords.



    Effet papillon et limites des méthodes numériques

    Le principal défaut des modèles c'est la sensibilité numérique. On a évoqué les innombrables opérations à effectuer pour faire une prévision : le modèle doit résoudre toutes les équations (une dizaine), pour chaque maille* (il y en a près de 5 millions pour un modèle global de maille 100km...), pour chaque pas de temps (il y en a près de 150 pour une prévision à 24h d'échéance avec un pas de 10 minutes). Et en plus, les données recueillies par le résau d'observation météo sont imprécises... Les modèles tiennent le choc pour les prévisions à 24h mais au-delà les prévisions commencent à devenir hésitantes dans le détail : une petite pertubation dans les données de calculs s'amplifie à vitesse grand V au fur-et-à-mesure des milliards d'opérations qui suivent, et ainsi se répercute sur la prévision finale de manière bien plus conséquente que l'intensité initiale de la pertubation. C'est l'effet "papillon". Il explique que plus l'échéance est loin, plus la prévision calculée par le modèle est susceptible de s'écarter de la réalité. Ce constat réduit à néant l'espoir de prévoir le temps à 10 jours avec grande fiabilité. On peut évaluer l'instabilité de la prévision en effectuant plusieurs "runs" contenant volontairement des pertubations et voir où les scénarios divergent franchement : c'est la prévision probabiliste.




    La fiabilité des prévisions à courte échance révèle que la théorie utilisée dans les modèles est pertinente (suivant la précision recherchée) et pourrait décerner à la météo le titre de "science exacte" mais l'incapacité des modèles à résister au poids du calcul numérique est le fardeau de toute cette théorie. Si en recherche scientifique on s'arrange pour que les modèles reconstituent au mieux la réalité, on ne peut pas rivaliser avec les modèles sur la prévision du temps. Un modèle n'est pas infaillible, il est un outil aux prévisionnistes, mais un outil INDISPENSABLE.



MAJ le 16/07/2007 : correction du paragraphe "bilan de l'énergie thermodynamique"

* Les principaux modèles utilisent en fait une méthode plus performante que le calcul maille par maille (méthode des points de grille), ils décomposent en premier temps la situation météo en signaux ondulatoires de longueurs différentes (et de forme sinusoïdales), sur lesquels on peut faire des opérations puissantes et plus économes en calcul : c'est la méthode spectrale. La résolution du modèle dynamique est alors la longueur de l'onde la plus courte utilisée dans la décomposition. Mais tous les phénomènes non-linéaires (turbulence) et "sous-maille" doivent être calculés maille par maille.