Méthodes d’assimilation

 Les algorithmes pour l’assimilation de données et l’estimation des covariances d’erreur

L’assimilation de données relève d’un processus mathématique par lequel l’évolution d’un modèle numérique est contrainte à rester proche d’une réalité partiellement observée. Il s’agit dans le domaine de la météorologie, d’un ensemble de techniques visant à préparer l’état initial (appelée analyse) d’une prévision des modèles ARPEGE, ALADIN et AROME en utilisant des observations atmosphériques.

L’essentiel de l’activité du groupe GMAP porte sur la compréhension des techniques d’assimilation variationnelle, appelées 3D-Var et 4D-Var, ainsi qu’aux réglages de ses composants les plus importants, dont la matrice des covariances spatiales d’erreurs de la prévision qui sert d’ébauche à l’analyse.

L’estimation de ces covariances spatiales s’appuie sur des méthodes d’assimilation d’ensemble, qui consiste à simuler les erreurs du système à l’aide de perturbations aléatoires, ainsi que leur évolution temporelle au cours des étapes successives d’analyse et de prévision. Ce type de techniques permet ainsi de simuler la dynamique spatio-temporelle des erreurs, qui dépend notamment de la situation météorologique ainsi que du réseau d’observation.

Il devient possible de représenter par exemple les incertitudes relativement fortes associées aux phénomènes météorologiques intenses comme les tempêtes des moyennes latitudes et les cyclones tropicaux. Cela est illustré par la figure ci-jointe, qui permet de visualiser la présence de valeurs relativement fortes d’écarts types d’erreur sur l’Europe, associés à l’occurrence d’une tempête pour cette date du 8 décembre 2006. Cette information permet de donner ainsi plus de poids aux observations dans ces régions lors de l’étape d’analyse.

Des techniques de filtrage spatial des variances d’erreur (qui reflètent l’amplitude attendue des erreurs) ont été développées dans ce contexte. Elles visent à extraire le signal robuste fourni par un ensemble de petite taille (de l’ordre de 6 membres), en filtrant spatialement le bruit d’échantillonnage affectant les estimations.

Pression réduite au niveau de la mer, 8 décembre 2006 Ecarts types d’erreur d’ébauche du tourbillon (unité : 10^-5 s^-1) vers 500 hPa, 8 décembre 2006

Des recherches sont également menées pour représenter la dépendance des corrélations spatiales d’erreur à la situation météorologique, en s’appuyant sur des techniques basées sur les ondelettes (qui sont à mi-chemin entre les représentations « point de grille » et « spectrale »). Il s’agit par exemple de représenter le fait que les erreurs sont relativement locales spatialement dans les zones où les structures atmosphériques sont de petite taille, comme dans les régions convectives.

La validation des estimations de covariance est également un thème de recherche important. Elle s’appuie notamment sur des diagnostics basés sur les écarts aux observations. Ces écarts donnent une information indépendante sur les erreurs de prévision, sous réserve de pouvoir filtrer la contribution des erreurs d’observation.

Plusieurs applications améliorant la prévision numérique du temps ont ainsi été développées. Ces activités de recherche et de développement bénéficient du soutien financier de l’INSU/LEFE (CNRS) ainsi que de l’ANR.

 Assimilation de données image

L’exploration de cette thématique est toute récente. La plupart des théories concernant l’assimilation de données considèrent l’observation comme un vecteur mathématique sans structure. L’information structurelle est traitée au travers de spécifications des covariances d’erreurs d’ébauche ou bien des covariances d’observations. En d’autres termes, les observations sont utilisées comme un agrégat de pixels dont les relations entre pixels voisins n’apparaissent qu’après une modélisation peu amène des structures d’erreurs spatiales.

Bien que cette approche ait fait ses preuves pour l’assimilation de données brutes dans l’algorithme du 4D-Var (ou l’information structurelle provient du modèle numérique lui-même), elle se révèle très gourmande en ressource informatique. Parallèlement, l’information structurelle provenant d’images radio-détectées (satellites et radars) n’est pas efficacement exploitée et ce, pour plusieurs raisons.

Ce projet a pour but d’imaginer de nouvelles méthodes qui permettront d’extraire les données les plus significatives à partir d’images (dans son acception la plus large et pouvant être une séquence pluri spectrale d’images) afin d’impartir des informations importantes dans les modèles numériques atmosphériques, procédé connu en Prévision Numérique du Temps, sous le terme de « bogusing » . La principale étape étant de définir synthétiquement les caractéristique de l’image en question, dénommée « objet » puis de sa transposition en pseudo-observation pertinente pour une assimilation par un système de prévision du temps en 3D-Var ou 4D-Var et couplée avec des observations plus conventionnelles.

Cette approche prend en considération les phénomènes météorologiques suivants :
- système nuageux convectif tel les orages
- cyclones aux latitudes moyennes
- brouillard

Les données image proviennent de satellites (IR multispectraux, radiances micro-onde et scatteromètre) et de radars (cartes 3D de vent doppler et réflectivité polarimétrique).