previous up next contents
Précédent : Modélisation de l'océan Remonter : Méthodes numériques performantes Suivant : Système avancé de

Assimilation de données en océanographie

Participants : Eric Blayo, Jacques Blum, Alain Le Breton, Sylvain Carme, Bruno Luong, Marie-Christine Roubaud, Pham Dinh-Tuan, Jacques Verron

Mots clefs : assimilation de données, océanographie, problème inverse

Le problème se pose pour l'océan dans les mêmes termes que pour l'atmosphère : on cherche à réaliser des simulations numériques en contraignant les solutions du modèle avec des observations afin de répondre à des objectifs de prévision en un sens déterministe ou probabiliste.

L'atmosphère et l'océan sont des fluides géophysiques différenciés dans leurs comportements dynamiques par des échelles caractéristiques différentes (les échelles spatiales sont plus fines dans l'océan tandis que les échelles temporelles y sont plus longues que dans l'atmosphère). En outre, les observations océaniques sont beaucoup moins denses (en temps et espace) que les observations atmosphériques. Les nouvelles techniques satellitaires et notamment les mesures altimétriques doivent permettre d'améliorer notablement la connaissance des circulations océaniques.

Techniques déterministes de contrôle optimal :

L'océan est simulé par un modèle quasi-géostrophique (QG) à trois couches. La prévision de l'évolution de l'océan peut se réaliser si l'on dispose d'une condition à un instant initial. Elle est estimée, par des techniques de contrôle, à partir des données de surface (mesures altimétriques). L'adjoint du modèle QG a été écrit et vérifié. L'optimisation de la condition initiale par rapport aux mesures est obtenue par l'application d'algorithmes d'optimisation de type quasi-Newton (développés à l'INRIA par Lemaréchal et Gilbert dans le cadre du projet PROMATH). Une des principales difficultés provient de la dimension de la variable de contrôle, après discrétisation, qui est de l'ordre de 120 000. Un effort tout particulier a porté sur le choix de la norme de l'espace de contrôle. Nous avons effectué plusieurs expériences numériques pour illustrer l'importance de la durée d'assimilation qui doit satisfaire aux deux contraintes suivantes : être plus courte que l'échelle de prédicibilité du modèle et assez longue pour permettre une bonne pénétration verticale des informations. Plusieurs techniques d'assimilation consistant à découper l'intervalle d'assimilation en sous-périodes et à traiter les données de façon séquentielle ou incrémentale ont été testées et comparées [33]. Une étude au second ordre de la fonctionnelle permet d'estimer l'erreur de l'identification et de quantifier la propagation des informations de surface en profondeur. Ce travail a fait l'objet de la thèse de B. Luong soutenue en juillet 1995 [4].

Techniques de filtrage stochastique:

Dans l'approche stochastique du problème par des méthodes de type filtrage, l'état initial cherché est supposé aléatoire et par suite la dynamique du système est elle-même un processus stochastique ; les données apparaissent comme les valeurs d'un processus lié au processus d'état contaminées par un bruit d'observation. Il s'agit alors de déterminer une bonne approximation de l'espérance conditionnelle de l'état du système au vu des données ou, ce qui revient au même, si on suppose qu'aucun bruit de dynamique n'est présent, de l'espérance conditionnelle de l'état initial. Le caractère non linéaire des équations de dynamique conduit à l'utilisation d'un filtre sous-optimal dit de Kalman-Bucy étendu (KBE) dans lequel on linéarise les équations au voisinage de l'estimation courante de l'état.

L'objet du travail amorcé dans le cadre de ce projet consiste à mener une étude approfondie des possibilités de l'approche par filtrage et à terme d'appliquer la méthode sur des données réelles. Le travail réalisé a consisté en une modification du filtre KBE se prêtant mieux au calcul. En effet, vue la très grande dimension de l'état du système, le filtre KBE usuel conduit a priori à des calculs très lourds voire prohibitifs. Une première version du filtre s'appuyant sur l'approximation de faible rang de la matrice de corrélation des erreurs a été implantée et expérimentée. Une version améliorée incorporant un facteur d'oubli a ensuite été réalisée [44]. Nous commençons actuellement à implanter le filtre à l'échelle réaliste de l'Atlantique Nord, en utilisant les mesures du satellite Topex/Poseidon (travail de thèse de S. Carme). Il convient de noter que les participants à cette action ont développé, indépendamment de celle-ci, des travaux dans le domaine du filtrage [15], [12].


previous up next contents
Précédent : Modélisation de l'océan Remonter : Méthodes numériques performantes Suivant : Système avancé de