Participants : Eric Blayo, Jacques Blum, Alain Le Breton, Sylvain Carme, Bruno Luong, Marie-Christine Roubaud, Pham Dinh-Tuan, Jacques Verron
Mots clefs : assimilation de données, océanographie, problème inverse
Le problème se pose pour l'océan dans les mêmes termes que pour l'atmosphère : on cherche à réaliser des simulations numériques en contraignant les solutions du modèle avec des observations afin de répondre à des objectifs de prévision en un sens déterministe ou probabiliste.
L'atmosphère et l'océan sont des fluides géophysiques
différenciés dans leurs comportements dynamiques par des échelles
caractéristiques différentes (les échelles spatiales sont plus
fines dans l'océan tandis que les échelles temporelles y sont
plus longues que dans l'atmosphère). En outre, les observations
océaniques sont beaucoup moins denses (en temps et espace) que
les observations atmosphériques. Les nouvelles techniques
satellitaires et notamment les mesures altimétriques doivent
permettre d'améliorer notablement la connaissance des
circulations océaniques.
Techniques déterministes de contrôle optimal :
L'océan est simulé par un modèle quasi-géostrophique (QG) à
trois couches. La prévision de l'évolution de l'océan peut se
réaliser si l'on dispose d'une condition à un instant initial.
Elle est estimée, par des techniques de contrôle, à partir des
données de surface (mesures altimétriques). L'adjoint du modèle
QG a été écrit et vérifié. L'optimisation de la condition
initiale par rapport aux mesures est obtenue par l'application
d'algorithmes d'optimisation de type quasi-Newton (développés à
l'INRIA par Lemaréchal et Gilbert dans le cadre du projet
PROMATH). Une des principales difficultés provient de la
dimension de la variable de contrôle, après discrétisation, qui
est de l'ordre de 120 000. Un effort tout particulier a porté sur
le choix de la norme de l'espace de contrôle. Nous avons effectué
plusieurs expériences numériques pour illustrer l'importance de
la durée d'assimilation qui doit satisfaire aux deux contraintes
suivantes : être plus courte que l'échelle de prédicibilité du
modèle et assez longue pour permettre une bonne pénétration
verticale des informations. Plusieurs techniques d'assimilation
consistant à découper l'intervalle d'assimilation en
sous-périodes et à traiter les données de façon séquentielle ou
incrémentale ont été testées et comparées [33]. Une étude au second ordre de la
fonctionnelle permet d'estimer l'erreur de l'identification et de
quantifier la propagation des informations de surface en
profondeur. Ce travail a fait l'objet de la thèse de B. Luong
soutenue en juillet 1995 [4].
Techniques de filtrage stochastique:
Dans l'approche stochastique du problème par des méthodes de type filtrage, l'état initial cherché est supposé aléatoire et par suite la dynamique du système est elle-même un processus stochastique ; les données apparaissent comme les valeurs d'un processus lié au processus d'état contaminées par un bruit d'observation. Il s'agit alors de déterminer une bonne approximation de l'espérance conditionnelle de l'état du système au vu des données ou, ce qui revient au même, si on suppose qu'aucun bruit de dynamique n'est présent, de l'espérance conditionnelle de l'état initial. Le caractère non linéaire des équations de dynamique conduit à l'utilisation d'un filtre sous-optimal dit de Kalman-Bucy étendu (KBE) dans lequel on linéarise les équations au voisinage de l'estimation courante de l'état.
L'objet du travail amorcé dans le cadre de ce projet consiste à mener une étude approfondie des possibilités de l'approche par filtrage et à terme d'appliquer la méthode sur des données réelles. Le travail réalisé a consisté en une modification du filtre KBE se prêtant mieux au calcul. En effet, vue la très grande dimension de l'état du système, le filtre KBE usuel conduit a priori à des calculs très lourds voire prohibitifs. Une première version du filtre s'appuyant sur l'approximation de faible rang de la matrice de corrélation des erreurs a été implantée et expérimentée. Une version améliorée incorporant un facteur d'oubli a ensuite été réalisée [44]. Nous commençons actuellement à implanter le filtre à l'échelle réaliste de l'Atlantique Nord, en utilisant les mesures du satellite Topex/Poseidon (travail de thèse de S. Carme). Il convient de noter que les participants à cette action ont développé, indépendamment de celle-ci, des travaux dans le domaine du filtrage [15], [12].