Précédent : Modélisation des circulations océaniques
Remonter : Méthodes numériques performantes pour
l'environnement Suivant : Couplage d'un modèle
météorologique et
Le problème se pose pour l'océan dans les mêmes termes que pour l'atmosphère : on cherche à réaliser des simulations numériques en contraignant les solutions du modèle avec des observations afin de répondre à des objectifs de prévision en un sens déterministe ou probabiliste.
L'atmosphère et l'océan sont des fluides géophysiques
différenciés dans leurs comportements dynamiques par des échelles
caractéristiques différentes (les échelles spatiales sont plus
fines dans l'océan tandis que les échelles temporelles y sont
plus longues que dans l'atmosphère). En outre, les observations
océaniques sont beaucoup moins denses (en temps et espace) que
les observations atmosphériques. Les nouvelles techniques
satellitaires et notamment les mesures altimétriques doivent
permettre d'améliorer notablement la connaissance des
circulations océaniques.
Techniques déterministes de contrôle optimal :
Dans ce travail, l'océan est simulé par un modèle
quasi-géostrophique à trois couches. La prévision de l'évolution
de l'océan peut se réaliser si l'on dispose d'une condition à un
instant initial. Elle est estimée, par des techniques de
contrôle, à partir des données de surface (mesures
altimétriques). L'adjoint du modèle QG a été écrit et vérifié.
L'optimisation de la condition initiale par rapport aux mesures
est obtenue par l'application d'algorithmes d'optimisation de
type quasi-Newton (développés à l'Inria par Lemaréchal et Gilbert
dans le cadre du projet Promath). Une des principales difficultés
provient de la dimension de la variable de contrôle, après
discrétisation, qui est de l'ordre de 120 000. Un effort tout
particulier a porté sur le choix de la norme de l'espace de
contrôle. Nous avons effectué plusieurs expériences numériques
pour illustrer l'importance de la durée d'assimilation qui doit
satisfaire les deux contraintes suivantes : être plus courte que
l'échelle de prédicibilité du modèle et assez longue pour
permettre une bonne pénétration verticale des informations.
Plusieurs techniques d'assimilation consistant à découper
l'intervalle d'assimilation en sous-périodes et à traiter les
données de façon séquentielle ou incrémentale ont été testées et
comparées. Une étude au second ordre de la fonctionnelle permet
d'estimer l'erreur de l'identification et de quantifier la
propagation des informations de surface en profondeur. Ce travail
a fait l'objet de la thèse de B. Luong soutenue en juillet 1995
et de plusieurs articles soumis à des journaux.
Techniques de filtrage stochastique :
Une autre approche du problème consiste à utiliser les méthodes de type filtrage. Comme indiqué au §3.1.8, un nouveau filtre (SEEK) a été développé dans le but de réduire les coûts de calcul très importants associés aux filtres classiques de type Kalman.
Dans ce cadre, S. Carme prépare une thèse de doctorat sur le
développement et l'utilisation de méthodes de filtrage de rang
réduit pour l'assimilation de données dans les modèles
océaniques. L'objectif à court terme est de réaliser un logiciel
opérationnel d'assimilation de données altimétriques
satellitaires en Atlantique Nord, dans un modèle QG et utilisant
le filtre mentionné plus haut. Cette réalisation est plus
difficile que celle de Verron, Gourdeau et Pham [41] mentionnée au §3.1.8, car les modèles océaniques aux
latitudes moyennes (par exemple en Atlantique Nord) présentent
des non linéarités plus fortes. De plus on se sert ici de données
réelles provenant du satellite. À plus long terme, nous
envisageons d'implanter notre filtre dans des modèles aux
équations primitives, à la physique plus complète.