projet : SIGMA2

previous up next contents
Précédent : Résultats nouveaux Remonter : Résultats nouveaux Suivant : Surveillance et diagnostic


Sous-sections


   
Identification et systèmes adaptatifs

Voir modules 3.1 et 5.

Mots clés : signal, identification, optimisation, non-paramétrique, algorithme, estimation, adaptatif, antenne .

Résumé :

Dans le domaine de l'estimation et de l'identification, les résultats nouveaux portent sur les points suivants. De nouveaux algorithmes ont été étudiés pour l'estimation récursive de processus ARMA, la poursuite, et la régression linéaire robuste. Les méthodes d'estimation parcimonieuse ont été appliquées au traitement du signal radar, et au problème de détection et d'estimation simultanées dans un bruit blanc ou coloré.

Estimation adaptative



Participants : Bernard Delyon, Jean-Luc Le Calvez, Serge Le Potier.

Les algorithmes récursifs sont étudiés sous leur forme générale décrite dans le module 3.1 :

$\displaystyle \theta_{n}^{}$ = $\displaystyle \theta_{n-1}^{}$ + $\displaystyle \gamma_{n}^{}$H($\displaystyle \theta_{n-1}^{}$, Yn)
dans un cadre stochastique. $ \theta_{n}^{}$ est ici l'estimé du vrai paramètre $ \theta^{*}_{}$ (inconnu) à l'itération n, Yn est l'observation, de caractère aléatoire stationnaire, et $ \gamma_{n}^{}$ est un gain décroissant ou constant. $ \theta^{*}_{}$ est la solution de l'équation E[H($ \theta^{*}_{}$, Yn)] = 0.

Les résultats de convergence obtenus récemment dans le projet [Del96b] pour ce type d'algorithmes à gain décroissant ont permis d'étudier de nouveaux algorithmes d'estimation récursive de processus ARMA et de montrer le bon comportement d'algorithmes jusqu'ici inexplorés. La convergence d'algorithmes EM récursifs a été également étudiée [18].

Deux études ont également été faites dans un cadre d'estimation avec poursuite. Dans la première, il s'agit d'estimer l'état d'un système variant lentement dans le temps, avec observations bruitées. On montre que l'on peut atteindre des performances comparables à celles du filtre de Kalman sans connaître les caractéristiques du système (i.e. les amplitudes des bruits) [[40]]. Cette partie fait l'objet du travail de thèse de J.L. Le Calvez. Dans la seconde [14], on prouve la stabilité des algorithmes LMS à gain constant, sans hypothèse de m-dépendance du signal d'entrée. La méthode utilisée passe par la démonstration de résultats généraux sur les produits de matrices aléatoires markoviennes.

Une étude est en cours pour la conception d'algorithmes d'optimisation distribués. L'application concernée est l'allocation dynamique de ressources radio pour les réseaux de téléphones mobiles. Il s'agit d'un problème d'optimisation NP complet pour lequel nous utilisons une approche stochastique. Les caractéristiques du réseau (absence de synchronisation, étendue spatiale) imposent la recherche d'algorithmes décentralisés, c'est-à-dire, éclatés en sous-algorithmes agissant chacun sur un faible sous-ensemble des paramètres à optimiser. Cette partie constitue le travail de thèse de S. Le Potier.

Estimation spectrale et traitement du signal radar



Participants : Jean-Jacques Fuchs, Nicolas Moal, Benjamin Torno.

Les approches permettant de réaliser simultanément la détection et l'estimation continuent à être développées. On s'intéresse au cas fréquent où un signal est la somme d'un petit nombre de contributions appartenant à une ou plusieurs familles paramétrées. Ces méthodes permettent de retrouver les composantes sans estimation préalable de leur nombre. La parcimonie recherchée est obtenue par le choix d'une norme favorisant les solutions ayant peu de composantes non-nulles. La norme $ \ell_{1}^{}$ en est un exemple pour lequel le problème reste convexe et l'algorithmique est bien maîtrisée.

Dans le cas le plus simple, on observe un vecteur $ \widehat{b}$ satisfaisant :

$\displaystyle \widehat{b}$ = $\displaystyle \sum_{p=1}^{P}$$\displaystyle \alpha_{p}^{}$a($\displaystyle \tau_{p}^{}$) + e
e représente le bruit vectoriel et a($ \tau$) la famille de vecteurs paramétrés. Il s'agit d'estimer P et les paramètres {$ \alpha_{p}^{}$,$ \tau_{p}^{}$}. On transforme ce problème pour le mettre, par exemple, sous la forme d'un programme quadratique :
$\displaystyle \min_{X}^{}$ $\displaystyle \Vert$$\displaystyle \widehat{b}$ - AX$\displaystyle \Vert_{2}^{2}$ + $\displaystyle \lambda$ $\displaystyle \Vert$X$\displaystyle \Vert_{1}^{}$
A est une matrice rectangulaire horizontale dont les colonnes sont des vecteurs a($ \tau_{k}^{}$) avec $ \tau_{k}^{}$ = kh + $ \tau_{0}^{}$ par exemple. On montre que sous certaines conditions, l'unique solution du programme quadratique permet de résoudre le problème de détection et d'estimation.

Les études en cours concernent l'application de cette technique au traitement du signal radar [[30]] et au problème traditionnel de la détection et de l'estimation de sinusoïdes dans du bruit blanc ou coloré [[46]]. Cette dernière partie constitue le travail de thèse de Nicolas Moal.

Cette approche va maintenant être appliquée à l'estimation et à la détection multi-utilisateurs pour les systèmes dits CDMA. Dans la future génération de téléphones mobiles en Europe, une technique d'accès multiple du type CDMA a été retenue. Les signaux de plusieurs utilisateurs sont transmis simultanément en utilisant un étalement spectral par code (CDMA). Le code utilisé est court, périodique, de la longueur d'un symbole. Cette technique à petit facteur d'étalement nécessite le développement de méthodes complexes de réception : la simple corrélation du signal reçu sur la durée symbole avec la signature ne suffit plus pour décoder. La présence de trajets multiples dans le canal de transmission fait que les contributions des différents utilisateurs arrivent sous forme filtrée. Pour détecter les symboles émis par les utilisateurs, il faut alors estimer les filtres et procéder par déconvolution. Cette dernière partie fera l'objet du travail de thèse de Benjamin Torno.

Régression linéaire robuste



Participant : Jean-Jacques Fuchs.

L'estimation robuste permet de détecter la présence de mesures aberrantes ou de neutraliser leurs effets. Ce sujet a connu un grand essor il y a plus de vingt ans grâce aux travaux de Huber notamment et est toujours d'actualité, par exemple, en traitement d'images. Dans le cas le plus simple de la régression linéaire : Y = AX + b où il s'agit d'obtenir une estimée de X à partir des observations Y, on sait que la méthode des moindres carrés est extrêmement sensible à la présence de mesures aberrantes. Nous proposons d'introduire dans le modèle précédent de nouvelles variables U, une par observation :

Y = AX + U + b .
De sous-déterminé le système est devenu sur-déterminé et il faut donc introduire un terme de régularisation dans le critère pour obtenir une solution parcimonieuse en U. Il est facile de vérifier que la solution du programme quadratique :
$\displaystyle \min_{X,U}^{}$ $ {\frac{1}{2}}$ $\displaystyle \Vert$Y - AX - U$\displaystyle \Vert_{2}^{2}$ + h $\displaystyle \Vert$U$\displaystyle \Vert_{1}^{}$
conduit à une estimée de X identique à celle donnée par le M-estimateur de Huber. Mais l'intérêt de cette nouvelle approche réside plutôt dans le fait qu'elle ouvre la voie à la résolution de problèmes impossible à traiter par les méthodes robustes usuelles. Les études futures vont explorer ces extensions, notamment le cas de bruit de mesure b dépendant et le cas où le bruit et les mesures aberrantes affectent également les composantes de A.

Systèmes d'inférence floue



Participants : Alain Gauthreau, Pierre-Yves Glorennec.

Ce thème de recherche peut se décomposer en trois axes :

Le formalisme de la logique floue permet de manipuler des connaissances exprimées dans un langage proche du langage naturel. L'établissement des règles floues peut se faire soit directement, par interrogation des experts du domaine, soit par le traitement de données numériques.

Un système d'inférence floue peut être transformé en un modèle non-paramétrique et non-linéaire, mais, à la différence des modèles de type boîte-noire, tous les paramètres ont une signification physique. Il est donc très facile d'initialiser et d'interpréter le modèle. La contrepartie de l'interprétabilité est double :

Quand l'espace d'entrée devient trop grand et dans la mesure où il n'est pas entièrement couvert par les données d'apprentissage, il devient nécessaire d'extraire des prototypes par des algorithmes de classification floue et de raisonner sur le degré d'appartenance à ces prototypes.

L'apprentissage par renforcement est une méthode de programmation dynamique incrémentale, utilisée pour résoudre des problèmes de décision markoviens, en l'absence de modèle et donc sans connaître les probabilités de transition d'un état à un autre. Dans notre approche, la fonction valeur de la programmation dynamique est approximée par des systèmes d'inférence floue. Une aide de l'Anvar a été obtenue pour l'industrialisation par la société Sodalec du régulateur d'ambiance mis au point pendant la thèse de Lionel Jouffe, soutenue en juin 1997. Ces méthodes sont utilisées en particulier pour la régulation de planchers chauffants, en anticipant sur les perturbations climatiques [[32],[33]], et plus généralement pour la commande floue de bâtiments solaires, dans le cadre d'un projet Joule-Thermie, voir module 7.7.

Statistique des systèmes partiellement observés



Participants : François Le Gland, Nadia Oudjane.

Les méthodes particulaires stochastiques permettent d'approcher la distribution de probabilité conditionnelle de l'état sachant les observations, au moyen de la distribution empirique d'un système de particules, qui se déplacent selon des réalisations indépendantes de l'équation d'état, et qui sont redistribuées ou se multiplient, en fonction de leur cohérence (quantifiée par la fonction de vraisemblance) avec les observations. Un projet de recherche a démarré cette année sur le sujet, dans le cadre du programme «Modélisation et Simulation Numérique» du CNRS. Ces méthodes ont été comparées avec d'autres méthodes numériques, comme les méthodes de discrétisation par différences finies avec raffinement local adaptatif du maillage. Des modifications algorithmiques du type régularisation par noyaux ont été proposées, pour remédier aux problèmes de dégénérescence du nombre ou de la pondération des particules, problèmes qui peuvent apparaître respectivement dans le cas où le bruit d'état est faible, voire nul, et dans le cas où le bruit d'observation est faible [[41]]. Cette partie fait l'objet du travail de thèse de Nadia Oudjane.

En collaboration avec Vikram Krishnamurthy (université de Melbourne), nous avons étudié les problèmes d'identification et d'estimation de l'état pour un modèle linéaire uni-dimensionnel, à partir de l'observation exacte (non-bruitée) du signe de l'état, et plus généralement, pour un modèle non-linéaire multi-dimensionnel, à partir de l'observation du franchissement de certaines frontières de séparation dans l'espace d'état. Dans le cas général, des équations aux dérivées partielles ont été proposées pour le calcul de statistiques suffisantes permettant la mise en oeuvre de l'algorithme EM. Dans le cas linéaire mono-dimensionnel, des solutions explicites ont été obtenues pour ces équations [[39]].



previous up next contents
Précédent : Résultats nouveaux Remonter : Résultats nouveaux Suivant : Surveillance et diagnostic