Précédent : Résultats nouveaux Remonter :
Résultats nouveaux
Suivant : Surveillance et
diagnostic
Voir modules 3.1 et 5.
Mots clés : signal, identification, optimisation, non-paramétrique, algorithme, estimation, adaptatif, antenne .
Participants : Bernard Delyon, Jean-Luc Le Calvez,
Serge Le Potier.
Les algorithmes récursifs sont étudiés sous leur forme générale décrite dans le module 3.1 :
Les résultats de convergence obtenus récemment dans le projet [Del96b] pour ce type d'algorithmes à gain décroissant ont permis d'étudier de nouveaux algorithmes d'estimation récursive de processus ARMA et de montrer le bon comportement d'algorithmes jusqu'ici inexplorés. La convergence d'algorithmes EM récursifs a été également étudiée [18].
Deux études ont également été faites dans un cadre d'estimation avec poursuite. Dans la première, il s'agit d'estimer l'état d'un système variant lentement dans le temps, avec observations bruitées. On montre que l'on peut atteindre des performances comparables à celles du filtre de Kalman sans connaître les caractéristiques du système (i.e. les amplitudes des bruits) [[40]]. Cette partie fait l'objet du travail de thèse de J.L. Le Calvez. Dans la seconde [14], on prouve la stabilité des algorithmes LMS à gain constant, sans hypothèse de m-dépendance du signal d'entrée. La méthode utilisée passe par la démonstration de résultats généraux sur les produits de matrices aléatoires markoviennes.
Une étude est en cours pour la conception d'algorithmes d'optimisation distribués. L'application concernée est l'allocation dynamique de ressources radio pour les réseaux de téléphones mobiles. Il s'agit d'un problème d'optimisation NP complet pour lequel nous utilisons une approche stochastique. Les caractéristiques du réseau (absence de synchronisation, étendue spatiale) imposent la recherche d'algorithmes décentralisés, c'est-à-dire, éclatés en sous-algorithmes agissant chacun sur un faible sous-ensemble des paramètres à optimiser. Cette partie constitue le travail de thèse de S. Le Potier.
Participants : Jean-Jacques Fuchs, Nicolas Moal, Benjamin
Torno.
Les approches permettant de réaliser simultanément la
détection et l'estimation continuent à être développées. On
s'intéresse au cas fréquent où un signal est la somme d'un petit
nombre de contributions appartenant à une ou plusieurs familles
paramétrées. Ces méthodes permettent de retrouver les composantes
sans estimation préalable de leur nombre. La parcimonie
recherchée est obtenue par le choix d'une norme favorisant les
solutions ayant peu de composantes non-nulles. La norme
en est un exemple pour lequel
le problème reste convexe et l'algorithmique est bien
maîtrisée.
Dans le cas le plus simple, on observe un vecteur
satisfaisant :
Les études en cours concernent l'application de cette technique au traitement du signal radar [[30]] et au problème traditionnel de la détection et de l'estimation de sinusoïdes dans du bruit blanc ou coloré [[46]]. Cette dernière partie constitue le travail de thèse de Nicolas Moal.
Cette approche va maintenant être appliquée à l'estimation et à la détection multi-utilisateurs pour les systèmes dits CDMA. Dans la future génération de téléphones mobiles en Europe, une technique d'accès multiple du type CDMA a été retenue. Les signaux de plusieurs utilisateurs sont transmis simultanément en utilisant un étalement spectral par code (CDMA). Le code utilisé est court, périodique, de la longueur d'un symbole. Cette technique à petit facteur d'étalement nécessite le développement de méthodes complexes de réception : la simple corrélation du signal reçu sur la durée symbole avec la signature ne suffit plus pour décoder. La présence de trajets multiples dans le canal de transmission fait que les contributions des différents utilisateurs arrivent sous forme filtrée. Pour détecter les symboles émis par les utilisateurs, il faut alors estimer les filtres et procéder par déconvolution. Cette dernière partie fera l'objet du travail de thèse de Benjamin Torno.
Participant : Jean-Jacques Fuchs.
L'estimation robuste permet de détecter la présence de mesures aberrantes ou de neutraliser leurs effets. Ce sujet a connu un grand essor il y a plus de vingt ans grâce aux travaux de Huber notamment et est toujours d'actualité, par exemple, en traitement d'images. Dans le cas le plus simple de la régression linéaire : Y = AX + b où il s'agit d'obtenir une estimée de X à partir des observations Y, on sait que la méthode des moindres carrés est extrêmement sensible à la présence de mesures aberrantes. Nous proposons d'introduire dans le modèle précédent de nouvelles variables U, une par observation :
Participants : Alain Gauthreau, Pierre-Yves Glorennec.
Ce thème de recherche peut se décomposer en trois axes :
Le formalisme de la logique floue permet de manipuler des connaissances exprimées dans un langage proche du langage naturel. L'établissement des règles floues peut se faire soit directement, par interrogation des experts du domaine, soit par le traitement de données numériques.
Un système d'inférence floue peut être transformé en un modèle non-paramétrique et non-linéaire, mais, à la différence des modèles de type boîte-noire, tous les paramètres ont une signification physique. Il est donc très facile d'initialiser et d'interpréter le modèle. La contrepartie de l'interprétabilité est double :
L'apprentissage par renforcement est une méthode de programmation dynamique incrémentale, utilisée pour résoudre des problèmes de décision markoviens, en l'absence de modèle et donc sans connaître les probabilités de transition d'un état à un autre. Dans notre approche, la fonction valeur de la programmation dynamique est approximée par des systèmes d'inférence floue. Une aide de l'Anvar a été obtenue pour l'industrialisation par la société Sodalec du régulateur d'ambiance mis au point pendant la thèse de Lionel Jouffe, soutenue en juin 1997. Ces méthodes sont utilisées en particulier pour la régulation de planchers chauffants, en anticipant sur les perturbations climatiques [[32],[33]], et plus généralement pour la commande floue de bâtiments solaires, dans le cadre d'un projet Joule-Thermie, voir module 7.7.
Participants : François Le Gland, Nadia Oudjane.
Les méthodes particulaires stochastiques permettent d'approcher la distribution de probabilité conditionnelle de l'état sachant les observations, au moyen de la distribution empirique d'un système de particules, qui se déplacent selon des réalisations indépendantes de l'équation d'état, et qui sont redistribuées ou se multiplient, en fonction de leur cohérence (quantifiée par la fonction de vraisemblance) avec les observations. Un projet de recherche a démarré cette année sur le sujet, dans le cadre du programme «Modélisation et Simulation Numérique» du CNRS. Ces méthodes ont été comparées avec d'autres méthodes numériques, comme les méthodes de discrétisation par différences finies avec raffinement local adaptatif du maillage. Des modifications algorithmiques du type régularisation par noyaux ont été proposées, pour remédier aux problèmes de dégénérescence du nombre ou de la pondération des particules, problèmes qui peuvent apparaître respectivement dans le cas où le bruit d'état est faible, voire nul, et dans le cas où le bruit d'observation est faible [[41]]. Cette partie fait l'objet du travail de thèse de Nadia Oudjane.
En collaboration avec Vikram Krishnamurthy (université de Melbourne), nous avons étudié les problèmes d'identification et d'estimation de l'état pour un modèle linéaire uni-dimensionnel, à partir de l'observation exacte (non-bruitée) du signe de l'état, et plus généralement, pour un modèle non-linéaire multi-dimensionnel, à partir de l'observation du franchissement de certaines frontières de séparation dans l'espace d'état. Dans le cas général, des équations aux dérivées partielles ont été proposées pour le calcul de statistiques suffisantes permettant la mise en oeuvre de l'algorithme EM. Dans le cas linéaire mono-dimensionnel, des solutions explicites ont été obtenues pour ces équations [[39]].