![]()
Précédent : Résultats nouveaux Remonter :
Résultats nouveaux
Suivant : Apprentissage automatique et
structuration de
Participants : Marie-Odile Cordier, Irène Grosclaude,
Israël-César Lerman, Véronique Masson, Emmanuel Mayer, René
Quiniou, Laurence Rozé
Mots clés : modélisation, supervision, diagnostic, acquisition de scénarios, apprentissage par PLI, décision en univers incertain .
Les activités du projet dans ce thème portent sur trois points: l'acquisition de scénarios à partir de modèles, la construction d'automates diagnostiqueurs et l'interaction diagnostic/décision dans un univers incertain. Ces travaux de recherche s'appuient principalement sur deux applications, la surveillance de réseaux de télécommunications dans le cadre d'un contrat CTI avec le Cnet/France-Télécom et la supervision de réseaux de distribution d'électricité d'EDF dans le cadre de deux contrats avec EDF (voir relations industrielles). Une troisième application est en cours d'étude avec l'ENSAR pour la surveillance de terrains agricoles à partir d'images satellitaires.
Les scénarios peuvent être vus comme le résultat d'une
discrimination sur un ensemble de séquences de messages,
étiquetées par la panne d'origine. Chaque séquence traduit les
conséquences, visibles au niveau du centre de supervision, liées
à une panne. L'idée est d'exhiber les caractères communs aux
séquences de messages d'une même panne, et discriminants
vis-à-vis des séquences de messages des autres pannes. La méthode
de discrimination mise en
uvre se fonde sur
les techniques de programmation logique inductive avec
contraintes. Ces travaux sont décrits dans [[38],[39]].
L'acquisition automatique de scénarios à partir de séquences étiquetées de messages constitue une activité de recherche bien spécifique dans le domaine de l'apprentissage. En effet, deux caractéristiques essentielles apparaissent dans les séquences de messages : leur datation et la présence multiple d'un même message au sein d'une séquence.
La présence multiple nous a amené à définir un nouveau formalisme et à étendre des algorithmes développés dans le cadre de la Programmation Logique Inductive (PLI). Par ailleurs, la pertinence des contraintes liant les messages au sein d'une séquence nous a incité à introduire des termes contraints dans notre espace de recherche. La réalisation pratique de ces travaux s'appuie sur un langage de programmation classique doté d'un gestionnaire de contraintes.
Afin de valider cette approche, il est nécessaire de disposer
d'une base de séquences de messages, représentative des divers
comportements du système. Pour cela, un modèle de fonctionnement
du réseau TRANSPAC a été réalisé sous le logiciel
ASA+
, logiciel dédié à la
modélisation et à la simulation d'automates temporels.
Nous étudions une utilisation déductive des graphes causaux temporels qui, au contraire de l'approche abductive, descend intuitivement les chaînes causales pour recueillir tous les observables impliqués par la supposition de l'existence d'une (ou plusieurs) panne(s). Cette méthode permet la compilation du graphe causal en un ensemble de scénarios.
Nous nous sommes intéressés au problème de l'interaction de pannes: les conséquences communes de deux ou plusieurs pannes peuvent s'avérer différentes de la simple juxtaposition des effets prédits par l'occurrence unique des pannes. On peut ainsi observer des masquages de pannes: les effets sont opposés et se compensent, ou les effets sont identiques mais leur durée est plus courte que prévu. Notre étude a principalement porté sur l'interaction temporelle, c'est-à-dire sur les cas où la durée des symptômes observables provoqués par plusieurs pannes ne correspond pas à la simple juxtaposition des durées provoquées par chaque panne.
Une première mise en oeuvre a été faite, basée sur la coopération entre un mécanisme déductif et un gestionnaire de contraintes temporelles, LaTeR [BCT95] mis à notre disposition par l'Université de Turin. Cette approche a été abandonnée car la version de LaTeR dont nous disposons s'est avérée peu adaptée au traitement de problèmes de grande taille.
Une seconde mise en oeuvre est en cours, basée sur des opérations de composition de scénarios correspondant aux sous-parties du graphe causal ne contenant pas de source d'interaction temporelle. Cette méthode permet un gain significatif d'efficacité dans le traitement des informations temporelles. Nous la testons actuellement sur un graphe causal temporel représentant les dysfonctionnement possibles du circuit de refroidissement d'une centrale nucléaire. La comparaison des scénarios obtenus avec les scénarios proposés par les experts EDF permettra d'une part de valider notre méthode et d'autre part de détecter d'éventuelles incohérences dans le modèle de départ.
La méthode explorée s'inspire des travaux de [SSL+95,SSL+94]. Partant d'un modèle de fonctionnement d'un système décrit en terme d'automates, elle consiste à construire directement un automate particulier appelé ``diagnostiqueur". Les transitions de cet automate correspondent aux événements observables et ses états décrivent les pannes du système. Diagnostiquer le système consiste à parcourir le diagnostiqueur au fur et à mesure de l'arrivée d'événements observables. Dans notre cas, le système est modélisé sous forme d'automates communicants temporels. L'approche diagnostiqueur développée par Sampath et al. s'appuie sur des hypothèses trop fortes dans le cadre de notre application : l'utilisation d'un modèle global du système, ce qui, en raison du nombre de composants à prendre en compte, ne peut être le cas pour l'application Transpac et celle d'un modèle n'incluant pas de contrainte temporelle. L'abandon de ces hypothèses nous a conduit à adapter la construction du diagnostiqueur [[43]]. En particulier, nous avons mis en place des algorithmes permettant de construire et d'utiliser un diagnostiqueur générique. De tels algorithmes s'appuient sur un modèle générique du réseau qui profite de la structure fortement hiérarchique de celui-ci. Nous étudions actuellement l'utilisation de diagnostiqueurs répartis.
Dans le cadre d'une collaboration avec l'ENSAR, nous avons abordé le problème de la surveillance de zones agricoles à partir de l'analyse d'images satellitaires et aériennes dans l'objectif de suivre la qualité de l'eau. Nous nous intéressons plus précisément à l'étude de l'occupation des parcelles du bassin versant Cheze-Canut, d'une surface de 8000 hectares. L'objectif du projet est de fournir trois cartes par an, résumant les différentes occupations du sol (prairie, blé, sol nu, etc.) des parcelles de cette région.
La classification des images par des méthodes traditionnelles (maximum de vraisemblance, nuées dynamiques, analyse discriminante, etc.) donne des résultats globalement corrects mais qui présentent des anomalies et des incohérences sur la carte résultat. Les anomalies correspondent à la dispersion de pixels isolés d'une certaine culture dans une parcelle connue comme appartenant à une autre culture. Les incohérences, détectables si l'on compare plusieurs cartes résultats à des dates différentes, ont pour origine l'ambiguïté possible entre deux ou plusieurs cultures ayant des signatures spectrales proches.
Partant de ce constat, notre objectif est de proposer une méthode d'interprétation d'un territoire agricole par classification ``intelligente'' sur une séquence d'images. Nous orientons notre démarche selon deux axes : la perspective d'une classification orientée non plus sur le pixel mais sur la parcelle et l'identification d'occupations du sol plus ``sûres'' par l'appui de connaissances sémantiques, en l'occurrence des modèles agronomiques formalisant l'évolution des parcelles.
L'étape de classification a pour but de fournir pour chaque parcelle l'ensemble des occupations du sol (des classes) potentielles. Elle conserve à ce niveau les ambiguïtés qui tenteront d'être levées plus tard par le raisonnement. Une étude est menée pour appliquer la méthode de classification par Analyse de la Vraisemblance du Lien (cf. 3.2.2, programme CHAVL). Cette approche est nouvelle puisque la plupart des méthodes de classification des images traitent les pixels et non les parcelles. Actuellement, la classification est réalisée à l'aide du logiciel ARKEMIE qui propose une méthode assez simple de classification des parcelles.
L'identification de l'occupation du sol s'appuie sur un modèle d'évolution de la parcelle agricole. Celle-ci peut être vue comme un système dynamique dont l'état évolue avec le temps et représentée à l'aide d'un automate temporisé. Le résultat de la classification est alors considéré comme une observation que l'on cherche à expliquer à l'aide des précédentes observations et du modèle d'évolution de la parcelle. Le raisonnement mis en oeuvre s'appuie sur la notion de scénario temporel utilisé par des mécanismes de prévision et de postdiction. Cette approche permet de réduire les classes possibles pour chaque parcelle dès qu'une nouvelle observation est apportée et donc de fournir une occupation du sol plus précise [[32]].