Sous-sections
Participants : Gilles Celeux,
Stéphane Chrétien
, Florence Forbes,
Abdallah Mkhadri
.
Souvent, l'algorithme EM converge
lentement. Une des possibles raisons d'un tel comportement
est le traitement simultané des paramètres à optimiser. Nous
avons proposé [10] une version de l'algorithme
EM pour l'estimation de mélanges de lois qui
travaille composant par composant. Nous avons prouvé la
convergence de cet algorithme en nous fondant sur son
interprétation comme un algorithme proximal. Nous avons
montré par des simulations que notre algorithme avait dans
les situations de convergence lente un comportement meilleur
que l'algorithme EM mais aussi que d'autres
algorithmes tel que SAGE [FH94] par exemple, qui visent également à
accélérer l'algorithme EM.
Participants : Christophe
Biernacki
, Gilles Celeux,
Gérard Govaert
.
La fonction de vraisemblance pour un mélange
multidimensionnel comporte de nombreux maxima locaux.
L'obtention du maximum global est d'autant plus importante
que ce maximum entre dans la composition de nombreux critères
de choix de modèles, mais est souvent un problème difficile.
Forts des nombreux algorithmes présents dans
XEMGAUSS (EM, EM
stochastique (SEM) EM
classification (CEM)) et de la facilité de les
combiner, nous avons exploré la capacité de stratégies
simples pour accéder à cet optimum global. Nous avons mené
des expérimentations sur des données simulées et réelles en
imposant un temps d'exécution fixé à l'avance. Bien qu'il
soit difficile d'en tirer des conclusions définitives, il
ressort de ces expériences, que l'utilisation d'un seul essai
de l'algorithme EM est franchement mauvais. Il
faut lui préférer l'emploi d'une combinaison répétée de
CEM suivi de EM, ou mieux, une
combinaison répétée de plusieurs exécutions courtes de
l'algorithme EM suivi d'une exécution complète
de ce même algorithme.
Approximation du champ moyen et segmentation
d'images
Participants : Gilles Celeux,
Florence Forbes, Nathalie Peyrard.
L'approximation du champ moyen est à l'origine une méthode
d'approximation de la moyenne d'un champ de Markov. Elle est
issue de la mécanique statistique où elle s'avère utile pour
l'étude des phénomènes de transition de phases[Cha87]. Notre objectif est d'étudier son
utilisation, dans le cadre de la segmentation markovienne
d'images, comme outil algorithmique pour éviter les calculs
coûteux inhérents aux modèles de champs de Markov. L'idée est
d'approximer les interactions entre pixels en négligeant les
fluctuations : pour chacun des pixels, les pixels voisins
sont supposés fixés à leur valeur moyenne. Cette méthode peut
être vue comme une manière d'approximer un modèle markovien
avec des interactions complexes par un système de variables
indépendantes, beaucoup plus simple.
Dans le cadre de la segmentation d'images, nous nous
sommes plus particulièrement intéressés à l'utilisation d'un
tel outil pour l'algorithme EM. Pour des
modèles markoviens, deux difficultés se présentent : le
calcul de la fonction de partition a priori et celui des
probabilités marginales a posteriori. Des approximations ont
été proposées pour traiter ces étapes: pseudo-likelihood,
MCMC. Zhang[Zha92],
donne une solution heuristique utilisant des approximations
de type champ moyen et obtient de bons résultats. Nous
proposons une classe d'algorithmes fondés sur la
généralisation du principe du champ moyen : dans le système
indépendant approximant, les pixels voisins sont fixés à une
constante, pas nécessairement égale à la valeur moyenne. En
particulier, nous nous sommes intéressés à des méthodes de
type champ modal ou champ simulé. Cette famille d'algorithmes
contient la procédure proposée par Zhang, ainsi que la
procédure (PPL)-EM de Qian et
Titterington[QT91] et de nouveaux algorithmes dont
celui du champ simulé qui apparaît très efficace sur les
expérimentations que nous avons menées. De la sorte nous
présentons sous une structure commune des algorithmes
d'inspirations bien différentes et nous cherchons à les
comparer en termes d'estimation des paramètres et de
restauration de l'image. Un autre domaine d'application des
techniques d'approximation de type champ moyen est la
sélection de modèle (cf. 6.4.1).
Participants : Florence Forbes,
Chris Fraley
, Nathalie Peyrard,
Adrian Raftery
.
Dans le cadre d'une collaboration entre Toshiba MRI inc. à
San Francisco, l'université de Washington à Seattle et
IS2, le contexte est celui de l'Imagerie par
Résonance Magnétique (IRM) pour la détection
de cancers du sein. Cette technique permet potentiellement la
différentiation des tumeurs malignes et des tissus sains mais
a une spécificité réduite.
Dans une première approche, l'étude des caractéristiques
dynamiques (courbes signal-temps) des tumeurs a été proposée
pour améliorer la spécificité de l'IRM
[Kuh00]. Une étape importante dans cette étude
est la sélection d'une zone suspecte (ou ROI
pour Region-Of-Interest en anglais). Il n'existe
cependant pas encore de méthodes standardisées pour la
sélection de telles zones et pour l'analyse des données
d'IRM dynamique. Nous avons donc commencé une
étude [40] qui propose une méthode de sélection
fondée sur des techniques statistiques de classification
multivariées, ainsi que des outils d'analyse des courbes pour
les pixels sélectionnés.
Une seconde approche se base sur les travaux de
R. Neugebauer, au cours de son DEA au
printemps 2000 [50]. Il s'agit d'utiliser les principes
de l'analyse discriminante pour permettre l'identification
des classes de pixels, i.e. le diagnostic différentiel
entre tissus cancéreux et tissus sains. Une telle analyse
nécessite l'utilisation d'au moins une image d'apprentissage,
où les pixels d'une tumeur maligne sont identifiés. Deux
approches peuvent être distinguées selon la nature de l'image
d'apprentissage. Dans le premier cas, l'image d'apprentissage
et l'image étudiée ne sont pas issues de l'examen
IRM du même patient. L'idéal serait en effet
de pouvoir utiliser la coupe d'un ou plusieurs patients de
référence, pour identifier les éventuelles zones cancéreuses
des coupes d'autres patients. Cependant, ceci ne semble pas
toujours facilement réalisable du fait du mode de recueil
actuel des données IRM. Une autre approche
s'avère néanmoins utile dans le suivi d'un patient lors d'un
traitement médical par chimiothérapie. L'image
d'apprentissage et l'image étudiée sont issues du même
patient et du même examen IRM.
Participants : Florence Forbes,
Alejandro Murua
.
Nous avons commencé une étude sur un problème de
reconnaissance de la la parole. Les questions soulevées sont
du même ordre que celles abordées par J-B. Durand lors
de son DEA[Dur99] et
de sa thèse. Les chaînes de Markov cachées ont souvent été
utilisées avec succès dans ce cadre mais elles présentent
cependant un certain nombre de limitations. Dans [LM99], J.
Li et A. Murua ont voulu tenter d'y remédier en
proposant un modèle plus complexe, qui met notamment en jeu
des dépendances entre variables non prises en compte
habituellement. Cela donne lieu à des problèmes d'estimation
des paramètres du modèle, résolus de manière essentiellement
heuristique. L'objectif de notre collaboration est donc de
voir si des techniques de type champ moyen, visant à se
ramener à des cas de dépendances plus simples, pourraient
s'appliquer et donner lieu à une procédure d'estimation mieux
fondée statistiquement.
Participants : Gilles Celeux,
Jean-Baptiste Durand.
Le modèle de chaînes de Markov cachées est fréquemment
utilisée en reconnaissance statistique des formes, notamment
en reconnaissance de parole ou de gestes. Comme pour les
mélanges de loi, l'un des problèmes qui reste à résoudre
concerne le choix du nombre d'états cachés. Nous avons
entrepris de l'attaquer en utilisant une évaluation de la
vraisemblance du modèle par des techniques d' half
sampling qui sont un cas particulier de la validation
croisée. Dans le principe, cela consiste à diviser
l'échantillon en deux, puis à estimer les paramètres sur une
partie et à calculer la vraisemblance du modèle sur l'autre.
En inversant le rôle des deux parties, on obtient ainsi une
vraisemblance moyenne qui sert de critère de sélection. Du
fait de la dépendance markovienne, le découpage en deux
parties n'est pas une opération anodine. Dans le cas où les
deux parties sont tirées au hasard, cela nous a amené à
adapter l'algorithme de
BAUM-WELCH de calcul de
l'estimateur du maximum de vraisemblance dans une chaîne de
Markov cachée à observations manquantes. Dans le cas où la
chaîne est divisée suivant la parité des indices, nous avons
montré que les processus obtenus sont encore des chaînes de
Markov cachées, ce qui permet d'utiliser l'algorithme de
BAUM-WELCH pour l'estimation
des paramètres. Les premières expérimentations menées sont
encourageantes et semblent indiquer une certaine supériorité
de la procédure se fondant sur un partionnement alternatif de
l'échantillon.
Participants : Christophe
Biernacki
, Anne
Guérin-Dugué, Jeanny Hérault
.
Cette étude a été initiée par Christophe Biernacki lors de
son stage post-doctoral en 1999, en collaboration entre Movi
et IS2. La modélisation des distributions de
caractéristiques extraites dans les images est ici appliquée
au contexte de l'indexation des images par le contenu.
L'objectif est de retrouver dans une base d'images, les
images les plus « similaires » à une image requête
suivant la similarité entre les distributions d'information
de chrominance seule, ou combinée avec l'information de
luminance, par le biais de l'estimation d'une caractéristique
locale d'orientation. Le principe retenu est d'indexer
l'image par les paramètres optimaux (au sens du critère
ICL [8]) du
mélange de gaussiennes modélisant la distribution globale des
caractéristiques. L'appariement se réalise en maximisant la
vraisemblance du jeu de paramètres d'une image de la base
sachant la distribution empirique de l'image requête.
Plusieurs espaces chromatiques ont été testés. Les meilleurs
résultats ont été obtenus avec l'espace conduisant en moyenne
à une modélisation la plus parcimonieuse de la distribution
chromatique. Cet espace de représentation chromatique est
issu des travaux de recherche effectués au Laboratoire des
Images et des Signaux (LIS-INPG-UJF) sur la
vision humaine des couleurs.
Cette approche a été étendue avec succès dans deux
directions. La première extension concerne la modélisation
des distributions chromatiques spatialement localisées dans
l'image. En effet, l'organisation spatiale des modes détectés
est perdue avec la seule modélisation de la distribution
globale. Cette organisation spatiale peut être retrouvée par
la suite en effectuant une étape de classification spatiale
des modes détectés. L'étape de modélisation concerne alors la
distribution conjointe spatio-chromatique [41].
L'autre extension est relative à la fusion des informations
de chrominance et de luminance (orientation). Cette fusion
est réalisée sur la vraisemblance en considérant les deux
informations indépendantes [49].