Précédent : Modélisation statistique
en analyse d'image Remonter : Résultats
nouveaux Suivant : Évaluation de
modèles
Participant : Jean Diebolt.
Dans le contexte actuel de l'utilisation intensive en statistique des méthodes de Monte-Carlo par chaînes de Markov (MCMC), il est essentiel de s'assurer que les résultats proposés sont valides et précis. En collaboration avec Didier Chauveau (université de Marne-la-Vallée), nous avons mis au point une nouvelle méthode de contrôle de la convergence vers la stationnarité des chaînes de Markov engendrées par les MCMC, méthode qui permet la construction de ``régions de confiance'' pour les ensembles de quantités à évaluer. Plus précisément, notre procédure de contrôle utilise des chaînes simulées en parallèle, afin de déterminer au moyen d'approximations empiriques un nombre minimal d'itérations au-delà duquel l'utilisation du théorème de la limite centrale puisse être considérée comme justifiée, en vue de construire des intervalles de confiance pour les résultats fournis par l'algorithme[[11]].
Le logiciel de contrôle MCMC générique par normalité développé par Didier Chauveau est actuellement écrit en C et en Mathematica pour les calculs algébriques et les sorties. Nous avons pu le tester sur de nombreux exemples dont les mélanges[[22]] et un exemple en vraie grandeur sur l'analyse du génome par des chaînes de Markov cachées en collaboration avec Florence Muri (université Paris 5)[MCC98]. L'accès à ce logiciel peut se faire via http://www-math.univ-mlv.fr/~chauveau/cltc.html.
Construire des ensembles de problèmes de référence pour les algorithmes de recherche stochastiques est une nécessité. Mais la constitution de tels ensembles est une tâche difficile. Les algorithmes stochastiques de type évolutioniste (les algorithmes génétiques par exemple) sont souvent utilisés lorsque le problème d'optimisation est très complexe et que peu d'information analytique est disponible. Ceci proscrit une classification fondée sur les propriétés analytiques du problème. En effet un algorithme donné peut ne pas être plus performant en moyenne sur un problème choisi au hasard que n'importe quel autre, même le pire, si l'on n'injecte aucune connaissance sur le problème dans cet algorithme. Il est donc essentiel de choisir un algorithme en relation au problème à traiter. Cela nécessite de pouvoir analyser le comportement de l'algorithme. Dans ce travail, nous abordons cette question à l'aide d'une méthodologie expérimentale, reposant sur la statistique et les plans d'expériences. Le meilleur moyen de quantifier les performances d'algorithmes évolutionistes pour un problème donné et de répéter des essais de simulation dans des contextes différents, en changeant d'algorithme le plus souvent possible. Dans cette démarche, il est essentiel de limiter le nombre d'essais et de tirer le plus de parti de l'information entre essais croisés. Un modèle statistique de type modèle linéaire généralisé utilisant la loi Gamma comme loi de la performance des algorithmes est utilisé pour intégrer efficacement ce type d'information.