Précédent : Résolution de problèmes avec
limitation Remonter : Fondements scientifiques Suivant :
Domaines
d'applications
Les modèles de décision markoviens que ce soit dans un environnement complètement connu (MDP) ou partiellement observable (POMDP) fournissent un cadre théorique pour décider des actions à entreprendre lorsque leur effet est incertain. Leur domaine d'application est vaste (contrôle de processus, recherche opérationnelle, économie, interprétation de signaux, ...). Depuis le milieu des années 90, l'application de ces modèles à la conception d'agents intelligents immergés dans un environnement dynamique s'est imposé dans la communauté de recherche en IA. Nous participons à ce mouvement à la fois pour résoudre des problèmes de planification et de contrôle. Si cette approche est séduisante sur le plan théorique, son implantation informatique pose encore aujourd'hui de nombreux problèmes, notamment en ce qui concerne les performances en temps des algorithmes sous-jacents et le problème de l'apprentissage des modèles. Pour pallier cette difficulté, nous explorons actuellement diverses voies : approximations, techniques " anytime ", utilisation de plans sous-optimaux mais néanmoins satisfaisants, apprentissage supervisé, apprentissage par renforcement, etc.