Précédent : Interprétation automatique
d'images Remonter : Résultats nouveaux Suivant :
Traitement de
séquence d'images à
Participants : Nicolas Chleq, Monique Thonnat.
Le projet AVS-PV a démarré le 28 avril 1997 et s'est fini en juillet 1998. Rappelons que les objectifs de ce projet étaient d'étendre l'approche explorée dans le projet PASSWORDS et de l'adapter à l'analyse de comportements dans des scènes prises à l'intérieur de stations de métro. Comme dans le cas de PASSWORDS, la solution repose sur un enchaînement de deux traitements distincts : les traitements d'images qui extraient les régions mobiles et certaines mesures sur celles-ci (programmes réalisés par l'équipe DIBE à l'université de Gênes), et les programmes d'analyse de comportement qui sont réalisés à l'INRIA.
Ce projet a permis de développer un modèle de l'interprétation de séquences d'images où seule la partie chargée de l'analyse des comportements était renseignée sur le contexte statique de la scène surveillée : son contenu, sa géométrie réelle 3D et la calibration de la caméra. Le modèle du contexte statique ainsi fourni au programme étant adapté des travaux de François Brémond [Bre97] sur ce sujet.
La stratégie globale du module réalisé est de construire incrémentalement un modèle de la scène au fur et à mesure que les traitements d'images fournissent des informations sur les régions mobiles (position, suivi, mesures dimensionnelles, etc.). Ce modèle est ensuite confronté à une librairie de scénarios prédéfinis pour l'application de vidéosurveillance de scènes de métro. Dans le cadre d'AVS-PV et de l'implantation qui a été produite, les contraintes de temps de réponse ont été réordonnées de manière distincte suivant les problèmes considérés lors de l'interprétation. En effet, on peut distinguer différents problèmes génériques qui se posent quelle que soit l'application finale de l'interprétation :
Les expériences qui ont pu être faites en interne au projet AVS-PV ont montré que ce modèle de découpage proposé pour la tâche d'interprétation de séquences d'images représentait un progrès certain par rapport à ce qui avait été réalisé pour le projet PASSWORDS. Les limites des modules de traitement d'images utilisés pour AVS-PV n'ont pas permis de généraliser et de valider cette approche à la totalité des tâches du processus d'interprétation. En particulier, la reconnaissance de scénarios est restée telle qu'elle a été héritée du projet PASSWORDS, alors qu'elle aurait pu faire l'objet d'un découpage similaire.
En conclusion, cette étude a permis de valider un certain
nombre d'approches et de techniques permettant l'analyse des
comportements globaux des personnes, comme sur la
figure 8. Le
système réalisé à cette occasion a été jugé de manière
satisfaisante par les opérateurs de métro impliqués, surtout en
comparaison des simples outils de détection de mouvement
actuellement disponibles pour les opérateurs de surveillance.
Néanmoins, une gamme plus complète d'outils aidant les opérateurs
devrait inclure des capacité de reconnaissance de comportement
plus fines, et donc être basée sur des traitements d'images plus
complets et plus robustes.
![]() |