Projet : Orion

previous up next contents
Précédent : Interprétation automatique d'images Remonter : Résultats nouveaux Suivant : Traitement de séquence d'images à


   
AVS-PV : Interprétation de séquences d'images pour la surveillance de scènes de métro



Participants : Nicolas Chleq, Monique Thonnat.

Le projet AVS-PV a démarré le 28 avril 1997 et s'est fini en juillet 1998. Rappelons que les objectifs de ce projet étaient d'étendre l'approche explorée dans le projet PASSWORDS et de l'adapter à l'analyse de comportements dans des scènes prises à l'intérieur de stations de métro. Comme dans le cas de PASSWORDS, la solution repose sur un enchaînement de deux traitements distincts : les traitements d'images qui extraient les régions mobiles et certaines mesures sur celles-ci (programmes réalisés par l'équipe DIBE à l'université de Gênes), et les programmes d'analyse de comportement qui sont réalisés à l'INRIA.

Ce projet a permis de développer un modèle de l'interprétation de séquences d'images où seule la partie chargée de l'analyse des comportements était renseignée sur le contexte statique de la scène surveillée : son contenu, sa géométrie réelle 3D et la calibration de la caméra. Le modèle du contexte statique ainsi fourni au programme étant adapté des travaux de François Brémond [Bre97] sur ce sujet.

La stratégie globale du module réalisé est de construire incrémentalement un modèle de la scène au fur et à mesure que les traitements d'images fournissent des informations sur les régions mobiles (position, suivi, mesures dimensionnelles, etc.). Ce modèle est ensuite confronté à une librairie de scénarios prédéfinis pour l'application de vidéosurveillance de scènes de métro. Dans le cadre d'AVS-PV et de l'implantation qui a été produite, les contraintes de temps de réponse ont été réordonnées de manière distincte suivant les problèmes considérés lors de l'interprétation. En effet, on peut distinguer différents problèmes génériques qui se posent quelle que soit l'application finale de l'interprétation :

La principale difficulté rencontrée lors de l'implantation des programmes pour le projet AVS-PV a donc été de faire collaborer différentes tâches dont les échelles de temps de réponse sont très disparates, tout en minimisant autant que possible le délai introduit par le module d'interprétation, et ceci pour des raisons concrètes liées au type d'application concerné : en surveillance, et plus encore en prévention des actes de vandalisme, le temps de réponse est un critère important pour les utilisateurs.

Les expériences qui ont pu être faites en interne au projet AVS-PV ont montré que ce modèle de découpage proposé pour la tâche d'interprétation de séquences d'images représentait un progrès certain par rapport à ce qui avait été réalisé pour le projet PASSWORDS. Les limites des modules de traitement d'images utilisés pour AVS-PV n'ont pas permis de généraliser et de valider cette approche à la totalité des tâches du processus d'interprétation. En particulier, la reconnaissance de scénarios est restée telle qu'elle a été héritée du projet PASSWORDS, alors qu'elle aurait pu faire l'objet d'un découpage similaire.

En conclusion, cette étude a permis de valider un certain nombre d'approches et de techniques permettant l'analyse des comportements globaux des personnes, comme sur la figure 8. Le système réalisé à cette occasion a été jugé de manière satisfaisante par les opérateurs de métro impliqués, surtout en comparaison des simples outils de détection de mouvement actuellement disponibles pour les opérateurs de surveillance. Néanmoins, une gamme plus complète d'outils aidant les opérateurs devrait inclure des capacité de reconnaissance de comportement plus fines, et donc être basée sur des traitements d'images plus complets et plus robustes.

  
Figure 8: Un exemple de situation anormale sur un quai de métro. À gauche, l'accès à une zone dangereuse (les voies) en direction du mur du fond déclenche une alarme vers l'opérateur. À droite, une vue de dessus reconstruite permet de visualiser la trajectoire de la personne depuis son entrée dans la scène et de situer celle-ci par rapport au contexte statique.
\includegraphics[width=13cm]{Figures/st1-23res.ps}



previous up next contents
Précédent : Interprétation automatique d'images Remonter : Résultats nouveaux Suivant : Traitement de séquence d'images à