Participants : Jean-Chrysostome Bolot, Walid Dabbous, Frank Lyonnet, Christian Huitema, Thierry Turletti, Andrés Vega García
Nous avons développé des applications multimedia à bas débit sur le réseau Internet qui utilisent le protocole de transport UDP (User Datagram Protocol) et l'extension IP multicast. L'application IVS (INRIA Videoconferencing System) permet d'effectuer des vidéo conférences avec plusieurs participants via leurs stations de travail. L'application WPhone en cours de développement permettra d'offrir un service de type audioconférence ou téléphone sur Internet. Les deux applications permettent aussi de retransmettre des séminaires et conférences via le MBONE (réseau IP multicast expérimental). Les applications de ce type nécessitant beaucoup de bande passante, les données audio/vidéo sont comprimées avant leur émission.
L'application IVS est basée sur un logiciel de codage/décodage
vidéo qui suit la norme H.261 du CCITT (codec vidéo pour services
audiovisuels à
).
Plusieurs techniques sont employées conjointement pour augmenter
la performance globale du système : une boucle de prédiction
appliquée dans la dimension temporelle, une transformation en
cosinus suivie d'une quantification des coefficients transformés,
et d'un codage entropique (codage de Huffman).
Plusieurs formats d'encodage sont possibles : le format QCIF
(
pixels), le format
CIF (
pixels) et le
format SCIF (
pixels).
Le logiciel a été porté sur les plate-formes suivantes :
IVS inclut un mécanisme permettant d'estimer la capacité disponible dans le réseau et ce, quelque soit le nombre de participants dans la conférence. Cette estimée permet d'ajuster le débit de sortie du codeur vidéo de manière à satisfaire le maximum de participants dans la conférence
Pour cela le codeur dispose de plusieurs paramètres, à savoir :
Mais cette adaptation pose des problèmes délicats en raison de l'hétérogénéité inhérentes des récepteurs. D'autres techniques peuvent être utilisées pour éviter que certaines branches de l'arbre de distribution multipoint restent congestionnées.
Les résultats obtenus sur l'Internet indiquent que l'adaptation du codeur en fonction des conditions du réseau permet d'offrir une application de vidéoconférence de qualité raisonnable sans avoir à utiliser les mécanismes de contrôle d'admission et/ou de réservation de ressources qui sont généralement considérés comme nécessaires pour ce genre d'applications. Cependant nous ne pouvons pas garantir une qualité donnée à l'utilisateur. Les travaux sur ce thème ont été décrits dans la section 3.1.1.
Nous avons réalisé cette année une complète réarchitecture et réécriture du système IVS dans le but d'avoir plus de flexibilité et de modularité.
Ce nouveau logiciel reprend toute les fonctionnalités de l'ancien IVS et offre en plus:
D'autres travaux cette année ont visé à fournir des mécanismes qui permettent le contrôle de transmission pour l'application audio WPhone (ces mécanismes seront également intégrés dans le nouvel IVS). Nous avons développé un mécanisme de contrôle de débit (similaire à celui développé pour IVS) qui adapte le débit du codeur audio à la capacité disponible dans le réseau. Le contrôle de débit est malheureusement plus difficile à réaliser pour un codeur audio que pour un codeur video. La solution retenue a été de fournir un ensemble de codeurs audio, et de choisir à un instant donné le codeur approprié (c'est à dire le codeur qui génère la meilleure qualité de voix possible pour une bande passante maximum donnée) en fonction de la capacité (i.e. de la bande passante) disponible dans le réseau à cet instant. Les codeurs disponibles actuellement sont des codeurs PCM (64 kb/s), ADPCM (16, 32, et 48 kb/s), et LPC (5 kb/s).
La transmission de la voix sur Internet pose d'autres problèmes spécifiques. En particulier, les paquets de voix sont très sensibles aux pertes (qui engendrent des blancs dans la parole) ainsi qu'aux délais (qui diminuent l'interactivité) mais aussi à la variation des délais (appellée gigue, et qui engendre une parole hachée). Nous avons donc développé des mécanismes qui permettent de compenser les effets néfastes de ces problèmes. En ce qui concerne les pertes, nous avons développé des mécanismes de reconstruction de la voix basés sur des techniques de correction d'erreur par anticipation (ces travaux ont été décrits dans la section 3.1.1). En ce qui concerne les délais, nous avons développé un mécanisme de compensation de gigue qui permet en quelque sorte d'absorber à la destination les variations de délai des paquets de voix.