previous up next contents
Précédent : Simulateur pour l'architecture Remonter : Analyse de réseaux Suivant : Qualité de service

Analyse du trafic du Web

  Participants : Zhen Liu, Philippe Nain, Nicolas Niclausse

Mots clefs : multimédia, processus autosimilaire, dépendance à long terme

La croissance exponentielle du nombre de serveurs Web et du trafic HTTP pose des problèmes de saturation des serveurs de référence du WWW Consortium. Une des solutions qui a été proposée et mise en oeuvre afin de résoudre ces difficultés est la réplication des serveurs : deux miroirs ont été mis en place au MIT, et un nouveau est en cours d'installation à l'INRIA Sophia Antipolis. Cette solution de réplication des serveurs a été adoptée en raison du coût beaucoup trop important d'installation de nouvelles liaisons de communications.

Dans cette étude, on s'intéresse particulièrement aux problèmes de dimensionnement des serveurs miroirs. Dans le cadre d'un stage de DEA, N. Niclausse [61], sous la direction de Z. Liu et P. Nain, s'est intéressé à la nature statistique du trafic généré par les requêtes d'accès aux serveurs de référence du Web (localisé au MIT). Le premier objectif était de vérifier si le trafic Web, tout comme le trafic sur des réseaux de type Ethernet, possédait des propriétés d'auto-similarité et de mémoire longue. Il est apparu que la mémoire longue est bien présente. Toutefois, l'importance de celle-ci (caractérisée par le paramètre de Hurst) est assez faible, contrairement à ce qui a pu être observé pour le trafic Ethernet. Si l'on tient compte en plus de la taille des requêtes (octets transmis), la mémoire longue disparaît. Le recours à des modèles de trafic à mémoire longue n'est donc peut-être pas indispensable. Ce travail se poursuit actuellement sous la forme d'une thèse, en étroite collaboration avec le WWW Consortium.


previous up next contents
Précédent : Simulateur pour l'architecture Remonter : Analyse de réseaux Suivant : Qualité de service