Précédent : Algorithmique et modélisation des réseaux
Remonter : Algorithmique et modélisation des réseaux
Suivant : Conception et étude de protocoles
Participants : Vincent Dumas, Philippe Robert, Jean-Marc Wachter
Le cadre général de cette recherche concerne les propriétés de
renormalisation des réseaux de communication. Le processus de
Markov décrivant l'état d'un réseau est en général complexe, même
si la loi stationnaire de celui-ci est connue. La combinatoire
des expressions ne permet pas une évaluation qualitative de ces
réseaux, pour les problèmes de dimensionnement notamment, lorsque
leur nombre de noeuds est significatif. Une méthode intéressante,
issue de la physique des particules, consiste à renormaliser le
processus à la fois en temps et en espace par un petit paramètre
et faire tendre
celui-ci vers 0. Un processus limite ainsi obtenu conserve les
caractéristiques essentielles du réseau, schématiquement la
partie ``bruit'' autour des trajectoires est éliminée. Un
processus limite est quasi-déterministe, les points de
discontinuité de la dynamique conservant une part d'aléatoire.
Toute la difficulté de l'étude consiste à identifier et
caractériser les limites possibles. Il peut y avoir plusieurs
limites et les équations ``limite'' peuvent présenter des
solutions pathologiques qu'il convient d'éliminer (les physiciens
le font avec des arguments d'entropie dans leur cadre). Ce
programme a déjà largement été entamé dans la thèse de
V. Dumas [3] dans le
cadre des réseaux multi-classe. J.-M. Wachter a démarré une
thèse sur ce sujet dans le cas des réseaux avec perte, en
septembre 1996 (directeur Ph. Robert).
Le cadre est alors celui d'un réseau de télécommunications, les appels réservent plusieurs liens pendant un temps aléatoire, si un des liens nécessaire à l'appel est déjà complet (i.e. à capacité maximale), l'appel est perdu. La renormalisation utilisée consiste à augmenter de façon conjointe la capacité des liens du réseau ainsi que le trafic. Cette normalisation diffère de celle utilisée dans [3] où l'espace d'état était indépendant de la normalisation, ce n'est pas le cas dans ce cadre. Hunt et Kurtz ont montré la relative compacité des trajectoires renormalisées ainsi que certaines propriétés de leurs limites. Une étude générale détaillée nous semble, comme dans le cas des réseaux multi-classe, hors d'atteinte pour l'instant. Le programme sera donc dans un premier temps d'étudier les questions de convergence sur des exemples assez simples et certaines topologies symétriques.
Avec la normalisation mentionnée plus haut, Ph. Robert et Danièle Tibi (université de Paris VII), se sont intéressés aux problèmes d'estimation de la vitesse d'atteinte de l'équilibre de files d'attente à un serveur. Le but général est de donner, s'il existe, l'estimation asymptotique de l'instant de cut-off : avant cet instant, le processus est très près de l'état initial et après celui-ci l'état stationnaire est atteint. La distance utilisée ici entre les distributions est celle de la convergence en variation totale. Une activité importante se dégage actuellement autour de ces questions (Diaconis, Salff-Coste, Stroock, ...). Les outils utilisés sont principalement géométriques (méthodes de chemins dans des graphes, inégalités de Poincaré, Cheeger, ...). La seule méthode connue dans le domaine des files d'attente consiste à calculer explicitement les transitoires des processus incriminés ; ce n'est effectivement possible que pour de très rares cas.
Les estimations données par ces méthodes dans notre cadre ne
sont pas satisfaisantes. Nous nous sommes intéressés tout d'abord
au problème de l'estimation de la seconde valeur propre. En
utilisant une formule variationnelle et un théorème de
convergence en loi (du type central limite, loi des grands
nombres ou une convergence vers une loi de Poisson dépendant du
modèle étudié), il est possible de donner l'asymptotique de la
seconde valeur propre. Il suffit pour cela de résoudre un
problème classique de minimisation d'un opérateur sur un
sous-espace de fonctions de type qui
se résout en choisissant la base orthonormée idoine (Fourier, les
polynômes d'Hermite, ...). Cette méthode simple donne
l'ordre de grandeur de façon assez immédiate, le problème de
minimisation ne concerne que la valeur exacte de la constante
numérique devant l'ordre de grandeur. Nous nous sommes ensuite
intéressés au problème plus délicat des temps de cut-off.
Nous avons montré que ce phénomène existe pour les files simples
avec pertes (un cas frontière reste cependant non résolu pour
l'instant). La méthode employée utilise un couplage pour chaque
cas. L'étape actuelle consiste à généraliser ces méthodes au cas
des réseaux.