previous up next top index
Précédent : Algorithmique et modélisation des réseaux Remonter : Algorithmique et modélisation des réseaux Suivant : Conception et étude de protocoles


Étude de modèles probabilistes de réseaux

Participants : Vincent Dumas, Philippe Robert, Jean-Marc Wachter

Le cadre général de cette recherche concerne les propriétés de renormalisation des réseaux de communication. Le processus de Markov décrivant l'état d'un réseau est en général complexe, même si la loi stationnaire de celui-ci est connue. La combinatoire des expressions ne permet pas une évaluation qualitative de ces réseaux, pour les problèmes de dimensionnement notamment, lorsque leur nombre de noeuds est significatif. Une méthode intéressante, issue de la physique des particules, consiste à renormaliser le processus à la fois en temps et en espace par un petit paramètre tex2html_wrap_inline554 et faire tendre celui-ci vers 0. Un processus limite ainsi obtenu conserve les caractéristiques essentielles du réseau, schématiquement la partie ``bruit'' autour des trajectoires est éliminée. Un processus limite est quasi-déterministe, les points de discontinuité de la dynamique conservant une part d'aléatoire. Toute la difficulté de l'étude consiste à identifier et caractériser les limites possibles. Il peut y avoir plusieurs limites et les équations ``limite'' peuvent présenter des solutions pathologiques qu'il convient d'éliminer (les physiciens le font avec des arguments d'entropie dans leur cadre). Ce programme a déjà largement été entamé dans la thèse de V. Dumas [3] dans le cadre des réseaux multi-classe. J.-M.  Wachter a démarré une thèse sur ce sujet dans le cas des réseaux avec perte, en septembre 1996 (directeur Ph. Robert).

Le cadre est alors celui d'un réseau de télécommunications, les appels réservent plusieurs liens pendant un temps aléatoire, si un des liens nécessaire à l'appel est déjà complet (i.e. à capacité maximale), l'appel est perdu. La renormalisation utilisée consiste à augmenter de façon conjointe la capacité des liens du réseau ainsi que le trafic. Cette normalisation diffère de celle utilisée dans [3] où l'espace d'état était indépendant de la normalisation, ce n'est pas le cas dans ce cadre. Hunt et Kurtz ont montré la relative compacité des trajectoires renormalisées ainsi que certaines propriétés de leurs limites. Une étude générale détaillée nous semble, comme dans le cas des réseaux multi-classe, hors d'atteinte pour l'instant. Le programme sera donc dans un premier temps d'étudier les questions de convergence sur des exemples assez simples et certaines topologies symétriques.

Avec la normalisation mentionnée plus haut, Ph. Robert et Danièle Tibi (université de Paris VII), se sont intéressés aux problèmes d'estimation de la vitesse d'atteinte de l'équilibre de files d'attente à un serveur. Le but général est de donner, s'il existe, l'estimation asymptotique de l'instant de cut-off  : avant cet instant, le processus est très près de l'état initial et après celui-ci l'état stationnaire est atteint. La distance utilisée ici entre les distributions est celle de la convergence en variation totale. Une activité importante se dégage actuellement autour de ces questions (Diaconis, Salff-Coste, Stroock, ...). Les outils utilisés sont principalement géométriques (méthodes de chemins dans des graphes, inégalités de Poincaré, Cheeger, ...). La seule méthode connue dans le domaine des files d'attente consiste à calculer explicitement les transitoires des processus incriminés ; ce n'est effectivement possible que pour de très rares cas.

Les estimations données par ces méthodes dans notre cadre ne sont pas satisfaisantes. Nous nous sommes intéressés tout d'abord au problème de l'estimation de la seconde valeur propre. En utilisant une formule variationnelle et un théorème de convergence en loi (du type central limite, loi des grands nombres ou une convergence vers une loi de Poisson dépendant du modèle étudié), il est possible de donner l'asymptotique de la seconde valeur propre. Il suffit pour cela de résoudre un problème classique de minimisation d'un opérateur sur un sous-espace de fonctions de type tex2html_wrap_inline556 qui se résout en choisissant la base orthonormée idoine (Fourier, les polynômes d'Hermite, ...). Cette méthode simple donne l'ordre de grandeur de façon assez immédiate, le problème de minimisation ne concerne que la valeur exacte de la constante numérique devant l'ordre de grandeur. Nous nous sommes ensuite intéressés au problème plus délicat des temps de cut-off. Nous avons montré que ce phénomène existe pour les files simples avec pertes (un cas frontière reste cependant non résolu pour l'instant). La méthode employée utilise un couplage pour chaque cas. L'étape actuelle consiste à généraliser ces méthodes au cas des réseaux.



previous up next top index Précédent : Algorithmique et modélisation des réseaux Suivant : Conception et étude de protocoles Remonter : Algorithmique et modélisation des réseaux