Projet : ALGO

previous up next contents
Précédent : Algorithmiques des séquences Remonter : Fondements scientifiques Suivant : Domaines d'applications


   
Algorithmique et modélisation des réseaux



Participants : Jean-François Dantzer, Mostafa Haddani, Philippe Robert, Jean-Marc Wachter.

Mots clés : grands réseaux, méthodes de renormalisation, vitesse de convergence .

Résumé :

L'étude quantitative des modèles probabilistes de réseaux, complexe dès lors que le nombre de noeuds est grand, est envisagée du point de vue des techniques de renormalisation de la physique statistique. L'état du réseau est renormalisé avec un paramètre (la taille, la capacité du réseau, l'intensité du trafic) qui tend vers une valeur critique. Asymptotiquement, l'étude du comportement du réseau se ramène à la résolution d'équations différentielles quasi-déterministes.

 Le cadre général de cette recherche concerne les propriétés de renormalisation des réseaux de communication. Le processus de Markov décrivant l'état d'un réseau est en général complexe, même si la distribution à l'équilibre de celui-ci est connue. La combinatoire des expressions ne permet pas une évaluation qualitative de ces réseaux, pour les problèmes de dimensionnement notamment, lorsque leur nombre de noeuds est significatif. Une méthode intéressante, issue de la physique des particules, consiste à renormaliser le processus à la fois en temps et en espace par un petit paramètre $ \varepsilon$ et faire tendre celui-ci vers 0. Un processus limite ainsi obtenu conserve les caractéristiques essentielles du réseau, schématiquement la partie bruit autour des trajectoires est éliminée. Un processus limite obtenu de cette façon est quasi-déterministe, les points de discontinuité de la dynamique conservant une part d'aléatoire. Toute la difficulté de l'étude consiste à identifier et caractériser les limites possibles. Il peut y avoir plusieurs limites et les équations ``limites'' peuvent présenter des solutions pathologiques qu'il convient d'éliminer (les physiciens le font avec des arguments d'entropie). La renormalisation présente l'intérêt de mettre en évidence les modes de fonctionnement fondamentaux. Ce programme d'étude a déjà largement été entamé dans la thèse de V. Dumas, par J.-F. Dantzer dans le cadre des réseaux multi-classe, par J.-M.  Wachter dans une thèse en cours sur des réseaux avec perte et par M. Haddani dans une thèse en cours sur les questions d'allocation de bande passante.

Les problèmes de vitesse de convergence constituent un aspect important de notre étude. Ils se situent en amont des questions de renormalisation. Schématiquement, l'étude d'un système donné peut se décrire de la façon suivante : étude de la renormalisation, propriétés gaussiennes autour des trajectoires renormalisées, existence d'un principe de grandes déviations, et enfin étude de la convergence à l'équilibre des modèles considérés. Jusqu'à présent, les résultats obtenus dans ce domaine sont principalement des estimations du taux de convergence exponentielle par rapport au temps, pour obtenir des bornes du type Ke- $\scriptstyle \lambda_{2}$t. La constante K, qui est généralement négligée, joue cependant assez souvent un rôle majeur dans la convergence à l'équilibre. Par exemple, l'étude de la seconde valeur propre $ \lambda_{2}^{}$ suggère souvent un temps de relaxation (le temps pour que la distance à l'équilibre soit inférieur à 1/e de l'ordre de 1/$ \lambda_{2}^{}$. Il est cependant très fréquent que l'ordre de grandeur du véritable temps de relaxation soit complètement différent. L'accumulation de valeurs propres au voisinage de $ \lambda_{2}^{}$ semble être à l'origine de ces phénomènes encore mal compris. Notre objectif principal dans ce cadre est de donner des bornes aussi simples et précises que possible sur la distance entre l'état d'un système à un instant donné et ce même système à l'équilibre. L'intérêt de tels résultats est de pouvoir donner une description du comportement transitoire d'un système qui n'est pas à l'équilibre. Si l'état d'équilibre a, en général, une expression difficile à utiliser, le cas transitoire est en revanche pratiquement toujours inconnu. Ce type d'étude a été mené avec succès, avec des techniques d'analyse de Fourier. Les marches aléatoires sur des graphes ayant une structure assez régulière s'étudient avec ces méthodes, voir par exemple le livre de Diaconis ``Group representations in probability and statistics'' sur ce sujet. Les techniques envisagées pour cette étude sont essentiellement probabilistes. Notre objectif est d'étudier dans un premier temps des réseaux simples et de dégager des méthodes d'investigation. Dans ce cadre aussi, nous avons recours à une variable de renormalisation qui permet de dégager le mode majeur de convergence. Outre les bornes explicites sur la distance à l'équilibre, ce type d'étude permet de définir, dans certaines situations, le temps d'atteinte de l'équilibre ; avant ce temps, il est possible de trouver un état initial pour lequel la distance est maximale, et après la distance est nulle.



previous up next contents
Précédent : Algorithmiques des séquences Remonter : Fondements scientifiques Suivant : Domaines d'applications