previous up next top index
Précédent : Composition de l'équipe Remonter : Projet ALGO Suivant : Actions de recherche


Présentation du projet

Le thème premier du projet ALGO est l'aléa combinatoire. Il s'agit de caractériser les propriétés attendues (en moyenne, en probabilité, en distribution) d'objets obéissant à des règles de combinaison finies, mais constituant de très grands ensembles. Ces situations se rencontrent sans cesse en informatique, par exemple les configurations d'ordre possibles lors d'un tri de seulement 100 éléments sont en nombre voisin de 10158, tout en obéissant, avec une écrasante probabilité, à des règles fort précises.

Les problèmes d'aléa combinatoire interviennent de manière essentielle en algorithmique. D'abord, la conception de la plupart des algorithmes efficaces se fonde naturellement sur les cas attendus, en moyenne ou en probabilité, plutôt que sur une analyse pessimiste qui doit être réservée à des contraintes de type ``temps réel''. D'autre part, l'optimisation fine des algorithmes repose précisément sur une exploitation très serrée des lois du hasard. Ce rôle de l'analyse de l'aléa combinatoire se trouve encore renforcé par l'importance croissante des algorithmes dits ``randomisés'' (bien formalisés par Karp et Rabin depuis une vingtaine d'années) où il s'avère payant d'introduire volontairement le hasard dans le calcul. Ainsi, les tables de hachage constituent-elles une alternative souvent très efficace aux arbres de recherche, les signatures accélèrent-elles considérablement la recherche textuelle, les ``skip lists'' remplacent-elles graduellement les arbres équilibrés dans de nombreuses applications. Parmi d'autres applications célèbres de cette ``aléatoirisation'', la construction de cryptosystèmes à clefs publiques utilise de manière très sûre des tests probabilistes (domaine dans lequel F. Morain détient des records mondiaux) et il apparaît que des protocoles de communication, faisant suite à Ethernet, mais avec une utilisation mieux contrôlée de l'aléa, brisent infiniment mieux qu'Ethernet la symétrie dans les réseaux ; ceci permet d'acheminer des trafics plus importants de manière beaucoup plus robuste et les principaux phénomènes de stabilité, voire hyperstabilité, ont été mis en évidence dans le projet (Ph. Jacquet, Ph. Flajolet, et al.). La problématique d'algorithmique randomisée est poursuivie par exemple avec succès par le projet PRISME de Sophia-Antipolis dans le domaine de l'algorithmique géométrique.

Le projet ALGO se donne comme objectif l'analyse en profondeur de l'aléa combinatoire et la recherche de ses lois générales. Ce thème est voisin par ses objectifs, mais dual par ses méthodes, de la modélisation des systèmes informatiques, laquelle repose de manière prédominante sur des mathématiques a priori continues, calcul des probabilités en tête. Ici, nous sommes dans le domaine des mathématiques discrètes. La combinatoire étant par définition l'étude des objets finis discrets, nous visons à développer un domaine que l'on pourrait qualifier de ``combinatoire statistique'' par analogie avec la physique statistique. Il s'agit en effet d'expliquer le comportement macroscopique visible (le temps d'exécution global et sur un grand ``ensemble'' d'un certain algorithme) en partant des règles d'agencement élémentaire, simples et connues, qui régissent les données, les méthodes de calcul, ainsi que les structures de données en jeu.

L'une des caractéristique du projet, au plan méthodologique, est la globalité de l'approche poursuivie, laquelle sera détaillée dans les sections suivantes. Disons seulement ici qu'au prix d'un saut dans l'abstraction (méthodes symboliques) et dans la géométrisation (singularités de séries génératrices), de nombreuses lois émergent qui sont transverses à des applications variées. Ainsi, les mêmes principes -- manifestés par une loi gaussienne commune -- régissent-ils aussi bien la pagination d'un arbre d'index, l'apparition attendue de motifs spécifiques dans un texte (par exemple une chaîne d'ADN), la factorisation de polynômes en calcul formel, ou encore, sous certaines conditions, la déconnexion partielle d'un réseau de communication.

Cette approche généraliste a trouvé une résonnance particulière lorsque confrontée au calcul formel. Il est apparu, en effet, vers le tournant des années 1990 qu'il était possible de décider mathématiquement de nombreuses propriétés de l'aléa combinatoire, ce par un calcul de nature essentiellement formelle. Au sein du projet, c'est ce qui a donné lieu aux thèses de B. Salvy et Paul Zimmermann (en 1991). Le programme de recherche correspondant à ces aspects est loin d'être achevé. Il est apparu que surgissaient de nombreux problèmes de portée générale en calcul formel. Citons principalement ici, comme directions nouvelles, l'asymptotique automatique (B. Salvy) les méthodes mixtes symboliques numériques (X. Gourdon, B. Salvy), et la preuve automatique d'identités combinatoires (F. Chyzak, B. Salvy).

Ces approches théoriques fournissent des repères puissants issus des modèles analytiques dont les résultats quantitatifs sont toujours très précis et qui s'appliquent même parfaitement, dans le contexte des algorithmes ``randomisés''. On en verra l'illustration précise dans le rôle joué par plusieurs membres du projet, Ph. Robert et Ph. Jacquet notamment, dans la conception et l'optimisation d'algorithmes et de protocoles de communication. Des solutions complètes et complexes ont été proposées pour les réseaux sans fils et pour le projet MulticablE qui vise à utiliser au mieux le câble de télévision comme support de connexion à l'Internet. Les algorithmes proposés sont complets et les membres du projet sont allés jusqu'au dépôt de brevet (Ph. Jacquet, P. Mühlethaler) et à l'acceptation de leurs solutions par les comités de normalisation concernés. En leur coeur, ces procédés efficaces reposent in fine sur une utilisation algorithmiquement très astucieuse et mathématiquement bien maîtrisée de quelques jets de dés. En passant interviennent quelques équations différentielles et aux différences non-linéaires, des transformation de Mellin, ou de délicates intégrales de contour.

Le cheminement qui sous-tend ces recherches permet d'aborder l'analyse de modèles complexes dans les domaines très variés sujets à modélisation combinatoires. C'est ainsi qu'ont pu être résolues au fil des ans diverses conjectures correspondant à des analyses précises de problèmes tels que le dimensionnement en hachage dynamique (M. Régnier, Ph. Flajolet), la redondance des algorithmes de compression de Lempel et Ziv (Ph. Jacquet), la performance des arbres quadrants pour la recherche multidimensionnelle (Ph. Flajolet, B. Salvy), ou le comportement probabiliste des meilleures méthodes de recherche de motifs (M. Régnier). D'autres applications typiques sont constituées par les algorithmes d'estimation probabiliste en bases de données, l'allocation mémoire partagée (Ph. Flajolet), et les protocoles en arbre pour réseaux locaux et réseaux sans fils (Ph. Jacquet, Ph. Flajolet). Les travaux du groupe sont assez largement repris dans la littérature scientifique spécialisée (livres ou articles). Plusieurs de ces recherches ont été menées en collaboration avec les projets VERSO (bases de données), REFLECS (protocoles et contraintes temps réel), MEVAL (modélisation) et Action AGCT (génomique). Elles nous valent de nombreuses coopérations internationales avec des universités comme celles de Barcelone, Princeton, Purdue, Stanford, Vienne, Washington, Waterloo, etc.



previous up next top index Précédent : Composition de l'équipe Suivant : Actions de recherche Remonter : Projet ALGO