Précédent : Analyse d'algorithmes Remonter : Analyse
d'algorithmes Suivant : Applications
algorithmiques
Le point de départ est constitué par les méthodes symboliques en analyse combinatoire qui permettent de traduire des modèles complexes. Il s'agit d'un courant ``symbolique'' en accord avec les tendances modernes en combinatoire, et dont le projet a montré la puissance dans le domaine de l'analyse d'algorithmes (calculs de complexité moyenne de Flajolet et Steyaert). Ceci est à la base de l'automatisation réalisée par la bibliothèque de calcul formel Combstruct décrite plus loin. Cette phase symbolique confronte alors l'analyste à une grande variété d'équations fonctionnelles, soit à une variable (dénombrements, moyennes, variance) soit à plusieurs variables (distributions probabilistes). Il s'agit ensuite d'extraire les informations utiles de ces séries génératrices, et se manifeste alors un phénomène de simplification asymptotique de portée considérable et qu'il s'agit de capturer. Ici encore, l'approche suivie vise à dégager quelques grands schémas généraux correspondant à une classification du domaine en ``processus combinatoires'' régis par des lois précises. Les méthodes s'appuient sur l'analyse de singularités de transformées, séries génératrices ou transformations intégrales. C'est là un courant ``géométrique'' original dont les bases élémentaires viennent d'être dégagées par Sedgewick et Flajolet dans un ouvrage introductif [2, 1] (tirages de 5000 et 2000 exemplaires, respectivement). Une monographie de synthèse par Flajolet et Sedgewick, au nom évocateur de Analytic Combinatorics est en préparation pour 1998.
Le schéma diviser-pour-régner est un grand classique de l'informatique qui échappait jusque récemment à une quantification précise, étant donné le caractère apparemment fort cahotique des temps de calcul observés. En fait, il est montré dans [42] que, sous des conditions très générales, ces phénomènes ont une structure fractale très exactement quantifiable (voir aussi le rapport d'activité du Projet FRACTALES ), comme il apparaît grâce à des méthodes de transformations de Mellin voisines de la théorie analytique des nombres. Ces travaux sont poursuivis par Ph. Flajolet et Ph. Dumas [7]. Ils s'appliquent par exemple au problème de la recherche efficace de points visibles dans un nuage de points d'un espace de dimension quelconque.
Le schéma analytique des sommes harmoniques est également traité de manière complète dans le travail [42] au moyen de la transformation de Mellin. Ceci unifie et simplifie une bonne cinquantaine d'analyses portant sur des objets et algorithmes combinatoires très variés, tels : hachage extensible, compression de données à la Lempel et Ziv, protocoles de communication en arbre, factorisation de polynômes en calcul formel, algorithmes d'estimation probabilistes en bases de données, etc. Cet exemple est typique d'un processus combinatoire unique -- le processus ``d'arbre digital'' -- qui est conceptuellement très simple et fait surface dans de nombreuses applications, mais dont l'évaluation quantitative résiste (à cause de subtiles fluctuations inhérentes) à toute analyse élémentaire. Ces travaux trouvent leur prolongement dans l'analyse des séquences (algorithmes de compression, par exemple) décrite à la section 3.3.
Les modèles d'urnes sont parmi les modèles les plus courants d'allocations aléatoires, et peuvent être utilisés pour représenter nombre de phénomènes informatiques (hachage, bases de données, etc). En particulier, l'apprentissage de fonctions symétriques, dans un cas où les données peuvent être erronées, a pu être modélisé et analysé dans le cas statique, conduisant à un coût d'apprentissage (l'erreur en généralisation) asymptotiquement gaussien [5].
Le schéma des ``composantes maximales'' est l'un des thèmes centraux de la thèse de X. Gourdon [4]. Ici encore, des lois très générales régissent l'apparition d'objets maximaux en combinatoire statistique. Ainsi, le plus grand facteur premier d'un entier en arithmétique, la plus grande composante d'une fonction aléatoire en cryptographie, ou le plus grand cycle d'une permutation obéissent-ils à une loi commune qui se caractérise par la classique fonction de Dickmann originaire de la théorie analytique des nombres. Un signe de la profondeur technique de la thèse [4] est la résolution d'une conjecture de Golomb-Knuth datant de la fin des années 1960 et portant sur la distribution de la longueur maximale de cycle dans une permutation aléatoire, ou encore la distance entre maxima successifs. Ces analyses s'appliquent notamment à la factorisation de polynômes en calcul formel, où X. Gourdon et Ph. Flajolet [26] ont obtenu pour la première fois une analyse complète de l'algorithme de factorisation tel est qu'il implanté dans les systèmes de calcul formel courants.