Participants :
Philippe Flajolet, Xavier Gourdon, Dominique Gouyou-Beauchamps, Michèle Soria
Ph. Flajolet et R. Sedgewick (Princeton University) terminent, dans le cadre d'une coopération de plusieurs années, un livre de syntèse de 512 pages [4] intitulé `` An Introduction to the Analysis of Algorithms'' et en cours de parution chez Addison-Wesley. Ce livre est en accord avec les grands axes du projet déjà décrits. Il met en place la problématique de l'analyse en moyenne d'algorithmes, les méthodes de base issues de l'univers des mathématiques discrètes (récurrences, séries génératrices, méthodes asymptotiques), et enfin les grandes catégories de modèles combinatoires : arbres, permutations, mots, allocations et graphes.
Cet ouvrage permet au passage de faire le point sur l'évolution de la discipline. On doit à Knuth et aux nombreux chercheurs qu'il a influencés des travaux de ``première génération''. Ces travaux ont concerné d'abord un grand nombre d'analyses précises de performances dans les domaines de l'algorithmique ``semi-numérique'' et du calcul formel (Knuth, vol. 2), du tri et de l'accès rapide à l'information (Knuth, vol. 3). Ils ont ensuite servi de soubassement à de nouvelles approches fondées sur une stratification en grandes classes des modèles. Une telle stratification repose sur un traitement synthétique des équations de modèle par un calcul symbolique de séries génératrices ; elle se concrétise par des schémas analytiques et asymptotiques dotés de pouvoirs de quantification importants tout en étant transverses à de nombreuses applications, comme celles indiquées dans l'introduction de ce rapport.
En résumé, par un saut dans l'abstraction et la technicité mathématique, il est désormais possible d'analyser des algorithmes plus complexes (par la théorie des ``schémas'') portant sur des données plus riches (données multidimensionnelles par exemple) et sous des hypothèses statistiques plus variées (séquences avec corrélation par exemple). Enfin, comme révélé notamment par les travaux de M. Soria et Ph. Flajolet, l'analyse d'algorithmes n'est plus cantonnée au domaine des analyses en moyenne mais peut aborder des évaluations en distribution et quantifier des phénomènes de grandes déviations caractérisant les compromis entre coûts et risques. Ceci est particulièrement utile en algorithmique étant donné l'importance croissante de l'aléa pour s'affranchir des barrières de complexité : les algorithmes dits ``aléatoirisés'' et les protocoles en fournissent par exemple une illustration concrète.
Dans ce contexte, X. Gourdon a fourni un ensemble de résultats généraux portant sur la distribution de la taille des plus grandes composantes dans des structures combinatoires composites. Les schémas correspondants recouvrent des situations pratiques aussi diverses que propagation de retenues dans certains circuits d'addition asynchrone, apparition de régularités statistiques attendues dans des chaînes d'ADN, décryptage de système cryptographique par itération de la fonction de codage. Un cas particulier a déjà donné lieu à une collaboration avec H. Prodinger (Technical University of Vienna) [49]. Le cas général (singularité algébrico-logarithmique) a fait l'objet d'une communication [32].