Projet : CALLIGRAMME

previous up next contents
Précédent : Logique linéaire et grammaires formelles Remonter : Résultats nouveaux Suivant : Contrats industriels (nationaux, européens et


Sous-sections


   
Lambda calculs typés, sémantique, complexité

Catherine Pilière, dans le cadre de son travail de thèse, étudie les rapports entre logique classique et opérateurs de traitement d'exceptions à la ML. Elle travaille actuellement à l'extension via un opérateur de point fixe, d'un formalisme introduit par Philippe de Groote [dG95] consistant en un $ \lambda$-calcul simplement typé de traitement des exceptions. Au cours de cette année, elle s'est particulièrement attachée à établir la préservation de la confluence du calcul [[30]] et à proposer pour celui-ci une sémantique dénotationnelle possédant la propriété de computational adequacy [[24]].

En collaboration avec Rick Blute et Paul Ruet, François Lamarche a construit une classe de sémantiques dénotationelles de la logique linéaire non commutative introduite dans la thèse de Paul Ruet. La difficulté du problème était d'obtenir la compatibilité entre une négation involutive et la règle d'entropie, qui induit que le tenseur commutatif implique le tenseur non commutatif. Il est intéressant de noter que les ingrédients de base de ce modèle peuvent être appliqués dans un cadre traditionnel d'ensembles et relations, similaire à la sémantique cohérente, mais aussi dans l'univers des algèbres de Hopf et leurs modules, c'est-à-dire dans une tradition beaucoup plus proche de l'algèbre et de la géométrie « classiques ». Il reste à établir le cadre général susceptible de mieux expliquer cette rencontre qui semble jusqu'à présent fortuite.

Philippe de Groote a montré que le calcul de Lambek non-associatif avec produit est décidable en temps polynômial. Ce résultat a été présenté lors de journées Logique et Linguistique à Rennes au mois de juillet et au ``Fifth Roma Workshop'' au mois de novembre.

Hélène Touzet s'est préoccupée de l'étude d'une classe générale d'ordres de terminaison basés sur les théorèmes de Higman et de Kruskal : les ordres de simplification. Ses investigations dans les ordres de simplification l'ont menée à des nouvelles analyses du théorème de Higman, différentes de celle de  [[8]], et à de nouveaux résultats concernant la complexité des systèmes de réécriture de mots, ou de termes, qui terminent par simplification [[26],[27]].

Les travaux d'Adam Cichon et Hélène Touzet ont conduit à la proposition d'un système de termes ordinaux [CT96]. Ces recherches ont été conduites dans un esprit « syntaxique ». Guillaume Bonfante et François Lamarche poursuivent à présent ces travaux en proposant un pendant sémantique à cette approche, à la fois pour justifier sémantiquement la syntaxe proposée par Adam Cichon et Hélène Touzet, pour simplifier cette syntaxe et enfin, pour en donner des généralisations. Guillaume Bonfante, Adam Cichon et François Lamarche ont ainsi établi le concept d'arborescence [[28]], fonctions de l'ensemble des mots sur N vers les ordinaux. Elles représentent la construction d'un ordinal à partir d'une séquence fondamentale d'ordinaux, chacun étant muni de sa séquence fondamentale, et ainsi de suite. Les arborescences sont l'objet d'une propriété universelle, propriété qui est mise à profit pour définir un lambda calcul, outil de ...calcul pour les arborescences.

Sohame Selhab s'est intéressée à la représentation de l'élimination des coupures par des systèmes de réécriture qui permettent de borner la complexité du processus de calcul. Ces travaux se sont concrétisés par l'obtention du doctorat au mois de mai 1998 [[7]].

Complexité implicite des calculs

La genèse de la complexité implicite des calculs (que nous abrègerons CIC dans la suite) remonte d'une part aux années 30, lorsque la notion de calculabilité a été découverte, et d'autre part aux années 70 lorsque la théorie de la complexité a pris son essort. La CIC étudie la structure de la complexité algorithmique, qui est le plus souvent mesurée en temps ou en espace nécessaire à un calcul. Des critères syntaxiques applicables aux algorithmes d'une classe donnée (primitive récursive, $ \lambda$-calcul, système T) ont été développés dans cette optique. Ils permettent d'assurer le bon comportement d'un algorithme en terme d'utilisation de ses ressources et possèdent la propriété de complétude en ce sens que, pour ne prendre que cet exemple, toutes les fonctions calculables en temps polynômial peuvent effectivement soustraire aux critères caractérisant la classe des algorithmes polynômiaux. L'engouement rencontré par cette approche s'explique en grande partie par l'apparente simplicité des critères proposés qui s'appuient essentiellement sur la différenciation du rôle des données dans un calcul. Cette notion a été découverte, d'une part par Harold Simmons [Sim88] et d'autre part Stephen Bellantoni & Stephen Cook [BC92], et Daniel Leivant [Lei94]. La séduction de cette théorie se reflète, aussi, dans ses origines car ces découvertes suggèrent un lien délicat entre la calculabilité classique, qui a des fondements mathématiques stables, et la notion de calcul.

De nombreuses caractérisations de classes de complexité ont été récemment obtenues [LM93a,LM93b,LM94] [[13]]. La fécondité de cette approche s'explique par l'aspect purement syntaxique, et donc décidable, des conditions imposées à un algorithme pour garantir son appartenance à une classe de complexité donnée.

Dans le cadre de la construction de logiciel certifié, généralement obtenu par l'isomorphisme ``proofs as programms'', la complexité du programme extrait d'une preuve doit être bornée. A quoi servirait un programme sûr qui ne terminerait jamais par manque ou par épuisement de ses ressources de calcul ? Pour cette raison, une tentative de réponse est apportée dans le système NUPRL. L'apport de la CIC est un cadre pour raisonner sur la complexité des calculs.

D. Leivant et JY Marion, ont caractérisé la classe des fonctions calculables en espace polynômial ( PSPACE) par des fonctionnelles définies sur trois niveaux [LM97] [[14]]. Ces niveaux assignés aux données marquent leur rôle dans le calcul, ce que nous pouvons expliquer comme suit: lorsqu'une fonction est définie par récurrence sur un argument, alors le niveau de cet argument, disons p, doit être strictement supérieur au niveau q du résultat de la fonction, i.e. q < p. De façon imagée, nous pourrions dire qu'un résultat obtenu par récurrence a un coût, et que ce prix à payer est la différence p - q.

Dans [[13]], D. Leivant et JY Marion ont caractérisé la classe de fonctions ALOGTIME = NC1. Une fonction est dans NC1 si d'une part, un bit de sa sortie est obtenu par un calcul parallèle (circuits booléens uniformes) qui utilise un nombre polynômial de processeurs et dont le temps de calcul est logarithmique, et si, d'autre part, la taille de sa sortie est bornée polynômialement. Les mesures sont prises relativement à la taille de l'entrée. Pour ce faire, nous avons considéré des algorithmes construits sur un schéma de récurrence, sur les arbres, avec substitution de paramètre.

L'identification de la complexité du calcul par sa preuve de terminaison est un sujet qui nous intéresse particulièrement. En effet, dans [[19],[32]], nous avons établi une relation entre la complexité d'un système de réécriture et sa preuve de terminaison lorsque celle-ci s'appuie sur les interprétations polynômiales.

interprétation des constructeurs n-aires Confluent Non-Confluent
Sorte 0 : $ \sum_{i=1}^{n}$Xi + $ \gamma$ PTIME NPTIME
Sorte 1 : $ \sum_{i=1}^{n}$$ \alpha_{i}^{}$Xi + $ \gamma$ ETIME NETIME
Sorte 2 : $ \sum_{i=1}^{n}$$ \alpha_{i}^{}$Xi$\scriptstyle \beta_{i}$ + $ \gamma$ E2TIME NE2TIME
Sorte 3 : $ \sum_{i=1}^{n}$2Xi + $ \gamma$ DTIME( exp$\scriptstyle \infty$ DTIME( exp$\scriptstyle \infty$


Résumé des résultats
$ \mbox{$\mathrm{exp}_\infty$}$(0) = 2 et $ \mbox{$\mathrm{exp}_\infty$}$(n + 1) = 2exp$\scriptscriptstyle \infty$(n)

Adam Cichon a soumis un article, en collaboration avec Elias Tahhan-Bittar de l'université Simon Bolivar au Venezuela, au 11ème SLALM (XI Simposio Latinoamericano de Logica Matematica), sur une caractérisation de la hiérarchie de Grzegorczyk [[29]].

Outre l'aspect extensionnel, il est important de se préoccuper des algorithmes, ce qui est un sujet difficile. Quelle est la relation entre la ``qualité'' des algorithmes et l'ordre de terminaison associé à cette sorte d'algorithme, pour une classe de fonction donnée, comme disons PTIME ? Cette question est motivée par le fait que pour raisonner sur la complexité d'une fonction, il faut pouvoir envisager différents algorithmes pour répondre aux besoins pratiques. C'est dans cette perspective que la collaboration avec Karl-Heinz Niggl, lors de son séjour au LORIA, s'est établie. Nous avons étudié les possibilités de construire un système de typage qui engloberait les fonctions définies par les algorithmes usuels, et qui sont calculables en temps polynômial [[33]].

Théorie algorithmique de l'information

La théorie algorithmique de l'information (AIT), connue aussi sous le nom de complexité de Kolmogorov, est actuellement l'objet d'un grand engouement de chercheurs venant de nombreux pays et de nombreuses disciplines. Nous organiserons les troisièmes journées sur l'AIT au LORIA en 1999. La complexité de Kolmogorov d'un objet (d'une séquence binaire qui le code) est la longueur d'un plus petit programme qui l'engendre ; cet entier prend dans cette théorie le sens du contenu en information de la séquence. On appelle ce type d'information information algorithmique. La théorie développée à partir de cette idée éclaire et enrichit de nombreux domaines (l'analyse d'algorithmes évidemment où elle est par la méthode d'incompressibilité un substitut aux approches combinatoires et de dénombrement, la théorie des langages, mais aussi l'apprentissage, la thermodynamique, la biologie, voire par effet de mode la gestion d'entreprises).

Serge Grigorieff et Jean-Yves Marion [[31]] ont démontré qu'il n'était pas possible de quantifier l'information d'un objet produit par un calcul non-déterministe dans toute sa généralité. En limitant uniformément le nombre d'objets produits par un programme, ils ont cependant établi l'existence d'une mesure universelle de l'information. Cette mesure définit une hiérarchie stricte qui montre que l'augmentation du degré de non-déterminisme permet de comprimer plus efficacement.

Jérôme Besombes a fait son mémoire de DEA, sous la direction de Jean-Yves Marion sur l'AIT.



previous up next contents
Précédent : Logique linéaire et grammaires formelles Remonter : Résultats nouveaux Suivant : Contrats industriels (nationaux, européens et