Précédent : Logique linéaire et grammaires
formelles Remonter : Résultats nouveaux Suivant :
Contrats
industriels (nationaux, européens et
Catherine Pilière, dans le cadre de son travail de thèse,
étudie les rapports entre logique classique et opérateurs de
traitement d'exceptions à la ML. Elle travaille actuellement à
l'extension via un opérateur de point fixe, d'un formalisme
introduit par Philippe de Groote [dG95] consistant en un
-calcul simplement typé de
traitement des exceptions. Au cours de cette année, elle s'est
particulièrement attachée à établir la préservation de la
confluence du calcul [[30]] et à proposer pour
celui-ci une sémantique dénotationnelle possédant la propriété de
computational adequacy [[24]].
En collaboration avec Rick Blute et Paul Ruet, François Lamarche a construit une classe de sémantiques dénotationelles de la logique linéaire non commutative introduite dans la thèse de Paul Ruet. La difficulté du problème était d'obtenir la compatibilité entre une négation involutive et la règle d'entropie, qui induit que le tenseur commutatif implique le tenseur non commutatif. Il est intéressant de noter que les ingrédients de base de ce modèle peuvent être appliqués dans un cadre traditionnel d'ensembles et relations, similaire à la sémantique cohérente, mais aussi dans l'univers des algèbres de Hopf et leurs modules, c'est-à-dire dans une tradition beaucoup plus proche de l'algèbre et de la géométrie « classiques ». Il reste à établir le cadre général susceptible de mieux expliquer cette rencontre qui semble jusqu'à présent fortuite.
Philippe de Groote a montré que le calcul de Lambek non-associatif avec produit est décidable en temps polynômial. Ce résultat a été présenté lors de journées Logique et Linguistique à Rennes au mois de juillet et au ``Fifth Roma Workshop'' au mois de novembre.
Hélène Touzet s'est préoccupée de l'étude d'une classe générale d'ordres de terminaison basés sur les théorèmes de Higman et de Kruskal : les ordres de simplification. Ses investigations dans les ordres de simplification l'ont menée à des nouvelles analyses du théorème de Higman, différentes de celle de [[8]], et à de nouveaux résultats concernant la complexité des systèmes de réécriture de mots, ou de termes, qui terminent par simplification [[26],[27]].
Les travaux d'Adam Cichon et Hélène Touzet ont conduit à la proposition d'un système de termes ordinaux [CT96]. Ces recherches ont été conduites dans un esprit « syntaxique ». Guillaume Bonfante et François Lamarche poursuivent à présent ces travaux en proposant un pendant sémantique à cette approche, à la fois pour justifier sémantiquement la syntaxe proposée par Adam Cichon et Hélène Touzet, pour simplifier cette syntaxe et enfin, pour en donner des généralisations. Guillaume Bonfante, Adam Cichon et François Lamarche ont ainsi établi le concept d'arborescence [[28]], fonctions de l'ensemble des mots sur N vers les ordinaux. Elles représentent la construction d'un ordinal à partir d'une séquence fondamentale d'ordinaux, chacun étant muni de sa séquence fondamentale, et ainsi de suite. Les arborescences sont l'objet d'une propriété universelle, propriété qui est mise à profit pour définir un lambda calcul, outil de ...calcul pour les arborescences.
Sohame Selhab s'est intéressée à la représentation de l'élimination des coupures par des systèmes de réécriture qui permettent de borner la complexité du processus de calcul. Ces travaux se sont concrétisés par l'obtention du doctorat au mois de mai 1998 [[7]].
De nombreuses caractérisations de classes de complexité ont été récemment obtenues [LM93a,LM93b,LM94] [[13]]. La fécondité de cette approche s'explique par l'aspect purement syntaxique, et donc décidable, des conditions imposées à un algorithme pour garantir son appartenance à une classe de complexité donnée.
Dans le cadre de la construction de logiciel certifié, généralement obtenu par l'isomorphisme ``proofs as programms'', la complexité du programme extrait d'une preuve doit être bornée. A quoi servirait un programme sûr qui ne terminerait jamais par manque ou par épuisement de ses ressources de calcul ? Pour cette raison, une tentative de réponse est apportée dans le système NUPRL. L'apport de la CIC est un cadre pour raisonner sur la complexité des calculs.
D. Leivant et JY Marion, ont caractérisé la classe des fonctions calculables en espace polynômial ( PSPACE) par des fonctionnelles définies sur trois niveaux [LM97] [[14]]. Ces niveaux assignés aux données marquent leur rôle dans le calcul, ce que nous pouvons expliquer comme suit: lorsqu'une fonction est définie par récurrence sur un argument, alors le niveau de cet argument, disons p, doit être strictement supérieur au niveau q du résultat de la fonction, i.e. q < p. De façon imagée, nous pourrions dire qu'un résultat obtenu par récurrence a un coût, et que ce prix à payer est la différence p - q.
Dans [[13]], D. Leivant et JY Marion ont caractérisé la classe de fonctions ALOGTIME = NC1. Une fonction est dans NC1 si d'une part, un bit de sa sortie est obtenu par un calcul parallèle (circuits booléens uniformes) qui utilise un nombre polynômial de processeurs et dont le temps de calcul est logarithmique, et si, d'autre part, la taille de sa sortie est bornée polynômialement. Les mesures sont prises relativement à la taille de l'entrée. Pour ce faire, nous avons considéré des algorithmes construits sur un schéma de récurrence, sur les arbres, avec substitution de paramètre.
L'identification de la complexité du calcul par sa preuve de terminaison est un sujet qui nous intéresse particulièrement. En effet, dans [[19],[32]], nous avons établi une relation entre la complexité d'un système de réécriture et sa preuve de terminaison lorsque celle-ci s'appuie sur les interprétations polynômiales.
interprétation des constructeurs n-aires | Confluent | Non-Confluent |
Sorte 0 :
![]() ![]() |
PTIME | NPTIME |
Sorte 1 :
![]() ![]() ![]() |
ETIME | NETIME |
Sorte 2 :
![]() ![]() ![]() ![]() |
E2TIME | NE2TIME |
Sorte 3 :
![]() ![]() |
DTIME(
exp![]() |
DTIME(
exp![]() |
Adam Cichon a soumis un article, en collaboration avec Elias Tahhan-Bittar de l'université Simon Bolivar au Venezuela, au 11ème SLALM (XI Simposio Latinoamericano de Logica Matematica), sur une caractérisation de la hiérarchie de Grzegorczyk [[29]].
Outre l'aspect extensionnel, il est important de se préoccuper des algorithmes, ce qui est un sujet difficile. Quelle est la relation entre la ``qualité'' des algorithmes et l'ordre de terminaison associé à cette sorte d'algorithme, pour une classe de fonction donnée, comme disons PTIME ? Cette question est motivée par le fait que pour raisonner sur la complexité d'une fonction, il faut pouvoir envisager différents algorithmes pour répondre aux besoins pratiques. C'est dans cette perspective que la collaboration avec Karl-Heinz Niggl, lors de son séjour au LORIA, s'est établie. Nous avons étudié les possibilités de construire un système de typage qui engloberait les fonctions définies par les algorithmes usuels, et qui sont calculables en temps polynômial [[33]].
Serge Grigorieff et Jean-Yves Marion [[31]] ont démontré qu'il n'était pas possible de quantifier l'information d'un objet produit par un calcul non-déterministe dans toute sa généralité. En limitant uniformément le nombre d'objets produits par un programme, ils ont cependant établi l'existence d'une mesure universelle de l'information. Cette mesure définit une hiérarchie stricte qui montre que l'augmentation du degré de non-déterminisme permet de comprimer plus efficacement.
Jérôme Besombes a fait son mémoire de DEA, sous la direction de Jean-Yves Marion sur l'AIT.