EN FR
EN FR




Bilateral Contracts and Grants with Industry
Bibliography




Bilateral Contracts and Grants with Industry
Bibliography


Section: New Results

Applications

Introduction

Nous présentons maintenant plusieurs travaux de nature appliquée, touchant à des domaines variés, dans lesquels nous exploitons certaines des techniques mathématiques présentées précédemment, et particulièrement celles qui relèvent de la théorie de Perron-Frobenius non-linéaire et de la convexité tropicale. Ces applications utilisent aussi des techniques d'algèbre linéaire ou d'optimisation convexe.

English version

In this section, we describe several applied works in which we use some of the theoretical tools developed by the team, including non-linear Perron-Frobenius theory and tropical convexity. Some of these applications also make an intensive use of linear algebraic and convex programming methods.

Propriétés des valeurs propres de Perron et de Floquet, et application en chronothérapeutique/Properties of Perron and Floquet eigenvalue, with an application to chronotherapeutics

Participants : Frédérique Billy [Projet BANG, Inria] , Jean Clairambault [Projet BANG, Inria] , Olivier Fercoq, Stéphane Gaubert, Thomas Lepoutre [Projet BANG puis DRACULA, Inria] .

On s'intéresse à des modèles de systèmes dynamiques monotones structurés en âge représentant la croissance de populations de cellules (saines ou tumorales), à la suite de travaux de Clairambault et Perthame. Il s'agit de comprendre l'influence du contrôle circardien sur la croissance des cellules. Dans le cas stationnaire, le taux de croissance est représenté par une valeur propre de Perron. Dans le cas périodique, il s'agit d'une valeur propre de Floquet. Les travaux [40] , [18][77] portent sur l'identification de ces modèles ainsi que sur un problème de contrôle thérapeutique, consistant à minimiser le taux de croissance des cellules tumorales sous une contrainte de non-toxicité du traitement (maintien d'une population de cellules saines). Ce travail s'appuie en particulier sur un algorithme d'optimisation de la valeur propre de Perron d'une matrice développé par Fercoq dans un autre contexte  [106] .

English version

We study monotone dynamical systems representing the growth of cells (healthy or tumoral), following a work of Clairambault and Perthame. The goal is to understand how the circadian control influences the growth of cells. In the case of stationnary monotone systems, this growth is measured by the Perron root. In the time periodic case, this Perron root is replaced by a Floquet multiplier.

The works [40] , [18][77] deal with the identification of these models, together with a therapeutic control problem, consisting in minimizing the growth rate of tumoral cells, under a non-toxicity constraint (preserving the population of healthy cells). This works relies in particular on a fast algorithm to optimize the Perron eigenvalue of a matrix, developed by Fercoq in a different context  [106] .

Équations aux dérivées partielles en dynamique des populations/Partial differential equations arising in population dynamics

Participants : Sepideh Mirrahimi, Stéphane Gaubert.

Nous étudions la limite en temps long de dynamiques des populations structurées. Il s'agit de l'étude asymptotique de l'équation suivante

t n ε -εΔn ε =n ε εR(x,I ε ),I ε (t):=ψ(x)n ε (x,t)dx.(12)

Il est connu qu'asymptotiquement, lorsque le taux de mutation est petit et en temps long, la solution de cette équation se concentre en une masse de Dirac en un point de maximum de R(·,I M ), avec I M =lim t lim ε0 I(t). Un tel point s'appelle ESS (Evolutionary stable strategy) en dynamiques adaptatives. On s'intéresse à savoir, dans le cas où le problème admet plusieurs ESS (qui correspondent à des points de maximum de R), vers quel ESS la densité va converger en temps grand. Nous essayons de répondre à cette question en supposant que le taux de mutations est important (comme dans le cas des cellules cancéreuses). Nous voudrions déterminer la limite suivante: lim ε0 lim t n ε (x,t). Une conjecture est que la limite est une masse de Dirac en un point x M x M est le point de maximum de R(·,I M ) au voisinage duquel R(x,I M ) est plus plat (une fonction F dépendant de la hessienne de R est maximisée en x M ). Celle-ci est motivée d'une part par un travail de M. Akian, R. Bapat et S. Gaubert, montrant à l'aide d'outils de théorie spectrale max-plus qu'une propriété analogue est vraie en dimension finie (convergence du vecteur propre de Perron de matrices dont les coefficients sont de la forme exp(A ij /ε)), et d'autre part par des travaux reliés en théorie de KAM faible (les points de maximum de R correspondent à l'ensemble d'Aubry projeté). L'objectif est donc ici de déterminer quel vecteur propre du problème ergodique est sélectionné à la limite visqueuse.

Nous avons déjà identifié la limite lorsque le taux de mutations tend vers 0 (ε0) en partant de la solution stationnaire de (12 ). Il nous reste à démontrer que la solution de (12 ) converge en temps long vers la solution stationnaire. L'analogue discret de ce problème est également une question ouverte à laquelle on s'intéresse.

English version

We study the long-time asymptotic behaviour of structured population models. We consider specially the PDE (12 ). It is known that asymptotically, when the mutation rate is small, and the time horizon is large, the solution of this equation concentrates to a Dirac mass at a maximum point of R(·,I M ), with I M =lim t lim ε0 I(t). Such a limit point is called ESS (Evolutionary stable strategy) in the field of adaptative dynamics. We are interested to know, when there are several ESS (corresponding to several points of maximum of R), to which ESS the density will converge as the horizon tends to infinity. We are studying this question in particular when the mutation rate is large (as in the case of tumor cells), leading to compute the following limit: lim ε0 lim t n ε (x,t). We made a conjecture that the limit is a Dirac mass at a point x M where among the points of maximum of R(·,I M ), x M is the one at which R(x,I M ) is the “flatest” (an auxiliary function F depending on the Hessian of R is maximized at point x M ). This is motivated on the one hand by a previous work of M. Akian, R. Bapat and S. Gaubert, showing, through max-plus spectral theory, that an analogous property does hold in finite dimension (convergence of the Perron eigenvector of matrices with coefficients exp(A ij /ε)), and on the other hand, by related works in weak KAM theory (the points of maximum of R correspond to the projected Aubry set); these works determine the eigenvector of the ergodic problem which is selected by the viscous limit.

We already identified the limit when the mutation rate tends to 0 (ε0), starting from the stationnary solution of (12 ). We still need to show that the solution of (12 ) does converge in large time to the stationnary solution. Even the discrete analogue of this problem is an open issue, which we are studying.

Analyse statique de programmes et itération sur les politiques/Static analysis of computer programs and policy iteration

Participants : Assale Adjé [LSV, ENS Cachan] , Stéphane Gaubert, Eric Goubault [CEA] .

On applique ici des méthodes de théorie des jeux et d'optimisation (analyse convexe abstraite, programmation convexe et non convexe) aux problèmes de point fixe intervenant en analyse statique de programme. On a introduit dans [13] un nouveau domaine en analyse statique, qui étend au cas non-linéaire le domaine des “gabarits” introduit par Manna, Sankaranarayanan, and Sipma  [166] . Ce domaine permet de représenter des ensembles accessibles non-convexes (définis par un nombre fini d'inégalités prises dans un dictionnaire). Ceci permet d'intégrer en particulier des informations liées à l'existence de fonctions de Lyapunov, qui sont souvent connues dans les applications issues de l'ingénierie. Nous avons montré dans [13] que des invariants (expérimentalement précis) pouvaient être obtenus en couplant l'itération sur les politiques avec des relaxations de Shor (relaxations SDP de problèmes quadratiques non-convexes), ce qui fournit des abstractions précises de certains programmes numériques (ex: filtres avec seuils).

Un problème important consiste à déterminer le plus petit point fixe (l'algorithme de [13] fournit un point fixe, qui peut ne pas être minimal). Ce problème est abordé dans [26] , où l'approche de [13] est comparée avec une approche duale développée par Gawlitza et Seidl.

English version

We apply methods from game theory and optimization (generalized duality, convex and non convex programming) to the fixed point problems arising in static analysis of programs by abstract interpretation. We introduced in [13] a new domain in static analysis, which extends to nonlinear cases the “templates” introduced by Manna, Sankaranarayanan, and Sipma  [166] . This domain allows one to represent accessible sets that are non convex. These are defined by finitely many inequalities taken from a dictionnary. This allows one to use in particular the information provided by Lyapunov functions, which are often known in applications arising from engineering. We showed in [13] that experimentally accurate invariants can be obtained by coupling policy iteration with Shor relaxation (SDP relaxation of convex programming problems). This yields accurate abstractions of some numerical programs, like linear filters with thresholds.

An important problem consists in determining the smallest fixed point (the algorithm of [13] yields a possibly non minimal fixed point). This problem is addressed in [26] , in which the approach of [13] is compared with a dual approach developed by Gawlitza and Seidl.

Optimisation du référencement sur la toile/Optimization of web referencing

Participants : Marianne Akian, Mustapha Bouhtou [Orange Labs] , Olivier Fercoq, Stéphane Gaubert.

La thèse d'O. Fercoq [12] , co-encadrée par M. Akian, M. Bouhtou, et S. Gaubert, financée par un CRE d'Orange Labs, avait pour but d'appliquer des méthodes d'optimisation et de théorie des jeux à l'optimisation de services en lignes. On a tout d'abord étudié le problème de l'optimisation du référencement, que l'on formalise en se donnant par exemple un ensemble d'hyperliens et de ressources obligatoires, dont la nature et la position sur le site web sont déterminées à l'avance par le concepteur. Cet ensemble forme en quelque sorte le squelette du site web. On se donne aussi un ensemble d'hyperliens ou de ressources facultatives, pour lesquels le concepteur du site a certains degrés de liberté (le lien ou le contenu peut être mis sur une page plutôt qu'une autre, voire être omis).

Dans [20] , on aborde le problème de l'optimisation du “Pagerank” dans ce cadre, en appliquant des techniques de décision Markovienne classiques et sous-contraintes. Le problème peut en effet se ramener à un problème de contrôle ergodique ou de contrôle ergodique sous contraintes (ergodiques), selon que les contraintes sur les hyperliens sont locales à chaque page ou font intervenir plusieurs pages. On traite à la fois le cas relaxé où les probabilités de passage d'une page à une autre peuvent être des rééls positifs quelconques (on peut par exemple supposer que cette probabilité dépend de la position et des caractères utilisés pour l'hyperlien correspondant) et le cas discret où ces probabilités sont uniformes parmis celles qui sont strictement positives (comme dans la modélisation classique conduisant au calcul du Pagerank). On montre que cette famille de problèmes correspondent à des problèmes de programmation dynamique avec un nombre exponentiel de contrôles, mais où les polytopes des mesures de probabilités de transition admettent des oracles de séparation polynômiaux. On obtient de la sorte des résultats de complexité, ainsi que, sous certaines hypothèses, des algorithmes adaptés à des instances de grande taille, couplant programmation dynamique et relaxation Lagrangienne. Ces algorithmes ont été testés sur un fragment du graphe du web.

Un critère de référencement classique, alternatif au pagerank, est donné par le vecteur propre de Perron, comme dans le cas de l'algorithme “HITS” de Kleinberg. O. Fercoq a abordé le problème associé d'optimisation du référencement, qui se révèle plus difficile que celui du pagerank, en raison de l'absence de propriété de convexité. Cependant, il a développé un algorithme rapide et creux (basé sur des propriétés de rang 1 d'opérateurs intervenant dans le calcul de dérivées du critère) permettant de calculer un optimum local du référencement  [106] .

O. Fercoq a aussi donné un algorithme analogue pour optimiser le score “HOTS” de Tomlin [38] . Cependant, la convergence de l'algorithme original de HOTS n'avait jamais été prouvée. Dans [50] , O. Fercoq a identifié le taux de convergence de l'algorithme et de plusieurs de ses variantes grâce à des techniques d'applications contractantes au sens large et aux propriétés des problèmes de flot d'entropie maximale dans un réseau.

La thèse de Fercoq comprend aussi un algorithme de classement permettant de déterminer les pages de Spam parmi un ensemble de pages douteuses, supposant connues un autre ensemble de pages repertoriées comme spam [33] . Cet algorithme exploite les techniques développées pour l'optimisation du PageRank [33] .

English version

The goal of the PhD work [12] of O. Fercoq, cosupervised by M. Akian, M. Bouhtou, and S. Gaubert, and supported by a research contract (CRE) of Orange Labs, was to apply optimization and game theory methods to the optimization of online services. We started by investigating the problem of the optimization of referencing, which we modelled by considering a family of compulsory hyperlinks and resources (fixed in advance by the website designer, these constitute the “skeletton” of the website) and also a family of facultative hyperlink or resources (some links may be ommited or some other links may be added).

In [20] , we are approaching the problem of the pagerank optimization in this framework, by applying usual and constrained Markov decision processes techniques. This problem can indeed be reduced to an ergodic control problem without or with (ergodic) constraints, depending on the fact that hyperlinks constraints are local to each web page or depend on several web pages. We study the relaxed problem where the transition probabilities from one page to another may be any positive real (one may assume for instance that this probability depends on the position and type used for the corresponding hyperlink), as well as the discrete problem where these probabilities are uniform among the positive ones (as in the usual modelisation leading to the Pagerank). We show that these problems can be reduced to dynamic programming problems with exponentially many discrete actions, in which however the polytopes of transition probability measures admit polynomial time separation oracles. We derive from this approach polynomial time complexity results, as well as under some additional assumption, scalable algorithms (adapted to large web graphs), coupling dynamic programming and Lagrange relaxation. The latter have been tested on a real subgraph of the web.

A classical alternative ranking relies on the Perron eigenvector, as in the case of the algorithm “HITS” by Kleinberg. O. Fercoq treated the associated optimisation problem, which turns out to be harder than in the pagerank case, due to the lack of convexity properties. However, he developed a fast (sparse) algorithm, exploiting the rank 1 properties of operators appearing when computing the derivative of the objective function, allowing one to compute a local optimum  [106] .

O. Fercoq also developed a similar method to optimize Tomlin's “HOTS” score [38] . However, the convergence of the original HOTS algorithm was not proved. In [50] , O. Fercoq has computed the convergence rate of the algorithm and of several of its variants, using techniques of nonexpansive mappings and properties of problems of flow with maximal entropy in a network.

The PhD thesis of Fercoq also comprises a ranking algorithm allowing one to detect spam pages [33] among dubious pages, starting from a seed (set of pages which are surely known to be spam). This algorithm relies on the Pagerank optimization techniques of [33] .

Gestion du revenu appliquée à la tarification de services données/Yield management applied to pricing of data services

Participants : Mustapha Bouhtou [Orange Labs] , Jean-Baptiste Dumont, Stéphane Gaubert.

Le travail de thèse CIFRE de J-B. Dumont, supervisée par M. Bouhtou et S. Gaubert, porte sur la tarification de services data et la gestion des ressources dans les réseaux mobiles. Celle-ci est abordée à l'aide de techniques de contrôle et d'optimisation stochastique. Dumont a développé un modèle de tarification, permettant d'analyser des mécanismes incitant les clients à reporter leur demande en dehors des periodes les plus chargées.

English version

The CIFRE PhD work of J-B. Dumont is jointly supervised by M. Bouhtou and S. Gaubert. It deals with the pricing of data services and resource allocation in mobile networks. This is addressed through stochastic control and stochastic optimization techniques. Dumont developed a model of pricing, in order to analyse incitations for customers to move their demand from loaded to less loaded time periods.

Vérification de systèmes temps-réels/Verification of real-time systems

Participants : Xavier Allamigeon, Uli Fahrenberg [IRISA] , Stéphane Gaubert, Ricardo Katz [Conicet] , Axel Legay [IRISA] , Søren Ravn [Aalborg University] .

Dans  [140] , Lu, Madsen, Milata, Ravn, Fahrenberg et Larsen ont montré que les polyèdres tropicaux peuvent être utilisés dans le cadre de l'analyse d'accessibilité d'automates temporisés. En effet, les polyèdres tropicaux expriment naturellement des invariants non-convexes, qui sont en fait des disjonctions d'invariants fournis par des DBM (difference bound matrices). A ce titre, les polyèdres tropicaux devraient permettre de réduire le nombre de disjonctions réalisées pendant l'analyse d'automates temporisés. Une limitation importante de cette approche est cependant que les polyèdres tropicaux sont topologiquement fermés, et qu'ils ne peuvent donc pas exprimer de contraintes d'inégalités strictes. Ces dernières sont néanmoins fondamentales dans l'analyse de systèmes temps-réels.

Nous avons donc développé une généralisation des polyèdres tropicaux permettant d'exprimer des contraintes mixtes, i.e. strictes ou larges. Notre approche repose sur l'utilisation d'inégalités tropicales linéaires à coefficients dans un (quotient du) semi-anneau de germes affines. Afin de réaliser des opérations sur cette nouvelle classe de polyèdres tropicaux, nous avons défini deux nouveaux algorithmes. Le premier est un analogue tropical de l'élimination de Fourier-Motzkin. Celle-ci s'applique plus généralement à des systèmes d'inégalités linéaires sur des semi-anneaux idempotents et totalement ordonnés. Le second algorithme permet de tester si un système de contraintes mixtes admet une solution. Nous montrons en effet que ce problème est équivalent en temps polynomial à la résolution d'un problème de jeux déterministes à somme nulle. Ces deux contributions nous permettent de définir les primitives requises pour l'analyse d'accessibilité d'automates temporisés.

Un autre problème important survenant dans cette application est l'élimination rapide de vecteurs linéairement dépendants (au sens tropical). Pendant son stage à Inria et au CEA (avril-juillet 2012) supervisé par X. Allamigeon, S. Gaubert et E. Goubault, S. Ravn a implémenté un algorithme dont la complexité est reliée à la taille du résultat (output-sentive complexity). Il a également implémenté une interface entre la bibliothèque TPLib et l'outil VerifyTAPN (https://launchpad.net/verifytapn ).

English version

Lu, Madsen, Milata, Ravn, Fahrenberg and Larsen have shown in  [140] that tropical polyhedra can be applied to the reachability analysis of timed automata. Indeed, tropical polyhedra naturally express non-convex invariants, which correspond to disjunctions of invariants provided by DBM (difference bound matrices). Consequently, tropical polyhedra should allow to reduce the number of disjunctions arising during the analysis of timed automata. An important limitation of this approach is that tropical polyhedra are topologically closed, and thus they cannot express strict inequality constraints. However, such constraints plays an important role in the analysis of real-time systems.

As a result, we have developed a generalization of tropical polyhedra, in order to express mixed constraints, i.e. strict or loose ones. Our approach relies on tropical linear inequalities with coefficients in a (quotient of) the semiring of affine germs. In order to perform operations on this new class of polyhedra, we have introduced two new algorithms. The first one is a tropical analog of Fourier-Moztkin elimination. In fact, it applies more generally to systems of linear inequalities over totally ordered and idempotent semirings. The second algorithm allows to test the feasability of a mixed constraint system. We indeed show that this problem is polynomial-time equivalent to solving mean payoff games. These two contributions allow to define the primitives required by the reachability analysis of timed automata.

Another important problem arising in this application is the fast elimination of linearly dependent vectors (in the tropical sense). During its internship at Inria and CEA (April-July 2012) supervised by X. Allamigeon, S. Gaubert and E. Goubault, S. Ravn has implemented an output-sensitive algorithm to eliminate such vectors. He has also implemented an interface between the library TPLib and the model-checker VerifyTAPN (https://launchpad.net/verifytapn ).