Projet : PROMATH

previous up next contents
Précédent : Optimisation dynamique Remonter : Fondements scientifiques Suivant : Logiciels


   
Commande optimale d'équations aux dérivées partielles

Le contrôle optimal des équations paraboliques est l'etude des systèmes dont l'état est modélisée par une équation parabolique (ex. équation de la chaleur), sur laquelle on peut agir au moyen d'un contrôle dans le terme source, sur la frontiere (flux exterieur) ou a l'état initial. Nous nous interessons aux cas où le contrôle n'est ni continu ni borné et notre but est d'optimiser un critére sur un horison connu ou inconnu. Nous cherchons alors a établir les conditions nécessaires d'optimalité qui devront servir pour le calcul du contrôle optimal et du temps optimal.

Soit par exemple un système dont l'état y est gouverné par:

 
$\displaystyle {\frac{\partial y}{\partial {t}}}$ + Ay = 0 dans $\displaystyle \Omega$ x ]0, T[,  $\displaystyle {\frac{\partial y}{\partial {n_A}}}$ + g(y, v) = 0 sur $\displaystyle \Gamma$ x ]0, T[,  y(0) = y0 dans $\displaystyle \Omega$, (4)

$ \Omega$ est un domaine borné de RN (avec N $ \geq$ 2) de frontière $ \Gamma$, la variable v désigne la variable du contrôle. Le problème de contrôle optimal s'écrit alors:
\begin{displaymath}% latex2html id marker 377 \inf \left\{ J(y,v)\ \vert\ v\in V... ...{eq.etat2}),\ \Phi(y)\in {\cal C} \right\}, \leqno{({\cal P})} \end{displaymath}
Le critére J peut être de la forme:
J(y, v) = $\displaystyle \int_{\Omega}^{}$$\displaystyle \int_{0}^{T}$F(x, t, y) dxdt + $\displaystyle \int_{\Gamma}^{}$$\displaystyle \int_{0}^{T}$G(s, t, y, vdsdt + $\displaystyle \int_{\Omega}^{}$L(x, y(x, T))dx,
${\cal C}$ est un sous-ensemble fermé convexe d'intérieur non vide dans C($ \overline{\Omega}$ x [0, T]). L'ensemble des contrôles admissibles Vadest un sous-ensemble fermé non vide (non nécessairement convexe) de L$\scriptstyle \sigma$($ \Gamma$ x ]0, T[) ($ \sigma$ > 2).

Les conditions d'optimalité des problèmes de contrôle optimal, gouvernés par des équations linéaires ou semilinéaires elliptiques ou paraboliques avec contraintes sur l'état, ont fait l'objet de plusieurs contributions récentes. Lorsque les données sont régulières (ensemble de contrôles admissibles convexe, dérivabilité de l'état et du critère par rapport aux variables de contrôle) la méthode du multiplicateur de Lagrange permet d'énoncer des conditions du premier ordre en exprimant la nullité du gradient du critère. Ces conditions qui font intervenir l'état adjoint du système, expriment la stationarité du hamiltonien par rapport au contrôle. Le principe de Pontryagin dit que le contrôle minimise le hamiltonien, et il est donc plus fort que les conditions du premier ordre; de plus, ce principe ne nécessite aucune hypothèse de convexité ni de dérivabilité par rapport aux variables de contrôle. Par exemple, pour les problèmes d'obstacle il est connu que l'état n'est pas dérivable par rapport au contrôle (voir paragraphe II.4); on peut trouver aussi d'autres exemples en physique. Rappelons que les premiers énoncés du principe de Pontryagin pour des problèmes en dimension infinie sont apparus dans les années 1960 et sont dûs à Butkovsky.



previous up next contents
Précédent : Optimisation dynamique Remonter : Fondements scientifiques Suivant : Logiciels