Précédent : Méthodes de quasi-Newton en optimisation
Remonter : Actions de recherche Suivant :
Synthèse d'un correcteur par retour
Avec Paul Armand (Univ. de Limoges), nous avons revisité le problème de la recherche linéaire pour la minimisation de fonctions sans contrainte, technique par laquelle on détermine un pas le long des directions de descente de la fonction (voir [16] ). Nous avons introduit un nouvel algorithme, dérivé de la ``recherche linéaire brisée'' utilisée en optimisation sous contraintes d'égalité [8]. Cet algorithme permet de vérifier différentes conditions forçant la convergence des algorithmes de descente (conditions d'Armijo, de Wolfe, d'Al-Baali, etc). En particulier elle permet de déterminer un pas assurant la descente des directions générées par la méthode du gradient conjugué de Polak-Ribière et d'obtenir la convergence de la méthode pour les fonctions fortement convexes, sans faire de recherche linéaire exacte.