La méthode des multiplicateurs de Lagrange permet de résoudre des problèmes d’extrema avec contraintes.
Par exemple :
Recherche de max(f(x)) étant donné la contrainte c(x) = 0.
La méthode consiste à rechercher :
max(L(x)) où L(x) = f(x) – lambda * c(x) (problème « primaire »)
Ce dernier problème comporte une inconnue supplémentaire, “lambda”, le multiplicateur de Lagrange, mais il est plus simple à résoudre que le problème initial, car la contrainte a été intégrée dans la fonction à maximiser, et il « suffit » (ça ne veut pas dire que c’est forcément trivial) de rechercher les points pour lesquels les dérivées partielles de L(x) s’annulent.
Je pense avoir assez bien compris le principe des multiplicateurs de Lagrange, et la raison pour laquelle, aux extrema de f, le gradient de f doit appartenir au sous-espace orthogonal à la variété définie par la contrainte.
J’en viens donc maintenant à l’objet de ma question, qui concerne la méthode dite de la « relaxation du Lagrangien », ou encore au « problème dual » du problème primaire défini ci-dessus :
On peut considérer une fonction « teta(lambda) », définie par :
teta(lambda) = max_x (L(x, lambda))
Le problème dual du problème primaire consiste alors à déterminer lambda tel que teta(lambda) soit minimal.
Ce second problème est considéré comme plus facile que le problème primaire, sans doute parce que le nombre d’inconnues est moins grand (la recherche du minimum se fait seulement par rapport aux multiplicateurs de Lagrange).
Cependant, la raison pour laquelle le problème dual est équivalent au problème primaire reste assez obscure pour moi.
J’aimerais savoir si cette question a déjà été traitée sur ce forum, ou si quelqu’un peut m’expliquer le lien entre les deux problèmes, primaire et dual, ou encore me fournir des liens vers des articles sur le sujet.
Merci d’avance,
Attila
-----