Bonjour tous,
Je vous sollicite car j'ai besoin d'aide pour la compréhensions de diverses méthodes numériques, en faite j'ai du mal à voir les differences.
Merci s'il vous plait de me corriger:
-Descente de gradient:
chercher le 0 d'une fonction à plusieurs variables où pour chaques prochaines itérations on prend la valeur donnée par la plus grande pente (gradient de la fonction).
==> Il n'y a pas d'hypotheses sur la fonction?
-gradient projeté:
c'est la meme chose mais on doit tenir n compte les contraintes liés à notre probleme par contre je ne voit pas trop comment on tient en compte cela.
==> On modifie la direction par quoi à la place du gradient?
==> Il n'y a pas d'hypotheses sur la fonction?
-gradient conjugué:
comme la descente de gradient mais on prend le gradient des résidus
==> Il n'y a pas d'hypotheses sur la fonction?
-Levenberg Marquardt:
Comme la descente de gradient mais les pas de descente sont plus précis car variables. Zero d'une fonction sans contraintes.
==> par contre la fonction d'on on cherche le minimum doit être de forme quadratique (type x²....etc) ?
-Multiplicateurs de Lagrange
Sert à trouver le minimum d'une fonction sous contrainte mais je ne comprends pas la difference avec la descente de gradient projeté.
==> Il n'y a pas d'hypotheses sur la fonction?
-Newton Raphson
sert aussi a trouver le 0 d'une fonction mais sans contraintes,
==> Il n'y a pas d'hypotheses sur la fonction?
Pour toutes les methodes on peut faire cela aussi avec des matrices et vecteurs mais la matrice doit etre symétrique mais je ne sais pas pourquoi?
==> Tous permettent de trouver un minimum local
-----