Salut à tous.
Je suis entrain de faire un exercice de minimisation (il s'agit d'un programme non linéaire).
En gros j'ai f qui est une fonction de deux variables (x1,x2).
On a fR² -> |R (f est à valeurs réelles).
je cherche à minimiser au cours de l'exo la quantité f(x0-alpha*GRADIENT[f(x0)])
où x0 est le point de départ : x0=(2,2)
Il est écrit qu'on trouvera le minimum de la grandeur f(x0-alpha*GRADIENT[f(x0)]) quand GRADIENT[f(x0-alpha*GRADIENT[f(x0)])] . GRADIENT[f(x0)] = 0
Et je ne comprend pas pourquoi.
Pourriez vous m'éclairer ?
Merci !
-----