Bonjour,
Je suis débutant en optimisation et il y a un truc que je ne comprends pas trop avec la methode de recherche d'un minimum avec l'algorithme de descente de gradient (DG).
J'ai vu qu'en optimisation il y avait des méthodes permettant de trouver un minimum global car la methode de DG ne le permet pas.
==> Mais se que je ne comprends pas c'est que si on tire un point initial au hasard un grand nombre de fois et qu'on applique la DG a chaques fois alors on arrivera bien à trouver un minimum global?
==> Qu'en pensez vous?
-----