Bonjour à tous,
Alors après plusieurs semaines de recherches infructueuses, je me suis dit qu'on pourrait m'aider sur ce forum . Mon topic concerne un problème d'optimisation, j'ai une fonction de vraisemblance dont je dois estimer les paramètres, ceux-ci influe directement sur ma matrice de covariance (étant donné que celle-ci dépend des paramètres que j'estime). J'ai posé ma fonction NLL (negative log-likelihood autrement dit l'opposé du logarithme de ma fonction de vraisemblance), et mon gradient. J'ai d'abord utilisé la méthode BFGS (Quasi-Newton) mais après une itération, les nouveaux paramètres que j'estime font perdre la caractère semi défini positif de ma matrice de covariance(j'utilise la fonction chol de matlab qui effectue le test).
J'ai par ailleurs essayé d'exprimer l'élément générique de ma "matrice de cholesky" mais en vain, donc je me suis dit que je pourrai utiliser un algorithme d'optimisation sous contrainte qui porterait sur le spectre de ma matrice de covariance (en somme toute mes valeurs propres devront être >=0). Ma question c'est quel approche utiliser ? Faut-il que j'exprime la condition sur les valeur propre sous forme d'une équation générale ?
Toute suggestion est la bienvenue.
Je vous remercie d'avance de votre aide
-----