Bonjour à tous,
Voici mon problème d'optimisation :
J'ai la fonction entropie relativeoù
est une distribution de référence.
J'ai un convexe fermé défini par des contraintes linéaireset le cône positif convexe fermé
.
Je veux résoudre numériquementsur
non vide sans passer par une reformulation du problème avec les multiplicateurs de lagrange. Je souhaite utiliser l'algorithme gradient proximal qui se rapproche de l'algorithme gradient projeté. L'idée consiste à itérer de la façon suivante en effectuant deux projections successives :
avec
correctement choisis.
Les projections sucessives sont préférables car les formules de projection sont explicites, alors qu'une projectionest plus délicate...La projection
me permet de ne pas violer la condition de positivité lors du calcul de
. Dans la pratique, cela converge vers une solution numérique qui se trouve bien dans
. Mes question sont :
1. Est-ce que la minimisation depar rapport au convexe fermé
alternant avec une simple projection sur le cône positif $K$ assure de converger
?
2. Si c'est le cas, cette convergence dansest-elle due au simple fait que le minimum de
sur
est forcément dans
?
Je vous remercie pour toute information ou simple avis
Cdlt
-----