Bonjour à tous,

Voici mon problème d'optimisation :

J'ai la fonction entropie relative est une distribution de référence.
J'ai un convexe fermé défini par des contraintes linéaires et le cône positif convexe fermé .
Je veux résoudre numériquement sur non vide sans passer par une reformulation du problème avec les multiplicateurs de lagrange. Je souhaite utiliser l'algorithme gradient proximal qui se rapproche de l'algorithme gradient projeté. L'idée consiste à itérer de la façon suivante en effectuant deux projections successives :
avec correctement choisis.
Les projections sucessives sont préférables car les formules de projection sont explicites, alors qu'une projection est plus délicate...La projection me permet de ne pas violer la condition de positivité lors du calcul de . Dans la pratique, cela converge vers une solution numérique qui se trouve bien dans . Mes question sont :
1. Est-ce que la minimisation de par rapport au convexe fermé alternant avec une simple projection sur le cône positif $K$ assure de converger ?
2. Si c'est le cas, cette convergence dans est-elle due au simple fait que le minimum de sur est forcément dans ?


Je vous remercie pour toute information ou simple avis

Cdlt