Bonjour,

dans les perceptrons multicouches, pour calculer le gradient des sorties de chaque neurone lors de l'apprentissage (algorithme de rétropropagation du gradient), on utilise le fait que (f o g)' = f'(g).g'

mais également une formule dont j'ai finalement trouvé une démonstration par récurrence, mais j'aimerais savoir s'il n'existerait pas une démonstration plus simple :



où E est l'erreur du réseau (différence au carré entre la sortie obtenue, et la sortie désirée) , z est la sortie d'un neurone, y la somme des entrées ( z = f(y) avec f : tangeante hyperbolique le plus souvent) et aji le poids de chaque entrée, et L le numéros de la couche considérée

la sortie d'un réseau de neurone se calculant à partir de ses entrées de cette manière:

avec des matrices de tailles différentes (correspondant au nombre de neurones de chaque couche)

et f : (y1,y2, ..., yk) --> (tanh(y1),tanh(y2),....,tanh(y k))

merci d'avance