Bonjour,
dans les perceptrons multicouches, pour calculer le gradient des sorties de chaque neurone lors de l'apprentissage (algorithme de rétropropagation du gradient), on utilise le fait que (f o g)' = f'(g).g'
mais également une formule dont j'ai finalement trouvé une démonstration par récurrence, mais j'aimerais savoir s'il n'existerait pas une démonstration plus simple :
où E est l'erreur du réseau (différence au carré entre la sortie obtenue, et la sortie désirée) , z est la sortie d'un neurone, y la somme des entrées ( z = f(y) avec f : tangeante hyperbolique le plus souvent) et aji le poids de chaque entrée, et L le numéros de la couche considérée
la sortie d'un réseau de neurone se calculant à partir de ses entrées de cette manière:
avec des matrices de tailles différentes (correspondant au nombre de neurones de chaque couche)
et f : (y1,y2, ..., yk) --> (tanh(y1),tanh(y2),....,tanh(y k))
merci d'avance
-----