Bonjour,
Je recherche une formule qui quantifie l'information qu'une variable aléatoire A donne sur une variable aléatoire B, chacune étant discrète.
N'ayant rien trouvé sur Wikipedia, j'ai noté I(A,B) la formule recherchée et j'ai noirci quelques pages de mes errements, avant d'arriver à une formule :
Renseignements pris, j'ai été content de constater que cette formule existe déjà, mais déçu de voir que cela correspond à l'entropie conditionnelle H(B|A), soit "la quantité d'information nécessaire pour connaître le comportement d'une variable aléatoire B, lorsque l'on connaît exactement une variable aléatoire A".
C'est proche de ce que je recherche, mais c'est aussi l'opposé !
Quelques lectures plus tard, je tente une autre approche et je postule : I(A, B), c'est la différence entre l'entropie de B et l'entropie de B sachant A. Soit :
Comme on sait que , j'en déduis directement :
Je constate alors que cette formule est symétrique (), et ça ne me semble pas du tout intuitif : il peut arriver que A donne beaucoup d'information sur B sans que B ne donne d'information sur A !
Savez-vous si la formule que je recherche porte un nom, ou sauriez-vous m'aider à l'exprimer ?
-----