Bonjour,
La mesure de la quantité d'information d'un message se définie comme la mesure de son imprévisibilité. La source est modélisée par une variable aléatoire X avec pour espace d'épreuve un alphabet (x1, x2, x3, ..., xn). Pi est la probabilité de réaliser X = xi (Pr(X = xi)).
La quantité d'information apporté par la réalisation d'un évènement x de probabilité Pr(x) est une fonction positive et décroissante I (x) = f(Pr(x)) lié à l'incertitude de cet évènement.
L'incertitude est une mesure de probabilité qui est lié à notre connaissance sur la source. N'est elle donc pas lié à la sémantique du système d'information générateur de la source et donc la suite de symbole engendré contient cette sémantique qui permet de définir la distribution de probabilité ?
Patrick
-----