Bonjour à tous,
voila j'ai un exercice sur lequel une question me bloque.
J'ai résolu a) sans problème, mais pour b) je n'arrive pas à trouver les fréquences de chaque caractère (et l'espace) donc je suis bloqué.
a) Soit une source S pouvant émettre N messages différents, de probabilités respectives a1/Q, a2/Q, …, aN/Q (avec Q la somme des ai). Ecrire l’entropie de S sous la forme E(S) = log2Q –... (à compléter).
b) On considère maintenant la source B, qui émet les caractères de la phrase de Beaumarchais : « Le mur murant Paris rend Paris murmurant » . Combien vaut l’entropie de cette source ?
NB 1 :vous ne distinguerez pas majuscules et minuscules, mais vous considèrerez que l’espace est un caractère à prendre en compte : la phrase compte donc 40 caractères.
NB 2 : Vous pouvez prendre log2 7 = 2,8, log2 5 = 2,3 et log2 3 = 1,6.
c) Quelle est la longueur moyenne des messages émis par B, si on les code par un codage de Huffman ?
Pourriez-vous m'expliquer comment on trouve les fréquences dans ce cas?
La solution est 3, 474 Sh/message mais je n'ai toujours pas réussi.
Merci d'avance.
-----