Répondre à la discussion
Affichage des résultats 1 à 2 sur 2

entropie d'une source



  1. #1
    gentil_teddy

    entropie d'une source


    ------

    Bonjour à tous,

    voila j'ai un exercice sur lequel une question me bloque.


    a) Soit une source S pouvant émettre N messages différents, de probabilités respectives a1/Q, a2/Q, …, aN/Q (avec Q la somme des ai). Ecrire l’entropie de S sous la forme E(S) = log2Q –... (à compléter).

    b) On considère maintenant la source B, qui émet les caractères de la phrase de Beaumarchais : « Le mur murant Paris rend Paris murmurant » . Combien vaut l’entropie de cette source ?

    NB 1 :vous ne distinguerez pas majuscules et minuscules, mais vous considèrerez que l’espace est un caractère à prendre en compte : la phrase compte donc 40 caractères.

    NB 2 : Vous pouvez prendre log2 7 = 2,8, log2 5 = 2,3 et log2 3 = 1,6.

    c) Quelle est la longueur moyenne des messages émis par B, si on les code par un codage de Huffman ?
    J'ai résolu a) sans problème, mais pour b) je n'arrive pas à trouver les fréquences de chaque caractère (et l'espace) donc je suis bloqué.

    Pourriez-vous m'expliquer comment on trouve les fréquences dans ce cas?

    La solution est 3, 474 Sh/message mais je n'ai toujours pas réussi.

    Merci d'avance.

    -----

  2. #2
    gentil_teddy

    Re : entropie d'une source

    Resolu! Merci à tous!

Discussions similaires

  1. Entropie d'une transformation irréversible
    Par charlie18 dans le forum Chimie
    Réponses: 6
    Dernier message: 16/04/2015, 17h38
  2. Réponses: 4
    Dernier message: 20/09/2012, 20h52
  3. Détermination d'une entropie molaire standard ?
    Par benji. dans le forum Chimie
    Réponses: 17
    Dernier message: 28/12/2009, 10h24
  4. Entropie d'une brane !
    Par invité6543212033 dans le forum Physique
    Réponses: 3
    Dernier message: 18/07/2009, 19h55
  5. Réponses: 3
    Dernier message: 09/07/2006, 00h32
Découvrez nos comparatifs produits sur l'informatique et les technologies.