Information mutuelle ? Entropie conditionnelle ?
Répondre à la discussion
Affichage des résultats 1 à 4 sur 4

Information mutuelle ? Entropie conditionnelle ?



  1. #1
    ASan78

    Information mutuelle ? Entropie conditionnelle ?


    ------

    Bonjour,

    Je suis confronté à un problème que je n'arrive à résoudre :

    J'ai deux variables aléatoires X (variable discrète) et a (variable continue). La variable a est uniformément répartie sur un intervalle et la loi de X dépend de la variable a.

    J'aimerai quantifier (en bits par exemple) l'information apprise sur a lorsque j'apprend X. Je ne sais pas si cette quantité est donnée par l'entropie conditionnelle ou l'information mutuelle ou autre chose, peut-être ?

    Plus généralement, j'aimerai savoir quelle information j'apprend sur une réalisation de a (qui m'est inconnue) après des tirages successifs de X.

    Merci,

    ASan.

    -----

  2. #2
    NicoEnac

    Re : Information mutuelle ? Entropie conditionnelle ?

    Bonjour,

    Peut-on avoir plus de précisions quant à la dépendance de la loi de X par rapport à a svp ?
    "Quand les gens sont de mon avis, il me semble que je dois avoir tort."O.Wilde

  3. #3
    ASan78

    Re : Information mutuelle ? Entropie conditionnelle ?

    Bonjour,

    Pour être tout à fait franc, c'est un joli sac de noeuds.

    En fait, la variable a représente un angle entre 0 et pi (uniformément). X est égal au signe du sinus de la différence entre a et un angle phi fixé (inconnu entre 0 et pi aussi).

    J'aimerai savoir ce que m'apprend la connaissance de X sur la valeur de phi.

    Enjoy

    ASan.

  4. #4
    toothpick-charlie

    Re : Information mutuelle ? Entropie conditionnelle ?

    il ne vaut pas mieux raisonner en termes bayesiens ici? i.e. calculer la loi de phi sachant X ?

  5. A voir en vidéo sur Futura

Discussions similaires

  1. Réponses: 3
    Dernier message: 14/12/2012, 16h21
  2. Réponses: 4
    Dernier message: 20/09/2012, 20h52
  3. Probabilités quantiques, entropie, énergie & information.
    Par Ouroboros dans le forum Discussions scientifiques
    Réponses: 58
    Dernier message: 01/07/2011, 10h25
  4. Entropie et information, complexité, quelle relation ?
    Par invite9cd736bc dans le forum Physique
    Réponses: 1
    Dernier message: 07/09/2009, 12h26
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 12h04