L'entropie décrit la quantité d'information ou d'ignorance?
Répondre à la discussion
Affichage des résultats 1 à 1 sur 1

L'entropie décrit la quantité d'information ou d'ignorance?



  1. #1
    invite54165721

    L'entropie décrit la quantité d'information ou d'ignorance?


    ------

    Bonjour.

    Lisez Entropie_de_Shannon
    On y décrit l'entropie de Shannon comme la quantité d'information contenue dans un texte.
    D'autre part l'entropie de von neumann apparait plus comme une mesure de l'ignorance:
    elle est maximale quand on ne sait rien. sa valeur pour un systeme bipartite peut etre inferieure à la somme des entropies des deux sous-systemes.

    nb lire ignorAnce dans le titre

    -----
    Dernière modification par albanxiii ; 07/10/2013 à 10h56. Motif: Titre corrigé

Discussions similaires

  1. Information mutuelle ? Entropie conditionnelle ?
    Par ASan78 dans le forum Mathématiques du supérieur
    Réponses: 3
    Dernier message: 22/03/2013, 17h17
  2. Probabilités quantiques, entropie, énergie & information.
    Par Ouroboros dans le forum Discussions scientifiques
    Réponses: 58
    Dernier message: 01/07/2011, 10h25
  3. Entropie de l'Information et Observation en Physique
    Par invitedc9b3028 dans le forum Physique
    Réponses: 5
    Dernier message: 29/03/2010, 14h01
  4. Entropie et information, complexité, quelle relation ?
    Par invite9cd736bc dans le forum Physique
    Réponses: 1
    Dernier message: 07/09/2009, 12h26
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 12h04