L'entropie décrit la quantité d'information ou d'ignorance?
Répondre à la discussion
Affichage des résultats 1 à 1 sur 1

L'entropie décrit la quantité d'information ou d'ignorance?



  1. #1
    invite69d38f86

    L'entropie décrit la quantité d'information ou d'ignorance?


    ------

    Bonjour.

    Lisez Entropie_de_Shannon
    On y décrit l'entropie de Shannon comme la quantité d'information contenue dans un texte.
    D'autre part l'entropie de von neumann apparait plus comme une mesure de l'ignorance:
    elle est maximale quand on ne sait rien. sa valeur pour un systeme bipartite peut etre inferieure à la somme des entropies des deux sous-systemes.

    nb lire ignorAnce dans le titre

    -----
    Dernière modification par albanxiii ; 07/10/2013 à 11h56. Motif: Titre corrigé

Discussions similaires

  1. Information mutuelle ? Entropie conditionnelle ?
    Par invite1aa81b81 dans le forum Mathématiques du supérieur
    Réponses: 3
    Dernier message: 22/03/2013, 18h17
  2. Probabilités quantiques, entropie, énergie & information.
    Par invitea4732f50 dans le forum Discussions scientifiques
    Réponses: 58
    Dernier message: 01/07/2011, 11h25
  3. Entropie de l'Information et Observation en Physique
    Par invitedc9b3028 dans le forum Physique
    Réponses: 5
    Dernier message: 29/03/2010, 15h01
  4. Entropie et information, complexité, quelle relation ?
    Par invite9cd736bc dans le forum Physique
    Réponses: 1
    Dernier message: 07/09/2009, 13h26
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 13h04