Bonjour.
Lisez Entropie_de_Shannon
On y décrit l'entropie de Shannon comme la quantité d'information contenue dans un texte.
D'autre part l'entropie de von neumann apparait plus comme une mesure de l'ignorance:
elle est maximale quand on ne sait rien. sa valeur pour un systeme bipartite peut etre inferieure à la somme des entropies des deux sous-systemes.
nb lire ignorAnce dans le titre
-----