J'ai lu que l'entropie était une mesure du désordre d'un système: bon
ok, mais également une mesure de l'information manquante et la je bug ? auriez-vous plusieurs exemples de ceci car je ne comprends pas...
Merci
-----
24/05/2009, 20h03
#2
invite0fb72cf8
Date d'inscription
janvier 1970
Messages
299
Re : L'entropie
Envoyé par verdae31
Bonjour,
J'ai lu que l'entropie était une mesure du désordre d'un système: bon
ok, mais également une mesure de l'information manquante et la je bug ? auriez-vous plusieurs exemples de ceci car je ne comprends pas...
Merci
Ce ne sont que des vulgarisations du concept d'entropie. Le mieux, c'est de revenir à la bonne formule de Boltzmann pour l'entropie:
où k est la constante de Boltzmann et est le nombre d'états accessibles au système étant donné l'information dont tu disposes sur sur le système (çàd par exemple le nombre d'états accessibles tel que l'énergie totale est égale à U, ou tout ce que tu veux comme contrainte). On voit donc que c'est une mesure de la perte d'information, puisque l'entropie te dit grosso modo combien d'états correspondent à l'information limitée que tu as à disposition.
C'est également une mesure de désordre dans le sens, moins rigoureux, ou un système qui a beaucoup d'états accessibles est dans un certain sens moins ordonné.
A+
Ising
Quand le système a accès à beaucoup d'états différents, on peut dire que le système est, dans un certain sens, désordonné. De même,