Bonjour,


Citation Envoyé par Paradigm Voir le message
Dans le cadre de la théorie de l'information la relation est clairement défini et ce n'est pas une analogie. L'entropie est défini comme l'espérance mathématique de l'information propre.

Il en est de même pour l'entropie de Boltzmann. Voir le fichier joint.

Cordialement
merci pour le fichier, dans lequel on peut lire, ""La théorie de l'information de Shannon permet d'interpréter l'entropie d'un système thermodynamique comme l’information objectivement manquante...""

L'entropie mesure le nombre de possibilités microscopiques et compte la quantité d'informations nécessaire pour décrire tous les états microscopiques.

L'entropie est alors associée à la quantité d'informations que ""je suis en train d'oublier lorsque je passe du langage microscopique au langage macroscopique.""