Bonjour,
Dans le cadre d'un projet de synthèse, je dois m'intéresser à la théorie de l'information. J'essaie donc de bien comprendre les notions fondamentales sous-jacentes, et j'ai quelques questions sur le sujet.
Quand on essaie de définir l'entropie de Shannon à l'aide d'une approche heuristique, on peut lire : "plus un message est probable, moins il apporte d'information". Puis, on posera , H en bits, avec . Ce qui signifie donc que la quantité d'information apportée par un message ne dépend finalement pas du message reçu.1re question : Entropie de Shannon = espérance ?
Or, dans sa forme, H semble être une espérance. Je m'étais donc imaginé que la réception du message apportait (en bits) information, et que la réception d'un message quelconque apporte en moyenne H. Mais je n'ai trouvé nulle part pareil raisonnement ; je me dis que le mien est sûrement faux. Pouvez-vous m'éclairer là-dessus svp ?
Similairement, l'entropie en thermodynamique est, d'après la célèbre formule de Boltzmann, proportionnelle au logarithme du nombre de microétats dans lequel le système peut se trouver. Mais comment définit-on un microétat ? Est-ce la donnée de tous les couples (position, quantité de mouvement) ? Dans ce cas, si l'espace est continu, ne devrait-on pas avoir une infinité (et même, une infinité indénombrable !) de microétats possibles ? Et d'ailleurs, d'après l'inégalité de Heisenberg, cette donnée n'est même pas accessible… donc je sèche un peu2e question : Entropie thermodynamique en physique statistique : nombre de microétats ?
J'ai essayé de comprendre comment se définissait l'entropie en physique statistique ; en dehors du de la question précédente, l'autre terme fondamental est la constante de Boltzmann, qu'on nous dit valoir . Mais qu'est-ce que le kelvin ? Sa définition requiert de se placer au point triple de l'eau, dans un diagramme température-pression. Qu'est-ce que la température alors ? Une dérivée de l'énergie interne par rapport à… l'entropie3e question : Entropie et température thermodynamiques = problème de l'œuf et de la poule ?
Bref, j'ai l'impression qu'il y a là un serpent qui se mord la queue…
Si les notions d'entropie, qu'il s'agisse de S ou de H, sont similaires, alors S devrait se mesurer "sans unité" (à la base du logarithme utilisé près : bits, trits, nats, et j'en passe). La constante de Boltzmann devrait donc être adimensionnée, ce qui signifie que la température, finalement, ne serait que la mesure d'une énergie (ce qui semble logique, si la température relève l'agitation thermique, donc l'énergie cinétique). Mais comme il n'est pas dans mes habitudes de prendre les physiciens pour des idiots, je me dis qu'ils ont une bonne raison de faire autrement.
Pouvez-vous m'éclairer sur l'une ou plusieurs de ces questions, svp ?
-----