Je regardais un cycle de 7 vidéos consacrées à un tout autre domaine de la physique, à savoir la courbure de Ricci (celle-ci intervient notamment en relativité générale), quand je suis tombé sur une petite partie qui traitait justement de l'entropie de Boltzman et de la théorie de l'information. Il s'agit visiblement pour le conférencier d'aller chercher un résultat qui lui sera utile par la suite.
J'ai hésité avant d'en parler ici, car contrairement aux autres parties dont l'exposé est beaucoup plus fluide, le conférencier a plusieurs fois recours à ses notes.
Néanmoins, j'ai appris plusieurs choses sur la théorie de l'information et qui vont dans le sens de ce que je subodorais. Attention, je ne dis pas que la théorie de l'information n'est "que" cela, mais (de ce que j'en ai compris en tout cas), c'est au moins cela.
Ce que Cédric Villani (médaille Fields 2010) explique c'est que la mesure de l'entropie d'un système (macroscopique) nous informe sur le contenu (microscopique) de ce système. Elle est la, l'information fournie par l'entropie.
Un peu plus tard, il compare les différentes entropies et parle de celle de Shannon. D'abord, il restreint celle-ci à un exemple de message codé et ensuite, il lui donne le même sens. C'est à dire une mesure qui informe sur le contenu du système.
Et il donne également un sens "physique" à la fonction H.
Pour être complet, une personne du public lui fait remarquer à un moment donné que l'expression qu'il a utilisé n'inclut pas le transport. Mais la réponse que C. Villani donne ne (me) laisse pas entrevoir un pan entier de la théorie qui soudain ferait intervenir "une information échangée entre des systèmes" ou "un sens du temps caché jusqu'ici".
La partie intéressante se trouve au début (juste après une petite mise au point de 5 minutes) de la 4ème vidéo des 7 vidéos de 2h chacune.
Lien vers la vidéo : https://www.youtube.com/watch?v=c_jqy-3Bnsk
-----