1) Preambule informatique
L’information étant issu d’un concept de représentation je considère l’image d’une goute d’encre bien ronde représenté sous une image informatique pixelisée.
Chaque pixel sera représenté ici par une information simple par exemple 0 ou 1 suivant que le pixel est respectivement blanc ou noir
la représentation des pixels de la goutte circulaire, pour l’informaticien correspond à un algorithme simple.
Maintenant si la goutte s’étend, c’est-à-dire que ses x pixels noirs migrent à des endroits différents, la description devient plus complexe du point de vue des pixels (échelle microscopique). Les informaticiens on résolut ce problème informationnel pour garder une description macroscopique correcte (et en faire par exemple une reproduction) . En utilisant des algorithmes de compression, ils ont réduit drastiquement la quantité d’informations (la taille de l’image) sans trop changer l’aspect macroscopique de l’image.
Si on réalise l’expérience suivante qui consiste à photographier l’image de la goutte en cours de diffusion, vous verrez que la taille sur le support informatique de l’image augmentera au fur et mesure que la goutte s’étalera. Bref dans l’exemple il y a une corrélation forte entre l’augmentation de l’entropie de la goutte et la représentation informationnelle qu’en font les informaticiens.
Bien sur, l’entropie(et sa traduction en ’information) obéit à des contraintes qui sont propres au milieu (sur lequel se trouve la tache) et aux lois physiques (loi de diffusion)
2) Et...le logarithme intervient.
a) Dans l’entropie de Bolzmann, si par exemple j’ai 2 milieux ou je dois distinguer par exemple 100 états, pour l’un et 10 états pour l’autre, le mélange des 2 milieux aboutit à 100*10= 1000 ou 10²+10=10³ états. Traduit en logarithme en base 10 un mélange d’un milieu d’entropie 2 avec un milieu d’entropie 1 donne un mélange d’entropie 3. (à une constante près le résultat est identique si on utilise une autre base, par exemple le ln ou la base 2).
Rem: Les entropies de Clausius puis de Bolzmann se situent au niveau de l’énergie thermique.
b) L’approche informationnelle de shannon est plus générale. L’information est un concept plus général et a été étudié comme tel.
Supposons un dictionnaire de 1000 pages contenant chacun 1 mot. Pour distinguer ces 1000 mots (états)(10³) j’ai besoin d’une information nécessitant 3 chiffres décimaux (000 à 999). Et voilà nous nous retrouvons également avec un logarithme. (dans l’exemple 4 chiffres pour 10000 mots , etc)
On retrouve le résultat de bolzmann pour autant que les mots (les états) sont équiprobables. Ceci est vérifié dans le domaine thermique lorsque celui-ci est à l’équilibre.
Excusez-moi d’être verbeux, mais j’évite de formaliser pour me faire comprendre par un maximum de lecteurs. D’ailleurs, ma pratique me rend méfiant quand quelqu’un plaque un formalisme (même rigoureux) élaboré par un autre. Souvent c’est une façon de masquer une méconnaissance du sujet.
Que pensez-vous de cette explication pour un public niveau secondaire.?
-----