Amis physiciens , bonjour
On sait que la grandeur appelée entropie et exprimant la désorganisation d'un système s'exprime sous la forme
S= k log N avec N le nombre de sous-ensembles et k la constante de Boltzmann
Mais , par ailleurs , en informatique , la notion d'information ( en bits ) se définit par la formule très voisine :
I = log N ou N est le nombre de cas possibles.
Or S exprime le désordre et ne peut que croître , alors que I exprime l'ordre et l'organisation.
Cette contradiction apparente a-t-elle une explication ou ai-je loupé quelquechose ?
Merci pour vos réponses
-----