On ne peut pas transmettre l'expérience directe. C'est celle que vous vivez précisément en lisant ceci, rien d'autre.
Vous êtes tellement sûr que Galuel n'a rien compris n'est-ce pas ?Ce que n'a pas compris Galuel c'est que l'interpretation informationnelle de l'entropie est purement effective et pratique, au même titre que la statistique d'ensemble ; elle sert simplement à rendre compte de ce qui observé à notre échelle. Il semblerait super bizarre quand même que la nature en est quelque chose à fiche qu'on soit en train de l'observer (au sens stricte du terme et non pas au sens d'une interaction avec elle) ou pas.
Bon. Dans la boîte elle est où "l'interpretation informationnelle de l'entropie" dont tu parles ? Peux tu la montrer, nous la décrire, quelle est sa forme, sa couleur, ses qualités ? Comme est-elle "physiquement" ?
D'après vous est-ce que Galuel a
1) Compris ?
2) Pas Compris ?
3) Compris et pas Compris ?
4) Ni Compris ni pas Compris ?
Ou bien aucune de ces propositions n'est vraie ?
Bonsoir,
Je suis le fils mais je ne comprends plus rien...
Quelqu'un a une synthèse du sujet?
Bon weekend à tous
oui .
Pardon ?Bon. Dans la boîte elle est où "l'interpretation informationnelle de l'entropie" dont tu parles ? Peux tu la montrer, nous la décrire, quelle est sa forme, sa couleur, ses qualités ? Comme est-elle "physiquement" ?
Tu ne veux quand même pas me demander où est ce que tu parles de l'information dans le problème de la boite ?
Que l'information s'acquiert, nul ne le nie; que son acquisition la crée est tout autre chose.
En bref, que je te lise ou pas ne change rien à l'existence de ton texte.
La preuve ... on peut très bien prêcher dans le désert .... quoique, y'a peut être un insecte qui t'écoute.
Je ne comprends pas trop la question mais si tu fais reference à la contrainte induite par l'acquisition d'une nouvelle connaissance ou d'un souvenir qui va augmenter l'ordre dans le cerveau de l'observateur, je crois que Gillesh38 avait très bien répondu à cette question dans les premiers messages.
L'ordre dans le cerveau c'est ça que vous appelez l'information ? Le rangement des neurones, tout ça ?Je ne comprends pas trop la question mais si tu fais reference à la contrainte induite par l'acquisition d'une nouvelle connaissance ou d'un souvenir qui va augmenter l'ordre dans le cerveau de l'observateur, je crois que Gillesh38 avait très bien répondu à cette question dans les premiers messages.
Une information a nécessairement un support physique. Elle correspond à la configuration des constituants de ce support physique. Pour que le support physique enregistre une nouvelle information, il faut que la configuration des constituants des supports physique soit changée, ce qui requiert un travail. Un travail ne pourra être fourni au support qu'au prix d'une création d'entropie qui sera supérieure (et cela a été démontré par Szilard et Brillouin) à la baisse d'entropie du support physique de l'information.
étant donné que pour écrire une information sur un support physique, on a besoin d'un modèle (sinon on écrit n'importe quoi), ce modèle est lui-même une information, stockée dans un autre support physique tout simplement. Il n'y a que du transcodage. Sachant qu'il y aura des pertes et jamais de création d'information, l'information se comporte un peu comme l'inverse de l'entropie thermodynamique.L'information ne préexiste pas à la mesure, c'est totalement indémontrable comme position.
Reprenons l'exemple de ta boite, l'information sur son entropie préexiste : elle a une entropie donnée qu'on la mesure ou non. Cette entropie est donnée par le nombre de microétats accessible par cette boite pour son état d'énergie (qu'on sait fixée si c'est un système isolé). Lorsqu'on mesure l'entropie de la boite on ne fait que transformer une information encodée dans les constituants microscopique de la boite. En enregistrant la valeur de l'entropie de la boite sur un support quelconque, on va baisser l'entropie de ce support, mais le processus d'enregistrement générera bien plus d'entropie.
Pendant la mesure d'entropie de la boite, celle-ci changera d'état (on ne peut pas la maintenir isolée pour effectuer cette mesure, elle sera au minimum un système fermé). Son entropie sera alors différente après la mesure et on ne saura toujours rien de l'entropie de la boite à ce moment présent (on connaitra juste l'entropie qu'elle avait avant qu'on la mesure). En gros en prenant l'information sur l'entropie de la boite, on a effacé cette information de la boite et elle a été remplacé par une nouvelle, fournie par l'extérieur lors de la mesure.
voila comment j'interprète la chose
m@ch3
Never feed the troll after midnight!
L'information est-elle le support physique ? Le support physique est-il le même avant et après que l'information y soit stockée ? Comment mesurer son entropie ?
Tout le monde est d'accord avec ça ?
non, l'information elle est la configuration du support physique. Le support physique change d'état lorsqu'on y stocke une information, on modifie sa configuration. Selon le support physique il pourra y avoir de grandes différences ou des différences peu perceptible.L'information est-elle le support physique ? Le support physique est-il le même avant et après que l'information y soit stockée ? Comment mesurer son entropie ?
Par exemple si je grave un texte sur une pierre, la pierre n'est pas tout à fait la même après, elle ne pèse plus le même poids, cependant cela reste une pierre. On a juste changé la place de quelques million de milliard de milliard d'atomes qui était sur la pierre et sont maintenant dans les grains de poussières résultantes de la gravure.
Si j'écris sur une feuille, j'y dépose de l'encre d'une façon particulière, cela reste une feuille, mais s'y sont ajoutés quelques milliards de milliards d'atomes qui au départ étaient dans l'encre et sont maintenant disposé d'une façon particulière sur le papier.
Si j'enregistre un fichier sur un disque dur, je modifie les orientations de domaines magnétiques sur le disque. Je n'ajoute rien, je n'enlève rien, je ne fais que modifier des caractéristiques de la matière constituants le disque.
Dans tous ces cas de support macroscopiques stockant une information, un travail est fourni au support (une pierre ne se grave pas spontanément, une feuille ne se couvre pas d'écriture toute seule, les domaines magnétiques d'un disque dur ne changent pas de façon arbitraire tous seuls), et une très grande partie de ce travail est dissipé en chaleur : l'énergie du support ne varie pratiquement pas lors de ces changements de configurations mineurs (premier principe variation d'énergie = travail échangé + chaleur échangé). L'extérieur reçoit cette chaleur dissipée, donc de l'entropie.
La variation mineure d'énergie est due au retrait de matière (gravure sur pierre), ajout de matière (encre sur feuille), nouvelles interactions inexistantes avant l'enregistrement (interaction encre/papier, interactions entre les domaines magnétiques du disque), création de surface (gravure sur pierre)...
Tout cela sans compté la dépense d'énergie et la création d'entropie de la personne qui grave, qui écrit, les moteurs qui actionnent le disque dur et les circuits qui l'alimentent en électricité.
En contrepartie, l'entropie du support est très faiblement diminuée : on a enlevé des atomes d'endroits précis, ou alors ajouté à des endroits précis, ou alors on a modifié leurs propriétés de façon précise. Le nombre d'atomes concernés étant négligeable devant le nombre d'atomes constituant le support.
Je ne connais pas les ordres de grandeurs et le calcul doit être compliqué, mais cela a déjà été suggéré au début de la discussion et a été calculé par Szilard ou Brillouin.
m@ch3
Never feed the troll after midnight!
Piouuu, ça me fait penser à l'explication des financiers sur la crise.non, l'information elle est la configuration du support physique. Le support physique change d'état lorsqu'on y stocke une information, on modifie sa configuration. Selon le support physique il pourra y avoir de grandes différences ou des différences peu perceptible.
Par exemple si je grave un texte sur une pierre, la pierre n'est pas tout à fait la même après, elle ne pèse plus le même poids, cependant cela reste une pierre. On a juste changé la place de quelques million de milliard de milliard d'atomes qui était sur la pierre et sont maintenant dans les grains de poussières résultantes de la gravure.
Si j'écris sur une feuille, j'y dépose de l'encre d'une façon particulière, cela reste une feuille, mais s'y sont ajoutés quelques milliards de milliards d'atomes qui au départ étaient dans l'encre et sont maintenant disposé d'une façon particulière sur le papier.
Si j'enregistre un fichier sur un disque dur, je modifie les orientations de domaines magnétiques sur le disque. Je n'ajoute rien, je n'enlève rien, je ne fais que modifier des caractéristiques de la matière constituants le disque.
Dans tous ces cas de support macroscopiques stockant une information, un travail est fourni au support (une pierre ne se grave pas spontanément, une feuille ne se couvre pas d'écriture toute seule, les domaines magnétiques d'un disque dur ne changent pas de façon arbitraire tous seuls), et une très grande partie de ce travail est dissipé en chaleur : l'énergie du support ne varie pratiquement pas lors de ces changements de configurations mineurs (premier principe variation d'énergie = travail échangé + chaleur échangé). L'extérieur reçoit cette chaleur dissipée, donc de l'entropie.
La variation mineure d'énergie est due au retrait de matière (gravure sur pierre), ajout de matière (encre sur feuille), nouvelles interactions inexistantes avant l'enregistrement (interaction encre/papier, interactions entre les domaines magnétiques du disque), création de surface (gravure sur pierre)...
Tout cela sans compté la dépense d'énergie et la création d'entropie de la personne qui grave, qui écrit, les moteurs qui actionnent le disque dur et les circuits qui l'alimentent en électricité.
En contrepartie, l'entropie du support est très faiblement diminuée : on a enlevé des atomes d'endroits précis, ou alors ajouté à des endroits précis, ou alors on a modifié leurs propriétés de façon précise. Le nombre d'atomes concernés étant négligeable devant le nombre d'atomes constituant le support.
Je ne connais pas les ordres de grandeurs et le calcul doit être compliqué, mais cela a déjà été suggéré au début de la discussion et a été calculé par Szilard ou Brillouin.
C'est quoi ça ? C'est quelque chose ? Ca a quoi comme caractéristiques physiques une "configuration" ?
Et pour ça :
Tu confirmes ?
Ba moi je trouve que ce qu'il a expliqué est excellemment bien dit.
Mais bon j'imagine que tu fais partie des gens qui pensent que la crise est due aux mathematiciens .
ça peut être varié : une position, un moment cinétique, une projection de spin, une vitesse etc..C'est quoi ça ? C'est quelque chose ? Ca a quoi comme caractéristiques physiques une "configuration" ?
ben la physique c'est quand même un minimum compliqué, ce n'est pas pour rien qu'un minimum d'année d'étude est requis. Mais si tu préfère la simplicité reste dans ton monde simple de bisounours...Piouuu, ça me fait penser à l'explication des financiers sur la crise.
C'est la façon dont sont agencé les constituants d'un système. Comme bien dit par Gatsu, leurs positions, leurs vitesses, leurs spin...C'est quoi ça ? C'est quelque chose ? Ca a quoi comme caractéristiques physiques une "configuration" ?
Par exemple si on prend un système de 10 atomes empilés, il y a autant de configurations que de façons d'empiler ces 10 atomes.
Si on prend un système de 10 spins alignés, on aura par exemple comme configuration ++++++++++, ++++-+++++, ---++-+--+, etc... L'information étant dans ladite configuration.
Il y a cependant une différence fondamental entre l'information macroscopique et l'information microscopique : la deuxième ne peut pas entièrement être connue.
En effet, pour un même état macroscopique, le nombre de configuration différente mais indiscernable est absolument colossale. Par exemple 18mL d'eau dans un verre : il y a 6.1023 molécules, identiques et donc indiscernables, qui occupent des positions toujours changeante et changent constamment de vitesse. Il nous est impossible de connaitre toute l'information contenu dans ce verre, à savoir la position et la vitesse de ce nombre collosal de molécules. On ne peut que connaitre un intervalle de positions (on sait que l'eau est dans le verre, et encore une partie est en train de s'évaporer...) et une vitesse moyenne (température). Cette quantité d'information manquante sur le système est caractérisée par son entropie. Plus l'entropie d'un système est élevée, moins on en sait sur sa configuration, car il peut pour un état macroscopique donné avoir une quantité énorme de configuration différentes et indiscernables.
m@ch3
Never feed the troll after midnight!
Si il s'agit d'un système lié, alors l'énergie (et donc la masse) dépend de la configuration. La différence d'énergie est en générale très faible devant l'énergie de masse au repos, ce qui fait qu'on ne note pas de variation de masse mesurable la plupart du temps.
Certaines configurations ont la même énergie et peuvent donc être indiscernables (c'est à dire qu'on ne saura faire la différence entre elles lors d'une mesure). Il faut d'ailleurs savoir que ce sont les états qui comptent le plus de configurations indiscernables qui sont les plus probables. Si on considère une marche aléatoire du système entre toutes les configurations possibles, il y a plus de chance de le trouver dans un de ces états car ils sont représentés par plus de configurations. Ces états sont les états de plus haute entropie. Un système est donc susceptible d'évoluer spontanément d'un état de basse entropie à un état de haute entropie car cet état est plus probable. C'est là que l'entropie est créée.
ici cela devient plus subtil. Si on reste classique, la réponse est "evidemment". Si regarde coté quantique par contre, le système est dans une superposition de configurations et n'en choisi une (problème de l'effondrement de la fonction d'onde) que lorsque l'on mesure. Cela n'a que peu d'importance quand le système est macroscopique, en effet, si le système "choisi" une configuration lors de la mesure, un des états les plus probables sera obtenu, on ne pourra pas différencier cette configuration d'une autre correspondant à ce même état le plus probable qui aurait pu être "choisi" car elles sont indiscernables. En gros si la configuration du système n'était pas défini avant la mesure, l'état lui, c'est à dire ce qu'on peut en retirer comme information est déjà statistiquement présent (vu qu'il y a colossalement plus de chance -on parle d'un système macroscopique- de tomber sur une configuration qui correspond à cet état).Elle préexistait à la mesure ?
m@ch3
Never feed the troll after midnight!
La configuration a une masse qui dépend de la configuration ? Si la "configuration information" c'est "A+h" ça fait combien en grammes ? En joules ? En entropie ?Si il s'agit d'un système lié, alors l'énergie (et donc la masse) dépend de la configuration. La différence d'énergie est en générale très faible devant l'énergie de masse au repos, ce qui fait qu'on ne note pas de variation de masse mesurable la plupart du temps.
Certaines configurations ont la même énergie et peuvent donc être indiscernables (c'est à dire qu'on ne saura faire la différence entre elles lors d'une mesure). Il faut d'ailleurs savoir que ce sont les états qui comptent le plus de configurations indiscernables qui sont les plus probables. Si on considère une marche aléatoire du système entre toutes les configurations possibles, il y a plus de chance de le trouver dans un de ces états car ils sont représentés par plus de configurations. Ces états sont les états de plus haute entropie. Un système est donc susceptible d'évoluer spontanément d'un état de basse entropie à un état de haute entropie car cet état est plus probable. C'est là que l'entropie est créée.
On ne peut donc pas dire qu'il existe avant la mesure de la même façon qu'il existe après. Ou qu'il s'agit de deux états d'existence qu'on pourrait nommer avant comme "existant potentiel", et après "existant mesurable" (par ex : 99% des mesures donnerait l'état).ici cela devient plus subtil. Si on reste classique, la réponse est "evidemment". Si regarde coté quantique par contre, le système est dans une superposition de configurations et n'en choisi une (problème de l'effondrement de la fonction d'onde) que lorsque l'on mesure. Cela n'a que peu d'importance quand le système est macroscopique, en effet, si le système "choisi" une configuration lors de la mesure, un des états les plus probables sera obtenu, on ne pourra pas différencier cette configuration d'une autre correspondant à ce même état le plus probable qui aurait pu être "choisi" car elles sont indiscernables. En gros si la configuration du système n'était pas défini avant la mesure, l'état lui, c'est à dire ce qu'on peut en retirer comme information est déjà statistiquement présent (vu qu'il y a colossalement plus de chance -on parle d'un système macroscopique- de tomber sur une configuration qui correspond à cet état).
Ceci invalide donc l'assertion "l'information existe avant la mesure".
Et si l'information c'est exactement ça ça fait combien en grammes en joules en entropie ?
Et par rapport à ça comment fait-on le différentiel avant et après la mesure pour mesurer les grandeurs physiques de l'information précédente ?
non, le système à une énergie qui dépend de sa configuration.La configuration a une masse qui dépend de la configuration ?
la ça ne veut rien dire. En fait il faut sommer les énergies cinétiques et potentielles de chaque particule du système dans la configuration considérée. Cette somme est l'énergie interne du système dans cette configuration. Pour un système suffisamment grand, on aura tout un spectre d'états en fonction de l'énergie interne possible avec pour chacun de ces état un certain nombre de configurations correspondantes. L'entropie d'un état dépendra du nombre de configurations qui le représente, sous la forme :Si la "configuration information" c'est "A+h" ça fait combien en grammes ? En joules ? En entropie ?
S = k ln W
W est le nombre de configuration correspondantes à l'état donné et k la constante de Boltzmann qui convertit le résultat du logarithme en Joules/Kelvin.
rigoureusement il n'existe tel qu'on le mesure qu'au moment où on le mesure, car avant, on a une superposition des configurations et après la mesure on a modifié l'état du système (aussi infimement soit il).On ne peut donc pas dire qu'il existe avant la mesure de la même façon qu'il existe après.
oui pour l'information totale contenue dans le système (l'ensemble des positions, des vitesses, des spins de chacune des particules qui le constitue), non, pour l'information qu'on pourra en retirer. En effet l'information qu'on pourra en retirer est dans l'état le plus probable. Etat le plus probable représenté par la quasi-totalité des configurations possibles. Et quand je dis le plus probable, il ne s'agit pas de 99% ou de 99.9% mais d'un truc comme 100-101023%, on parle d'un système macroscopique. Donc la moyenne qu'on peut faire sur la superposition des configuration (qui elle existe) est égale à la mesure. Dire que l'information qu'on peut obtenir du système macroscopique est donc contenue au préalable dans sa superposition de configurations avant la mesure est une excellemment bonne approximation (ce qui n'est pas du tout le cas pour un système microscopique).Ceci invalide donc l'assertion "l'information existe avant la mesure".
m@ch3
Never feed the troll after midnight!
Ah. Mais l'information c'est quoi, le système, la configuration ? On passe de l'un à l'autre super vite là !
Sommer quoi ? O1 mesure une entropie A+h, elle est où l'information ? Elle est dans le système mesuré ou pas dans le système mesuré ? Sous quelle forme est-elle ? Quelles sont ses caractéristiques physiques en terme de masse, énergie, entropie, vitesse ... ?la ça ne veut rien dire. En fait il faut sommer les énergies cinétiques et potentielles de chaque particule du système dans la configuration considérée. Cette somme est l'énergie interne du système dans cette configuration. Pour un système suffisamment grand, on aura tout un spectre d'états en fonction de l'énergie interne possible avec pour chacun de ces état un certain nombre de configurations correspondantes. L'entropie d'un état dépendra du nombre de configurations qui le représente, sous la forme :
S = k ln W
W est le nombre de configuration correspondantes à l'état donné et k la constante de Boltzmann qui convertit le résultat du logarithme en Joules/Kelvin.
C'est ainsi.
Ca revient à avoir fait une mesure avant la mesure. "La moyenne qu'on peut faire sur la superposition des configuration (qui elle existe)" ne peut être faite sans savoir par avance ce qu'il y a dans la boîte. Je ne comprends pas cette remarque.oui pour l'information totale contenue dans le système (l'ensemble des positions, des vitesses, des spins de chacune des particules qui le constitue), non, pour l'information qu'on pourra en retirer. En effet l'information qu'on pourra en retirer est dans l'état le plus probable. Etat le plus probable représenté par la quasi-totalité des configurations possibles. Et quand je dis le plus probable, il ne s'agit pas de 99% ou de 99.9% mais d'un truc comme 100-101023%, on parle d'un système macroscopique. Donc la moyenne qu'on peut faire sur la superposition des configuration (qui elle existe) est égale à la mesure. Dire que l'information qu'on peut obtenir du système macroscopique est donc contenue au préalable dans sa superposition de configurations avant la mesure est une excellemment bonne approximation (ce qui n'est pas du tout le cas pour un système microscopique).
Si c'est pour dire qu'avant la mesure on sait que la mesure représentera cette moyenne ne permet pas de démontrer une préexistence de l'information elle même.
Essayons de calibrer le problème.
Supposons qu'on sache par avance que l'entropie à mesurer soit comprise entre 0 et E, et qu'on veuille une précision telle dans la mesure de l'entropie, que N "configurations" suffisent pour la "marquer".
Donc dans la boîte O1 mesure l'entropie, et code donc "A+h" en choisissant l'Etat qui dans ces configurations correspond à "A+h".
Que nous dit la physique quant au système minimal permettant de "stocker" ce résultat sous cette configuration précise ?
[mode sarcasme=ON]ah la la, ça veut révolutionner la physique et c'est même pas capable de suivre un texte d'explication avec les mains...[mode sarcasme=OFF]Ah. Mais l'information c'est quoi, le système, la configuration ? On passe de l'un à l'autre super vite là !
L'information c'est la configuration du système. L'information accessible pour nous par contre, c'est l'état du système.
Le système est constitué d'un très grand nombre de particules microscopiques, son énergie est donc la somme des énergies de ces particules (énergies cinétiques et potentielle). Cette somme dépend de la configuration, car pour chaque configuration on a un jeu de positions et de vitesses différent. Pour un même contenu en matière on aura plein d'état d'énergies différents possibles et donc des masses globales du système très très légèrement différentes (je rappelle que la masse n'est pas additive en toute rigueur).Sommer quoi ? O1 mesure une entropie A+h, elle est où l'information ? Elle est dans le système mesuré ou pas dans le système mesuré ? Sous quelle forme est-elle ? Quelles sont ses caractéristiques physiques en terme de masse, énergie, entropie, vitesse ... ?
Ce qu'on peut connaitre du système en temps qu'observateur macroscopique, c'est son énergie (en fait sa variation), son volume, sa température, sa forme,... Toutes ces grandeurs résument un ensemble de positions et de vitesses qui nous sont inaccessibles (la configuration).
Cet état du système est l'information accessible. L'entropie du système dépend du nombre de configurations qui donneront les mêmes grandeurs, c'est à dire qu'on ne pourra pas différencier.
l'energie, la masse, l'entropie sont de l'information sur le système (si il est possible de les mesurer...)
c'est ce qu'on appelle une prédiction. Ca fait des siècles qu'on fait des expériences et donc on sait prédire l'évolution de certains système, grace à des lois qu'on a extraites. La mesure de telles propriétés supposent que le système à évoluer d'un état passé à l'état mesuré selon les lois établies.Ca revient à avoir fait une mesure avant la mesure. "La moyenne qu'on peut faire sur la superposition des configuration (qui elle existe)" ne peut être faite sans savoir par avance ce qu'il y a dans la boîte. Je ne comprends pas cette remarque.
c'est vrai que c'est quand même bancal... mais au final, qu'est ce que ca change? l'information existe-t-elle pour qui que ce soit d'autre que nous qui l'utilisons "consciemment". C'est juste une étiquette sur quelque chose. Ce qu'il y a de concret et de physique, c'est l'énergie et l'entropie. L'information ce n'est pas "physique". Il n'y a pas de variable "information" sur laquelle on fait des calculs.Si c'est pour dire qu'avant la mesure on sait que la mesure représentera cette moyenne ne permet pas de démontrer une préexistence de l'information elle même.
On prédit des résultats à l'aide d'équations sur l'energie et l'entropie, jamais à l'aide de l'information qui est un concept dérivé, secondaire.
m@ch3
Never feed the troll after midnight!
[mode libre d'intention = ON] Galuel a-t-il 1) Compris ?, 2) pas Compris ? 3) Les deux ? 4) Ni l'un ni l'autre ? 5) Aucune des précédentes propositions n'est vraie ? [(mode libre d'intention = Off) = false]
Heureux de lire ça.
Essayons de préciser tout ça en répondant à la "calibration du problème" :
Supposons qu'on sache par avance que l'entropie à mesurer soit comprise entre 0 et E, et qu'on veuille une précision telle dans la mesure de l'entropie, que N "configurations" suffisent pour la "marquer".
Donc dans la boîte O1 mesure l'entropie, et code donc "A+h" en choisissant l'Etat qui dans ces configurations correspond à "A+h".
Que nous dit la physique quant au système minimal permettant de "stocker" ce résultat sous cette configuration précise ?
Je ne comprends pas ta phrase. Si l'état mesuré du système correspond à N configurations indiscernables, alors l'entropie est k ln N.Supposons qu'on sache par avance que l'entropie à mesurer soit comprise entre 0 et E, et qu'on veuille une précision telle dans la mesure de l'entropie, que N "configurations" suffisent pour la "marquer".
je résume ce que je me souviens de la situation évoquée: On a une boite qui est un système isolé et qui contient O1, et O2 à l'extérieur c'est ça?Donc dans la boîte O1 mesure l'entropie, et code donc "A+h" en choisissant l'Etat qui dans ces configurations correspond à "A+h".
Admettons que O1 puisse mesurer l'entropie du contenu de la boite sans se compter lui-même, il mesure l'entropie d'un système fermé (voire ouvert si O1 est un être vivant non muni de bouteilles d'oxygène et qui a donc besoin de respirer l'air de la pièce) car il peut échanger de l'énergie avec le contenu de la boite, et donc de l'entropie.
On peut connaitre l'entropie simplement en mesurant la température (et moyennant quelques calculs selon le contenu de la boite). Le problème est que pour effectuer la mesure il faut que l'observateur dans la boite lise la température et enregistre sa valeur ce qui requiert une création d'entropie (consommation de sucre pour faire fonctionner le cerveau si c'est un humain, utilisation d'une batterie si c'est une machine,...) Tout ça pour une minime diminution d'entropie négligeable pour le support d'enregistrement dans l'observateur (cerveau, disque dur...). Au bilan l'entropie de la boite a augmenté après la mesure, et donc sa température.
L'observateur O2 pour connaitre l'entropie de la boite va aussi mesurer sa température, pour se faire il devra briser l'isolation de la boite pendant le temps de mesure.
Dans aucun cas on n'aura mesuré l'entropie d'un système isolé. Et l'entropie de la boite aura changé: elle augmente si O1 mesure, elle augmente si la température extérieure est supérieure à celle de la boite lorsque O2 effectue la mesure (tandis que celle de l'extérieur baisse mais un peu moins, car O2 créé de l'entropie en mesurant). Le bilan entropique est positif dans tous les cas.
m@ch3
Never feed the troll after midnight!