Augmentation de l'entropie vs. conservation de l'information
Répondre à la discussion
Affichage des résultats 1 à 6 sur 6

Augmentation de l'entropie vs. conservation de l'information



  1. #1
    invite65d14129

    Augmentation de l'entropie vs. conservation de l'information


    ------

    Bonjour,
    L'entropie de Von Newman en mécanique quantique est conservée par toute évolution unitaire. De même, en classique, la réversibilité des équations du mouvement ressemble à une conservation de l'information (l'entropie est le log du volume de l'espace des phases, qui est conservé dans un flot hamiltonien, cf. théorème de Liouville). On est donc tenté de dire que l'information est conservée (loi numéro moins 1 de la thermodynamique, selon les mots de Susskind)

    Pourtant cette information ne peut pas être exactement identifiée à l'entropie thermodynamique, puisque celle ci augmente strictement dans un processus de thermalisation (flux de chaleur d'un corps chaud vers un froid).

    Ma compréhension actuelle est qu'il faut préciser les liens entretenus entre la mesure d'information à la Shannon vs. l'entropie à la Boltzmann. J'ai des références sur le sujet, dont les articles de Jaynes, mais je me demandais si vous aviez déjà des éléments de réponses et/ou des références claires sur ce sujet (délicat!)

    Merci
    Jip

    -----

  2. #2
    invite93279690

    Re : Augmentation de l'entropie vs. conservation de l'information

    Salut,

    Comme tu le dis, toute mesure de probabilité dans l'espace des phases suit la loi de conservation de probabilité qui conduit au théorème de Liouville.

    En revanche, une autre propriété due au théorème de Liouville est que si la mesure de probabilité depend uniquement de l'energie du système, alors cette mesure est invariante sous le flot hamiltonien et c'est ainsi que l'on peut comprendre par la mécanique comment (a posteriori peut être) les mesures de probabilité de Gibbs (microcanonique et canonique) apparaissent en physique statistique d'équilibre.

    Il est a noter que l'entropie (classique ou de von Neumann) associée a un micro-etat parfaitement connu (un état quantique pur ou bien un point dans l'espace des phases) est d'une part exactement nulle et d'autre part invariante dans le temps également.

    Ainsi, si on part d'un état initial parfaitement connu, l'entropie statistique n'augmentera jamais et sera toujours nulle. Pour observer/prédire une entropie statistique qui augmente, il faut soit extraire une fraction seulement de l'information contenue dans le système, soit s'intéresser directement a des variables macroscopiques comme la probabilité marginale pour une particule quelconque d'être a un endroit donne avec une vitesse donnée (comme Boltzmann l'a fait pour l'equation qui porte son nom) ou a l'énergie moyenne par particule etc...

    Un excellent article sur le sujet est ce papier de Roger Balian.

  3. #3
    invite65d14129

    Re : Augmentation de l'entropie vs. conservation de l'information

    Merci pour la référence.

    J'entends bien que l'entropie dépend en général de la question qui est posée, ie du choix des variables décrivant le système. L'entropie du résultat du tirage d'un dé à six face dépend de si on veux savoir quel nombre est sorti, ou s'il est pair, ou impair, etc.

    Ce que je ne saisis pas bien dans le cas de la mise en contact de deux boites de gaz, l'un à température T1 et l'autre à T2, par exemple, c'est la nature exacte (ou plutôt l'aspect quantitatif) de ce changement de "variables", ou de coarse graining si on veut. Je pars d'une entropie S1(V1,T1,N1)+ S2(N2,T2,V2), et on obtient une entropie S(V,N1+N2,Teq) qui est plus grande. D'une façon ou d'une autre, on doit pouvoir en principe calculer l'augmentation de cette entropie en fonction du corase graining des variables, puisque l'entropie microscopique, elle, est strictement constante. Comment fait-on? Peut etre que la référence répondra à cette question

  4. #4
    invite65d14129

    Re : Augmentation de l'entropie vs. conservation de l'information

    Un autre exemple est la détente de Joule, lorsqu'un gaz se répand de façon irréversible dans un volume plus grand. Il faut réussir à expliquer pourquoi l'entropie au sens de Gibbs Shannon, S= Sum(-p log p) a augmenté, d'un état initial à un état final; cela ne se peut à mon avis, que parce que on a redéfini les probabilités p_i, ie. on a redéfini "les questions que l'on pose à propos du système". Est ce juste? Si oui, cela ressemble presque à de la renormalisation...? Existe t-il un formalisme systématique pour quantifier tout cela?

  5. A voir en vidéo sur Futura
  6. #5
    invite93279690

    Re : Augmentation de l'entropie vs. conservation de l'information

    Citation Envoyé par JPouille Voir le message
    Merci pour la référence.

    J'entends bien que l'entropie dépend en général de la question qui est posée, ie du choix des variables décrivant le système. L'entropie du résultat du tirage d'un dé à six face dépend de si on veux savoir quel nombre est sorti, ou s'il est pair, ou impair, etc.

    Ce que je ne saisis pas bien dans le cas de la mise en contact de deux boites de gaz, l'un à température T1 et l'autre à T2, par exemple, c'est la nature exacte (ou plutôt l'aspect quantitatif) de ce changement de "variables", ou de coarse graining si on veut. Je pars d'une entropie S1(V1,T1,N1)+ S2(N2,T2,V2), et on obtient une entropie S(V,N1+N2,Teq) qui est plus grande. D'une façon ou d'une autre, on doit pouvoir en principe calculer l'augmentation de cette entropie en fonction du corase graining des variables, puisque l'entropie microscopique, elle, est strictement constante. Comment fait-on? Peut etre que la référence répondra à cette question
    pour la mise en contact de deux systèmes thermodynamiques classiques, la variable est l'énergie cinétique par particule. On commence avec une distribution bimodale qui a une certaine entropie et on finit avec une distribution unimodale gaussienne à l'équilibre.

  7. #6
    invite93279690

    Re : Augmentation de l'entropie vs. conservation de l'information

    Citation Envoyé par JPouille Voir le message
    Un autre exemple est la détente de Joule, lorsqu'un gaz se répand de façon irréversible dans un volume plus grand. Il faut réussir à expliquer pourquoi l'entropie au sens de Gibbs Shannon, S= Sum(-p log p) a augmenté, d'un état initial à un état final; cela ne se peut à mon avis, que parce que on a redéfini les probabilités p_i, ie. on a redéfini "les questions que l'on pose à propos du système". Est ce juste? Si oui, cela ressemble presque à de la renormalisation...? Existe t-il un formalisme systématique pour quantifier tout cela?
    La question peut être formulée a partir d'une partition de la boite finale en deux partie avec un nombre N1 et N2 de particules dans chacune d'elles (avec N1+N2 = N) et en calculant l'entropie associee aux états N1 = N et N1=N2=N/5. Il se trouve juste que l'entropie est plus grande dans le deuxième cas.

    Pour moi, le formalisme systématique pour quantifier cela est le formalisme des projecteurs developpe par Swanzig et utilise par Balian dans sa revue sur les différentes entropies. La stratégie est similaire a la renormalisation a la difference que le coarse graining est fixe des le depart dans la méthode de Swanzig et on observe ensuite l'evolution des variables pertinentes en fonction du temps pour répondre aux questions qu'on se pose alors que pour la renormalisation a la Wilson le flot lui meme concerne la repetition (la plupart du temps a l'infini) d'une operation de coarse graining et on tente de trouver les points fixes de cette "evolution".

Discussions similaires

  1. Vie, entropie et information
    Par invite82acfce6 dans le forum Biologie
    Réponses: 1
    Dernier message: 12/03/2015, 19h14
  2. Information mutuelle ? Entropie conditionnelle ?
    Par invite1aa81b81 dans le forum Mathématiques du supérieur
    Réponses: 3
    Dernier message: 22/03/2013, 18h17
  3. Augmentation de l'entropie de l'Univers
    Par invitebdf515f4 dans le forum Archives
    Réponses: 28
    Dernier message: 04/07/2011, 10h25
  4. Entropie de l'Information et Observation en Physique
    Par invitedc9b3028 dans le forum Physique
    Réponses: 5
    Dernier message: 29/03/2010, 15h01
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 13h04