Principe de conservation de l'information
Répondre à la discussion
Page 1 sur 3 12 DernièreDernière
Affichage des résultats 1 à 30 sur 78

Principe de conservation de l'information



  1. #1
    invite51d17075
    Animateur Mathématiques

    Principe de conservation de l'information


    ------

    bonjour tous,
    j'ai quelques difficultés à comprendre la nature de ce principe, en physique classique pour commencer.
    ( en laissant de coté la physique quantique de coté dans un premier temps.)

    dixit wiki:
    En physique classique, les lois de la nature sont déterministes et réversibles dans le temps. Même si une encyclopédie est brûlée, ou si un œuf tombe sur le sol et se brise, il est - en principe - parfaitement possible, à partir de l'état final, de dérouler les lois de la physique à l'envers pour reconstituer l'encyclopédie intacte, ou l’œuf non brisé. Cela implique une totale conservation de l'information, qui est traduite notamment par le théorème de Liouville. Même si l'information devient illisible et éparpillée, elle est néanmoins toujours présente et jamais détruite.

    en supposant que chacun ait droit à ses jetons de naïveté,
    je vous remercie par avance si une âme bienveillante pouvait m'éclairer un peu.
    Cordialement.

    ps: j'aurai pu être plus prolixe sur mes interrogations sous jacentes, mais je préfère m'étendre d'avantage seulement si cela s'avère nécessaire.

    -----

  2. #2
    invitec998f71d

    Re : principe de conservation de l'information

    A t on perdu de l'information sur l'histoire de l'homme au mas que de fer? la physique classique nous répond catégoriquement NON.
    Toute l'information sur son identité se trouve actuellement dans les positions et impulsions des particules. deroulez le film a l'envers en inversant toutes les impulsions et vous verrez ou il est né et de quelle mere.
    C'est la reversibilité szq equations de la mecanique classique.

  3. #3
    invite51d17075
    Animateur Mathématiques

    Re : principe de conservation de l'information

    merci de me rappeler de quoi il s'agit et du principe de la réversibilité du déterminisme....
    alors, je rentre dans un premier exemple concret :
    rien n'interdit ( il se peut que je me trompe ) que deux phénomènes produisent le même résultat.
    prenons un cas :
    deux livres brulés quasiment identiques , y compris dans leur quantité d'encre inscrite, mais aux textes différents.
    une fois réduit en cendres et autres gaz évaporés, en admettant la possibilité de remonter à la nature de ces livres.
    comment y retrouver l'information contenue dans les écrits. ( qui sont matériellement identiques )

  4. #4
    chaverondier

    Re : principe de conservation de l'information

    Citation Envoyé par ansset Voir le message
    J'ai quelques difficultés à comprendre la nature de ce principe, en physique classique pour commencer (en laissant de côté la physique quantique de côté dans un premier temps.). dixit wiki: En physique classique, les lois de la nature sont déterministes et réversibles dans le temps. Même si une encyclopédie est brûlée, ou si un œuf tombe sur le sol et se brise, il est - en principe - parfaitement possible, à partir de l'état final, de dérouler les lois de la physique à l'envers pour reconstituer l'encyclopédie intacte, ou l’œuf non brisé.

    Cela implique une totale conservation de l'information, qui est traduite notamment par le théorème de Liouville.

    Même si l'information devient illisible et éparpillée, elle est néanmoins toujours présente et jamais détruite.
    Vous soulevez une question particulièrement difficile, celle du paradoxe de l'irréversibilité et, en fait, la question de l'écoulement irréversible du temps.

    Comment des lois, apparemment réversibles du moins dans leurs formulations mathématiques, de la gravitation et de l’électromagnétisme mènent à un monde de l’irréversible ?
    • Le second principe de la thermodynamique nous dit que l'entropie d'un système isolé ne peut que croitre
    • l'équation d'évolution de Liouville et, d'une façon plus générale, l'évolution hamiltonienne des systèmes physiques isolés (que ce soit en physique classique ou en physique quantique d'ailleurs) nous dit au contraire que l'évolution des systèmes physiques isolés est unitaire, donc déterministe et isentropique, donc sans perte d'information.

    Quelle est l'explication de ce paradoxe ? En fait, une évolution irréversible, c'est une création d'entropie. Or une création d'entropie c'est une fuite d'information, mais cette perte d'information n'est pas objective. Elle est seulement intersubjective. Il s'agit de la perte d'information relative à une classe d'observateurs.

    Boltzmann s'est attaqué à la résolution de ce paradoxe. Son théorème, le théorème H de Boltzmann, prédit la diminution d'une grandeur H associée à un gaz parfait isolé (son entropie changée de signe). Cette diminution est prédite par un modèle approché de l’état du gaz, un modèle dit à une particule. L'état du gaz y est modélisé par une distribution des vitesses-positions (des molécules du gaz) dite à un corps (au lieu d'un modèle de l'état du gaz précisant la vitesse et la position pour chacune des N molécules du gaz, un point dans un espace de phase à 6N dimensions donc). Cette distribution prend place dans un espace de phase à seulement 6 dimensions : trois dimensions pour repérer la position des molécules et trois dimensions pour repérer leur vitesse (la donnée de la distribution en question permet de calculer le nombre de molécules se trouvant dans un petit "cube" à 6 dimensions, 3 dimensions d'espace et 3 dimensions de vitesse).

    La fuite d'information hors de portée de l'observateur est modélisée par l'hypothèse dite du chaos du chaos moléculaire. Elle dit que la distribution dite à deux corps (prenant place dans un espace de phase à 12 dimensions, donc un modèle de l'état du gaz moins grossier car comprenant 6 dimensions pour une particule et 6 dimensions pour une deuxième particule) est le produit des distributions (dites marginales) à un seul corps. Cette hypothèse consiste donc à considérer que ces deux distributions sont décorrélées.

    Selon l'hypothèse du chaos moléculaire, il n'y a pas de corrélation entre les distributions de vitesses des particules. Cette hypothèse ne traduit pas une fuite objective d'information par disparition de corrélation entre vitesse des paires de molécules. Elle traduit l'impossibilité dans laquelle se trouve placé l'observateur macroscopique pour accéder à cette information de corrélation entre vitesses et positions de couples de particules quelconques (cette information est trop fine pour lui être accessible).

    Voilà aussi, par exemple, ce que nous dit Gell-mann dans "The Quark and the Jaguar", Londres. Little Brown and Co, 1994, p. 218-220. :
    Un système entièrement clos, décrit de manière exacte, peut se trouver dans un grand nombre d’états distincts, souvent appelés "microétats ". En mécanique quantique, ceux-ci sont les états quantiques possibles du système. Ils sont regroupés en catégories (parfois appelées macroétats) selon des propriétés établies par une description grossière (coarse grained). Les microétats correspondant à un macroétat donné sont traités comme équivalents, ce qui fait que seul compte leur nombre. " Et Gell-Man conclut : " L’entropie et l’information sont étroitement liées. En fait, l’entropie peut être considérée comme une mesure de l’ignorance. Lorsque nous savons seulement qu’un système est dans un macroétat donné, l’entropie du macroétat mesure le degré d’ignorance à propos du microétat du système, en comptant le nombre de bits d’information additionnelle qui serait nécessaire pour le spécifier, tous les microétats dans le macroétat étant considérés comme également probables".
    Voilà ce que nous dit, dans la même veine, C. Rovelli dans "forget time"
    VI. RECOVERY OF TIME :
    The time of our experience is associated with a number of peculiar features that make it a very special physical variable. Intuitively (and imprecisely) speaking, time “flows”, we can never “go back in time”, we remember the past but not the future, and so on. Where do all these very peculiar features of the time variable come from?

    I think that these features are not mechanical. Rather they emerge at the thermodynamical level. More precisely, these are all features that emerge when we give an approximate statistical description of a system with a large number of degrees of freedom. We represent our incomplete knowledge and assumptions in terms of a statistical state ρ.

    Plus précisément, C. Rovelli, P. Martinetti et A. Connes font émerger l'écoulement irréversible du temps (c'est à dire l'apparente violation de conservation de l'information) de l'hypothèse du temps thermique, hypothèse selon laquelle la dynamique d'évolution d'un système physique donné est la dynamique engendré par un état d'équilibre spécifique. Quand il s'agit d'une théorie quantique non covariante gérée par un hamiltonien H, il s'agit de l'état de Gibbs oméga = exp(- béta H)/trace(exp(-béta H)). Ce mélange d'états modélise l'information accessible à un observateur relativement à un système d'Hamiltonien H dans un état d'équilibre à la température T = 1/(k béta). Cet observateur ne connaît pas l'état quantique du système, mais seulement la probabilité qu'il soit trouvé dans tel ou tel état d'énergie si on mesure cette énergie. L'hypothèse du temps thermique permet de faire émerger un écoulement du temps (une dynamique d'évolution des observables, le groupe modulaire) de la donnée d'une C* algèbre d'observables et d'un état oméga sur cette algèbre (un état oméga sur une algèbre d'observables est une forme linéaire positive, une fonction à valeurs positives qui à chaque observable associe sa valeur moyenne).

    Il n'y a donc pas d'irréversibilité qui soit objective. L'irréversibilité des évolutions observées à notre échelle (la violation de la loi de conservation de l'information) est seulement intersubjective.

    Un physicien défend(ait) le point de vue inverse (il est mort en 2003) : Ilya Prigogine (et isabelle Stengers). Pour Prigogine, l'irréversibilité ne doit rien à l'observateur macroscopique, elle est objective. Comment défend-il ce point de vue ?

    Prigogine signale que l'évolution des systèmes physiques isolés est, certes, déterministe (1) mais régie par une dynamique du chaos. Autrement dit, selon le principe de sensibilité aux conditions initiales propre à ce type de dynamique (effet dit papillon), une dynamique du chaos D s'écarte exponentiellement, au fil du temps, d'une dynamique D0 donnée dès que l'on fait subir une petite perturbation aux conditions initiales engendrant la dynamique D0. Comme une connaissance complète de l'état initial est impossible, Prigogine estime illégitime de raisonner sur une dynamique unique (une trajectoire unique de l'état du système dans l'espace des phases).

    C'est ça l'idée forte de Prigogine pour restaurer un statut objectif à la notion d'évolution irréversible. Prigogine considère que seuls ont un sens physique de petits voisinages d'une évolution dynamique donnée dans un espace d'évolutions. Cette approche se traduit par des modèles mathématiques élaborés où les évolutions dynamiques ne sont plus considérées isolément. De ce fait, la notion d’irréversibilité et la flèche du temps qui en découlent acquièrent (selon I. Prigogine et I. Stengers) un caractère objectif (en relation avec un effacement de l'approche déterministe des évolutions individuelles au profit d'une modélisation probabiliste d'ensembles d'évolutions).

    Toutefois, le débat est délicat. D'une façon ou d'une autre, même en tenant compte de ces considérations, on voit bien que l'irréversibilité repose sur l'accès à l'information d'un observateur. On trouvera plus de détails sur ce type de considérations dans ces deux articles de R. Balian
    Citation Envoyé par ansset Voir le message
    Je préfère m'étendre d'avantage seulement si cela s'avère nécessaire.
    Ça le sera fatalement si vous êtes vraiment intéressé par les formulations T-symétriques de la gravitation, de l'électromagnétisme, de la physique quantique, la question de l'écoulement irréversible du temps et son lien avec la violation intersubjective de la loi de conservation de l'information (violation intersubjective de la loi de conservation de l'information sans laquelle il serait impossible d'observer quoi que ce soit puisque qu'une observation est une opération irréversible d'enregistrement d'information.).

    (1) Encore que la notion de système isolé soit une idéalisation, une idéalisation commode mais très éloignée de la réalité dès que l'on s'intéresse à la physique quantique et à la décohérence).
    Dernière modification par chaverondier ; 15/07/2016 à 19h02.

  5. A voir en vidéo sur Futura
  6. #5
    invite51d17075
    Animateur Mathématiques

    Re : principe de conservation de l'information

    merci infiniment chaverondier pour votre réponse.
    je connaît un peu les écrits de Prigogine ( plus que les autres chercheurs cités ), ceci n'est pas étranger à mon questionnement.
    par exemple, sans le mentionner, le concept de chaos ( même déterministe ), était inclus dans ma question.

    votre exposé mérite une seconde lecture ( un approfondissement devrais je dire ) et je n'ai pas encore lu vos liens.
    je retiens dans un premier temps la distinction globale que vous faites:
    Citation Envoyé par chaverondier Voir le message
    ......
    Or une création d'entropie c'est une fuite d'information, mais cette perte d'information n'est pas objective. Elle est seulement intersubjective. Il s'agit de la perte d'information relative à une classe d'observateurs.
    ......
    Ça le sera fatalement si vous êtes vraiment intéressé par les formulations T-symétriques de la gravitation, de l'électromagnétisme, de la physique quantique, la question de l'écoulement irréversible du temps et son lien avec la violation intersubjective de la loi de conservation de l'information (violation intersubjective de la loi de conservation de l'information sans laquelle il serait impossible d'observer quoi que ce soit puisque qu'une observation est une opération irréversible d'enregistrement d'information.).
    de ce fait, on se retrouverait dans une réflexion qui est aussi épistémologique(*), sur la pertinence d'un principe qui serait théoriquement objectif mais serait infondé d'un point du vue intersubjectif.( si je résume correctement ).
    si la distinction de fond est là, ou du moins un de ses aspects principaux, alors je comprend mieux ma gène devant un principe qui ne s'accorderait pas avec l'intersubjectivité, ce qui me semble épistémologiquement discutable.

    pour le reste, je vais tenter de creuser les thèmes que vous avez évoquées, à commencer par les liens.
    j'avais évacué la physique quantique, mais dois je comprendre que je vais être obligé de m'y replonger ?

    Cordialement

    (*): le sujet doit il être déplacé dans ce forum selon vous ?

  7. #6
    invitec998f71d

    Re : principe de conservation de l'information

    En physique classique les conditions initials et les lois dynamiques determinent l'avenir de facon univoque. et reciproquement pour le passé. Aucun principe n'impose ue seules les derivées premoeres doibent intervenir.
    Si une fonction est udentiquement nulle pour t = 0 avec une precision infinie et s'il n'y a pas d'evolution discontinue à un ordre quelconque des derivees, la fonction etait nulle dans le passé.

  8. #7
    chaverondier

    Re : principe de conservation de l'information

    Citation Envoyé par ansset Voir le message
    Merci pour votre réponse.
    Répondre sur les sujets qui m'intéressent me permet de recueillir des informations complémentaires, parfois en tombant sur de nouveaux liens (quand je cherche à expliquer plus en détail tel ou tel point), parfois par les liens qui sont fournis par les participants à ce forum (1).

    Citation Envoyé par ansset Voir le message
    Votre exposé mérite un approfondissement et je n'ai pas encore lu vos liens.
    Le plus intéressant, ce sont justement ces liens vers les articles scientifiques traitant de notre sujet. Les détails qui y figurent permettent de donner un sens physique précis (avec un modèle mathématique détaillé) aux différents aspects évoqués.

    Citation Envoyé par ansset Voir le message
    Je retiens dans un premier temps la distinction globale que vous faites...
    ...entre second principe de la thermodynamique = écoulement irréversible du temps à caractère d'émergence thermodynamique statistique et, au contraire, loi de conservation de l'information, symétrie T et rétrocausalité (possédant, quant-à elle, un caractère moins directement accessible à l'observation et sujet à des controverses quant à la légitimité de l'emploi du qualificatif de rétrocausalité, cf. Can a Future Choice Affect a Past Measurement's Outcome?)...

    Citation Envoyé par chaverondier Voir le message
    Une création d'entropie c'est une fuite d'information. Il s'agit de la perte d'information relative à une classe d'observateurs n'ayant accès qu'à un ensemble d'observables qualifiées (pour cette raison et non pour des raisons supposément objectives) de pertinentes. Toutefois, sans cette violation intersubjective de la loi de conservation de l'information, il serait impossible d'observer quoi que ce soit puisque qu'une observation est une opération irréversible d'enregistrement d'information comme l'avait bien compris Bohr.
    Citation Envoyé par ansset Voir le message
    Je comprend mieux ma gène devant un principe [de conservation de l'information] qui serait théoriquement objectif mais serait infondé d'un point du vue intersubjectif (si je résume correctement).
    • La croissance de l'entropie des systèmes isolés repose sur la notion intersubjective d'entropie pertinente (et son pendant : une description incomplète de la "réalité"). Il s'agit d'une notion seulement intersubjective, comme en fait toute notre science puisqu'elle repose sur l'observation (donc sur la notion de phénomène irréversible comme l'avait bien compris Bohr) et non sur la notion métaphysique de "réalité en elle-même".
    • Le principe de conservation de l'information (il dit le contraire du second principe de la thermo) est la conséquence de la dynamique hamiltonienne d'évolution des systèmes physiques isolés.
    On va voir ci-dessous pourquoi on peut vraisemblablement considérer les évolutions hamiltoniennes comme pas forcément aussi respectueuses du principe de conservation de l'information qu'il n'y paraît.

    Tout d'abord, un état d'équilibre reflète, pour une classe d'observateurs implicite, un même accès à l'information et une même limitation d'accès à l'information modélisés par cet état (état = forme linéaire positive associant à toute observable sa valeur moyenne. C'est vrai tant en physique classique qu'en physique quantique (2)). D'habitude, on voit la notion d'état d'équilibre comme émergeant d'un Hamiltonien, c'est à dire comme l'unique état oméga respectant la condition dite KMS vis à vis de cette dynamique (3). Pour un système possédant un nombre fini de degrés de liberté de dynamique gérée par un Hamiltonien H, l'état KMS est l'état d'équilibre de Gibbs : oméga = (1/Z) exp(-béta H) où 1/béta = kT et Z = trace [exp(-béta H)]

    Par un renversement de point de vue on peut, au contraire, voir l'Hamiltonien H (engendrant une dynamique hamiltonienne d'opérateur d'évolution U_t = exp(-i H t/hbar) ) comme émergeant d'un état d'équilibre oméga. Si on part de la donnée d'un état oméga cela se traduit (pour un système à nombre fini de degrés de liberté et dans une théorie quantique non covariante) par H = -kT ln(Z oméga). Voilà donc que la dynamique d'évolution hamiltonienne se met à découler d'un état d'équilibre oméga, une notion à caractère thermodynamique statistique (car impliquant les limitations d'accès à l'information d'une classe d'observateurs implicite).

    D'une façon plus générale, selon Carlo Rovelli et Alain Connes, on peut exhiber une dynamique d'évolution privilégiée, même dans une théorie quantique généralement covariante, donc ne possédant pas d'Hamiltonien privilégié. Pour cela, on a seulement besoin d'un état privilégié. C'est à partir de cet état privilégié (indissociablement lié au manque d'information d'une classe d'observateurs implicite) que l'on dérive (via la théorie de Tomita Takesaki dans une C* algèbre d'observables associée au système considéré) une unique dynamique d'évolution des observables (un groupe d'automorphismes à 1 paramètre appelé groupe modulaire). L'état oméga en question est alors l'unique état d'équilibre relatif à cette dynamique d'évolution (l'état dit état KMS de cette dynamique).

    Bref, dans leur approche de la question du temps, une dynamique d'évolution des observables (dans les théories quantiques généralement covariantes ou pas) et donc l'écoulement irréversible du temps (ainsi que la violation de la conservation de l'information qui lui est indissociablement liée), sont définitivement interprétés comme de nature thermodynamique statistique (c'est à dire traduisant les limitation d'accès à l'information d'une classe d'observateurs).

    Cette limitation d'accès à l'information rejoint d'ailleurs les travaux de H. Ollivier, D. Poulin et W. Zurek sur la décohérence. On ne peut recueillir d'information que sur les pointer states, les états du système observé résistant au quantum darwinism émergeant du phénomène de décohérence (4). C'est la base du passage d'un monde quantique à un monde perçu comme classique. C'est vraisemblablement pour une raison similaire que, malgré la symétrie T, nous n'avons pas d'accès direct à la rétrocausalité et que nous n'avons pas de souvenirs "du" futur (5).

    Mezalor... l'unitarité et le déterminisme des évolutions hamiltoniennes (sur lesquels reposent le principe de conservation de l'information) découleraient d'un état d'équilibre indissociablement lié à des considérations thermodynamiques statistiques de manque d'information de l'observateur ? Le recueil d'information est indissociable d'une fuite d'information dans une poubelle : les informations classées non pertinentes (c'est la base de l'observation = enregistrement irréversible d'une information). Ce serait donc la fuite intersubjective d'information qui, d'une façon ou d'une autre, serait la gagnante ? En tout cas, il faut définitivement abandonner un réalisme naïf considérant une sorte de réalité possédant des propriétés objectives, c'est à dire indépendantes de toute considération de limitation d'accès à l'information d'une classe implicite d'observateurs (mais pas forcément le réalisme, un peu moins naïf, d'un Vaidman par exemple attribuant un caractère d'élément de réalité aux résultats de mesure faible.)

    Citation Envoyé par ansset Voir le message
    Pour le reste, je vais tenter de creuser les thèmes que vous avez évoqués, à commencer par les liens.
    Tant mieux. Il ne me semble pas possible de mener une discussion sérieuse sur ce type de sujet sans s'appuyer très fortement sur les articles scientifiques qui en traitent (dans le cas inverse, la discussion perdrait l'essentiel de son intérêt, en tout cas pour moi).

    Citation Envoyé par ansset Voir le message
    J'avais évacué la physique quantique, mais dois je comprendre que je vais être obligé de m'y replonger ?
    On n'est pas obligé de tout aborder d'un seul coup, mais je ne vois pas comment y échapper. Dans le cas inverse, on arrête la réflexion au milieu du gué. Ce serait très dommage.

    Citation Envoyé par ansset Voir le message
    (*): le sujet doit il être déplacé dans le forum épistémologie selon vous ?
    Il y a énormément à dire en restant concentrés sur les approches purement scientifiques. Ce serait risquer de s'embourber dans les discussions purement philosophiques et perdre, de ce fait, le lien avec tout ce que l'on peut dire en restant dans le cadre de modèles mathématiques basés sur des résultats d'observation et sur leur interprétation physique.

    (1) C'est par des échanges comme ceux du présent fil que j'ai eu la possibilité de prendre connaissance :
    • des travaux de Connes, Rovelli et Martinetti grâce à mtheory. Au passage, il est intéressant de noter qu'avec un passage de l'échelle de temps géométrique (celle dans laquelle le temps de Planck est une constante), à l'échelle de temps thermique (celle dans laquelle l'unité de temps vaut hbar/(kT), T étant la température de l'univers), le bigbang est rejeté vers - infini par rapport à l'instant présent. Le zéro temporel disparait parce que, au sens de l'échelle du temps thermique, il se passe de plus en plus de choses quand on remonte vers le big bang.
      .
    • des travaux de R. Balian grâce à Gatsu
      .
    • Des travaux sur la formulation T-symétrique de la physique quantique de Aharonov, Bergmann, Lebowitz et sur la mesure faible de Aharonov, Albert et Vaidman. Je suis tombé sur ces travaux en approfondissant la réflexion de Ludwig et stefjm sur le forum de physique de futura-science. Cette réflexion est en fait assez directement liée à la symétrie T et aux formulations explicitement T-symétriques de la physique, en lien avec les considérations d'énergie négative, de probabilité faible négative, de rétrocausalité des mesures fortes sur des mesures faibles antérieures ainsi qu'avec le caractère d'émergence statistique de l'écoulement irréversible du temps (donc aussi du principe de causalité et des résultats de mesure). Plus précisément, je veux évoquer la remarque de Ludwig et stefjm sur l'existence d'un seul pôle complexe dans la fonction de transfert relative à l'équation de Schrödinger d'une part et les remarques de stefjm quant à la signification physique de fréquences négatives d'autre part.
      .
    • de l'effet Sagnac et la distinction, en fait purement métaphysique, entre interprétation usuelle de la Relativité Restreinte et son interprétation au contraire lorentzienne.
      .
    • je pourrais encore allonger la liste de ce que j'ai appris par les liens qui m'ont été apportés ou suggérés par discussion sur futura-science (et même sur fr.sci.physique a une époque où ce forum était encore fréquentable. Sur le forum des sceptiques c'est surtout la conférence sur la collapsologie de Pablo Servigne, réalisée le 10 mai à la cité des sciences et de l'industrie, qui m'a appris des choses intéressantes.

    (2) La seule différence, entre l'algèbre des observables en physique quantique et l'algèbre des observables en physique classique, c'est qu'en physique classique les observables commutent (elles sont simultanément observables). En physique classique, les observables peuvent donc se modéliser comme des fonctions sur l'espace des états du système observé (une variété obtenue via la représentation de Gelfand Neimark Segal dans le cas des algèbres commutatives).

    (3) Dans le cas général, un état oméga est dit état KMS vis à vis d'une dynamique d'évolution gamma_t des observables s'il respecte les deux conditions suivantes :
    • Pour toutes les observables A et B, la fonction oméga [B gamma_t(A)] est analytique sur la bande 0 < Im(t) < béta où 1/béta = kT
    • Pour toutes les observables A et B et à tout instant t, la relation oméga [gamma_t(A) B] = oméga [B gamma_(t + i béta) (A)] est respectée
    (4) La décohérence est un phénomène d'intrication quantique du système observé avec son environnement. Ce phénomène répand (de façon extrêmement redondante) de l'information sur les pointer state d'un système donné dans l'environnement avec lequel il interagit. Si l'Hamiltonien propre du système et l'hamiltonien propre de l'environnement peuvent être négligés vis à vis du phénomène de décohérence, les pointer state sont les états propres de l'Hamiltonien d'interaction entre un système observé et son environnement. Selon un principe dit d'envariance (environment assisted invariance), les pointer states résistent au agressions de l'environnement et y prolifèrent (d'où le qualificatif de quantum darwinism). Les autres états sont détruits par la décohérence.

    (5) C'est aussi l'impossibilité d'une observation directe qui suggère de s'accrocher à l'hypothèse d'absence de probabilités (dites faibles) négatives, de masses négatives et d'énergies cinétiques négatives alors que :A mon sens, un relâchement éventuel de ces hypothèses pourrait changer un certain nombre de conclusions comme, par exemple, l'impossibilité d'un opérateur temps (mais pas seulement). Cette impossibilité, démontrée par Pauli, repose sur l'hypothèse d'une borne inférieure des énergies.

  9. #8
    invitec998f71d

    Re : principe de conservation de l'information

    La conservation de l'information concernant les trous noirs a fait l'objet de nombreux débats. Susskind a d'ailleurs écrit là dessus un petit livre tres interessants "trous noir la guerre des savants"
    Il me semble que l'information n'a pas encore accédé au rang de grandeur physique avec ses lois de conservation.
    Ca se met en place cependant avec toute la litterature sur l'information quantique.

  10. #9
    invite51d17075
    Animateur Mathématiques

    Re : principe de conservation de l'information

    @chaverondier:
    mon interprétation commence doucement à se structurer.
    dans les grandes lignes, m'apparaissent dans ce premier temps les concepts suivants à creuser :
    - distinction entre information et accès à l'information ( c'est banal mais pas que ), auquel il faut ajouter la dimension statistique de l'information.
    - la notion d'échelle de complexité de la structure observée ( je ne parle pas simplement du saut de paradigme quantique/classique )
    - celle du temps thermique, qui me pousse à approfondir d'avantage.
    Citation Envoyé par chaverondier Voir le message
    (5) C'est aussi l'impossibilité d'une observation directe qui suggère de s'accrocher à l'hypothèse d'absence de probabilités (dites faibles) négatives, de masses négatives et d'énergies cinétiques négatives alors que :A mon sens, un relâchement éventuel de ces hypothèses pourrait changer un certain nombre de conclusions comme, par exemple, l'impossibilité d'un opérateur temps (mais pas seulement). Cette impossibilité, démontrée par Pauli, repose sur l'hypothèse d'une borne inférieure des énergies.
    de fait, votre tout dernier chapitre commence maintenant à faire sens pour moi.
    mes faiblesses :
    autant je pense avoir conservé une bonne compréhension de la thermodynamique, autant celle de la physique quantique reste assez scolaire, ce qui risque d'être très handicapant.

    si cette première réaction vous semble trop réductrice ou simpliste, cela n'est du qu'à la difficulté personnelle que je découvre au fur et à mesure sur ce sujet, et non à un manque de volonté. Dites moi néanmoins si je cherche à attraper le sujet dans les bonnes directions.

    sinon, je n'ai, à ce stade, qu'une seule question particulière:
    -de quelle nature pourrait être cet "opérateur temps" ?

    merci encore pour votre temps et vos explications.

  11. #10
    chaverondier

    Re : principe de conservation de l'information

    Citation Envoyé par ansset Voir le message
    distinction entre information et accès à l'information ( c'est banal mais pas que ), auquel il faut ajouter la dimension statistique de l'information.
    L'article de R. Balian suivant (je pense l'avoir déjà cité) me semble assez bien répondre à cette problématique. Information in statistical physics, R. Balian (Jan 2005). En voici quelques extraits intéressants par rapport à votre question sur la loi de conservation de l'information (et l'origine intersubjective de sa violation).

    A probabilistic description involving the observers is required... We introduce the concept of relevant entropy associated with some set of relevant variables; it characterizes the information that is missing at the microscopic level when only these variables are known... The increase of the relevant entropy expresses an irretrievable loss of information from the relevant variables towards the irrelevant ones. Two examples illustrate the flexibility of the choice of relevant variables and the multiplicity of the associated entropies: the thermodynamic entropy (satisfying the Clausius–Duhem inequality) and the Boltzmann entropy (satisfying the H-theorem)... The concept of information, intimately connected with that of probability, gives indeed insight on questions of statistical mechanics such as the meaning of irreversibility. This concept was introduced in statistical physics by Brillouin (1956) and Jaynes...

    The probabilities of quantum statistical physics cannot be regarded as properties of a system as such, but they characterize the knowledge about this system of its observers in the considered conditions. The probability law adequately describing the system depends on the information available to the observer or on the number of variables that he may control. Probabilities therefore appear as having a partly subjective nature, or rather inter-subjective since two observers placed in the same conditions will assign the same probability law to a system.
    Bref, la fuite d'information hors de portée de l'observateur macroscopique, base de l'écoulement irréversible du temps perçu à notre échelle macroscopique, n'est pas un phénomène objectif mais seulement intersubjectif.
    De toutes les façons, c'est vrai de tout ce que nous savons dire de l'univers que nous observons, cf. Incomplete description and relevant entropies de R. Balian aussi. Une propriété objective, une propriété qui serait détachée de toute considération d'observation, ça n'existe pas (c'est un oxymore).

    Citation Envoyé par ansset Voir le message
    L'hypothèse du temps thermique, me pousse à approfondir d'avantage.
    Pour ma part, la remarquable cohérence tant mathématique que physique des travaux de A. Connes, C. Rovelli et P. Martinetti (1) (et leur caractère de généralisation de choses déjà bien établies en physique quantique statistique), ont fini par avoir raison de mes préjugés réalistes. Ces préjugés me poussaient à rechercher à tout prix une origine physiquement objective à l'écoulement irréversible du temps (ce qui explique mon intérêt pour les travaux de Prigogine. Il m'ont donné un temps l'impression que c'était possible)

    Citation Envoyé par ansset Voir le message
    La notion d'échelle de complexité de la structure observée ( je ne parle pas simplement du saut de paradigme quantique/classique )
    Ça par contre, je ne vois pas trop comment cette notion s'articule avec les considérations de fuite d'information hors de portée de l'observateur macroscopique (2) qui me semblent être le fond de votre question. Je suppose que vous évoquez implicitement l'émergence de la complexité via des structures dissipatives dans le cadre de la thermodynamique des phénomènes de non-équilibre évoqués par I Prigogine et I. Stengers, cf. Les idées d’Ilya Prigogine.

    Citation Envoyé par ansset Voir le message
    Sinon, je n'ai, à ce stade, qu'une seule question particulière: de quelle nature pourrait être cet "opérateur temps" ?
    Je pensais à un opérateur Hermitien temps conjugué d'un Hamiltonien. Pauli dit que ce n'est pas possible et invoque pour cela le caractère borné inférieurement de l'énergie (requis estime-t-il pour des raisons de stabilité) et le caractère discret des spectres d'énergie. Pour le premier argument (le caractère supposément borné inférieurement des spectres d'énergie) si on s'intéresse aux formulations time-symmetric de la physique (notamment la formulation à deux vecteurs d'état de la physique quantique, le premier vecteur d'état évoluant du passé vers le futur et le second évoluant à rebrousse-temps), la première partie de la preuve d'impossibilité de Pauli tombe car le renversement du temps s'accompagne d'un changement de signe des énergies ainsi que des masses (et des probabilités aussi d'ailleurs), cf. Structure of dynamical systems, J.M. Souriau, § 14 A mechanistic description of elementary particles, inversion of space and time, equation 14.67 et remarque (14.71) :

    Time reversal changes the sign of energy and thus the sign of mass. Consequently, it transforms every motion of a particle of mass m into a motion of a particle of mass - m
    On constate d'ailleurs que le franchissement de barrières de potentiel par effet tunnel s'effectue à vitesse de groupe supraluminique, ce qui, dans le cadre des théories time symmetric s'interprète (selon moi, point de vue minoritaire) non comme une violation d'invariance de Lorentz, mais comme une violation du principe de causalité (3) associée à l'énergie cinétique négative de la particule en question quand elle est dans la barrière de potentiel, cf. The Two-State Vector Formalism of Quantum Mechanics: an Updated Review § 3.3 Weak measurements which are not really weak.

    Citation Envoyé par ansset Voir le message
    Merci encore pour votre temps et vos explications.
    Ma foi... Je m'intéresse à la question du temps et à celle de la mesure quantique depuis pas mal de temps. Je veux comprendre ces deux trucs là. Comme ce type d'échanges m'oblige à un effort de recherche et m'aide à trouver les bons mots clé, ceux qui me font tomber sur les bons articles de recherche, cela m'aide à développer ma connaissance du sujet (et j'ai la flemme d'échanger sur les forums en anglais, mais il faudra peut-être bien que je m'y mette si je veux avancer plus sérieusement).

    (1) L'hypothèse du temps thermique généralise le lien entre état d'équilibre au sens de Gibbs Rho = exp( - béta H)/Z où Z = trace(exp(-béta H) et évolution hamiltonienne U_t = exp(-i H t / hbar) au cas de théories quantiques généralement covariantes (donc sans flot privilégié)
    • via la notion d'état KMS d'une dynamique d'évolution d'une part
    • via la théorie de Tomita Takesaki d'autre part.
    La théorie de Tomita Takesaki permet de faire émerger un flot dans une C* algèbre d'observables (flot appelé groupe modulaire dans ce cas), de la donnée d'un état privilégié oméga sur une C* algèbre d'observables.

    (2) Fuite d'information en apparente violation avec la loi de conservation de l'information... A moins que ce ne soit la conservation de l'information qui ne soit qu'apparente. Ça me semble inéluctable si l'on adhère au point de vue proposé par C. Rovelli, A. Connes et P. Martinetti. Selon eux, l'Hamiltonien (Hamiltonien dont découle la loi de conservation de l'information via la dynamique d'évolution engendrée par cet Hamiltonien) émergerait, en fait, d'un état d'équilibre (et non l'inverse), donc d'un manque d'information de l'observateur.

    (3) Bon, je sais, Winful n'est pas d'accord

  12. #11
    invite93279690

    Re : Principe de conservation de l'information

    Salut,
    Citation Envoyé par ansset Voir le message
    bonjour tous,
    j'ai quelques difficultés à comprendre la nature de ce principe, en physique classique pour commencer.
    ( en laissant de coté la physique quantique de coté dans un premier temps.)
    Je ne suis pas sur de comprendre non plus ^^.


    dixit wiki:
    [I]En physique classique, les lois de la nature sont déterministes et réversibles dans le temps.
    Cela a deja été discuté à plusieurs reprises mais la physique classique n'est pas nécessairement dynamiquement réversible : il suffit de regarder un système dissipatif avec friction fluide pour s'en convaincre. Il existe donc certains modèles qui ne sont pas reversibles dans le sens précis où (1) inverser les vitesses ne fait pas parcourir au système la meme trajectoire qu'à l'aller et (2) passer de t à -t change la nature des forces s'exerçant sur le système. Ce qui est vrai, en revanche, c'est que les lois de la mécanique de Newton n'interdisent pas à un livre de se reconstituer après avoir été brulé ou à un oeuf de se reconstruire après avoir été cassé. Ainsi, en faisant fi des restrictions (1) et (2) de la réversibilité dynamique, la mécanique de Newton n'interdit pas l'existence d'un processus physique permettant au système de parcourir la "trajectoire" aller en sens inverse; c'est la réversibilité thermodynamique (cf. cette video d'encre mélangée a un fluide, a la manière de l'application du boulanger a une dimension et qui pourtant peut revenir sur lui meme). C'est cette réversibilité thermodynamique qui est considérée comme impossible pour un système laissé à lui meme après un abrupte changement des conditions imposées de volume, pression et temperature et autres contraintes externes. Ainsi, les pages d'un livre déchiré peuvent être en principe recollées à la manière d'un puzzle mais pas en parcourant la trajectoire aller en sens inverse; ou du moins il n'y a aucun moyen de le savoir.

    Même si une encyclopédie est brûlée, ou si un œuf tombe sur le sol et se brise, il est - en principe - parfaitement possible, à partir de l'état final, de dérouler les lois de la physique à l'envers pour reconstituer l'encyclopédie intacte, ou l’œuf non brisé.
    cette affirmation n'est pas correcte pour tous les modeles de la mécanique classique mais seulement pour les modeles a forces conservatives (projectiles par exemple) pour lesquels le flot hamiltonien permet de définir une classe d'equivalence entre tous les points appartenant a la meme trajectoire; ainsi connaitre l'état d'un système a un temps t assure la connaissance passée et future de l'état du système. Pour un système dissipatif qui finit par atteindre (le voisinage d') un point fixe après un certain temps T, il n'est plus possible de determiner la trajectoire exactement inverse si l'on ne connait que l'état final pour tout t > T. Evidemment, meme dans le cas de systèmes conservatifs, la meme chose est vraie pour les systèmes chaotiques et T représente alors l'inverse de l'exposant de Lyapunov (positif) le plus grand.

    Cela implique une totale conservation de l'information, qui est traduite notamment par le théorème de Liouville. Même si l'information devient illisible et éparpillée, elle est néanmoins toujours présente et jamais détruite.
    je ne comprends pas ou l'auteur veut en venir avec le théorème de Liouville. La citation ne precise jamais quelle definition donner a "information" et ce mot semble donc être utilisé pour dire tout et son contraire. Le théorème de Liouville me semble provenir de deux elements distincts : 1) la conservation de la probabilité et 2) une dynamique hamiltonienne et je ne suis pas sur de ou l'auteur de la citation introduit le concept d'information.

    La raison pour laquelle je suis étonné du vocabulaire utilisé, en particulier pour la reference au théorème de Liouville, c'est que l'information lorsque reliée à une mesure d'entropie (à la Jaynes ou Roger Balian par exemple deja mentionnés par chaverondier) a de très grandes chances de croitre pour toute distribution de probabilité initiale localisée et non pathologique (pas un delta de Dirac par exemple), précisément a cause de l'éparpillement de la densité de probabilité qui est inevitable dans les systèmes chaotiques.

    En gros je suis complètement perturbé par l'utilisation de ce vocabulaire assez vague.

    Le problème de l'information, qui n'est pas un concept physique orthodoxe, ne peut pas être invoqué à la légère sous peine de créer plus de confusion qu'autre chose. Et depuis la contribution de Landauer, il ne me semble pas possible de parler d'information sans parler de son acquisition, de son stockage et de sa manipulation. Cela se voit très bien dans mon paragraphe sur la "réversibilité de principe" ou je n'ai pu m'empêcher de parler de voisinage de point fixe et d'exposant de Lyapunov car au dela de la prétendue conservation de l'information (qui me semble être du simple déterminisme) il y a tout ce qui a a voir avec l'acquisition de cette information qui est complètement passé à la trappe.

  13. #12
    chaverondier

    Re : Principe de conservation de l'information

    Citation Envoyé par gatsu Voir le message
    Cela a deja été discuté à plusieurs reprises mais la physique classique n'est pas nécessairement dynamiquement réversible : il suffit de regarder un système dissipatif avec friction fluide pour s'en convaincre.
    Bien sûr. Ce que l'auteur a voulu signaler, c'est que cette irréversibilité n'est pas "un fait de nature". Elle découle du fait que l'observateur macroscopique ne contrôle qu'un nombre extrêmement limité de degrés de liberté du système. Il ne peut donc pas renverser le mouvement de tous les degrés de liberté du système pour le faire revenir à son état initial. Si on croit aux évolutions hamiltoniennes, l'irréversibilité observée à notre échelle présente donc un caractère seulement intersubjectif découlant de nos limitations d'accès à l'information (et de nos limitations d'accès au contrôle des degrés de liberté d'un système physique) à notre échelle d'observation-expérimentation.

    Citation Envoyé par gatsu Voir le message
    Pour un système dissipatif qui finit par atteindre (le voisinage d') un point fixe après un certain temps T, il n'est plus possible de déterminer la trajectoire exactement inverse si l'on ne connait que l'état final pour tout t > T.
    Pas d'objection. On retrouve le fait que l'irréversibilité, c'est notre incapacité d’accéder à l'ensemble de toutes les informations caractérisant complètement l'état final requises pour espérer remonter à l'état initial du système (l'intrication quantique du système observé avec son environnement, environnement dont nous faisons partie, nous rend de toute façon ce recueil d'une information complète sur l'état final impossible).

    Citation Envoyé par gatsu Voir le message
    La meme chose est vraie pour les systèmes chaotiques et T représente alors l'inverse de l'exposant de Lyapunov (positif) le plus grand.
    C'est l'objection la plus forte à l'hypothèse de réversibilité des lois de la physique, celle sur laquelle Prigogine a appuyé de toutes ses forces. Il a défendu avec vigueur l'idée selon laquelle l'irréversibilité des évolutions physiques ne devait rien au manque d'information de l'observateur macroscopique et devait au contraire être considérée comme un fait de nature. Dans ce but, il signale le fait que le fait qu'un manque d'information sur l'état initial d'un système régi par une dynamique du chaos (donc possédant, comme tu le fais remarquer, un temps de chaos égal à l'inverse du plus grand exposant de Lyapounov positif), rend son état imprédictible au bout de quelques fois son temps de chaos.

    Le rôle de l’information accessible à l’observateur en est donc fortement réduit puisqu'il faudrait une connaissance parfaite (donc physiquement inatteignable) de l'état initial du système pour avoir des prédictions correctes au-delà de quelques fois le temps de Chaos. Toutefois, le concept d'information accessible à l'observateur n'a pas, stricto sensu, été éliminé de la notion d’irréversibilité. Irréversibilité et information accessible à l’observateur sont indissociablement liées.

    Cela implique une totale conservation de l'information, qui est traduite notamment par le théorème de Liouville. Même si l'information devient illisible et éparpillée, elle est néanmoins toujours présente et jamais détruite.
    Citation Envoyé par gatsu Voir le message
    Je ne comprends pas ou l'auteur veut en venir avec le théorème de Liouville. La citation ne precise jamais quelle definition donnera "information" et ce mot semble donc être utilisé pour dire tout et son contraire.

    La raison pour laquelle je suis étonné du vocabulaire utilisé, en particulier pour la reference au théorème de Liouville, c'est que l'information lorsque reliée à une mesure d'entropie (à la Jaynes ou Roger Balian par exemple deja mentionnés par chaverondier) a de très grandes chances de croitre pour toute distribution de probabilité initiale localisée et non pathologique (pas un delta de Dirac par exemple), précisément a cause de l'éparpillement de la densité de probabilité qui est inevitable dans les systèmes chaotiques.

    Le théorème de Liouville me semble provenir de deux elements distincts : 1) la conservation de la probabilité et 2) une dynamique hamiltonienne et je ne suis pas sur de ou l'auteur de la citation introduit le concept d'information. Le problème de l'information, qui n'est pas un concept physique orthodoxe, ne peut pas être invoqué à la légère sous peine de créer plus de confusion qu'autre chose. Et depuis la contribution de Landauer, il ne me semble pas possible de parler d'information sans parler de son acquisition, de son stockage et de sa manipulation.
    A mon sens, ce que l'auteur a voulu dire (implicitement) c'est la chose suivante:

    Si je considère un système isolé (donc d’évolution régie par une dynamique hamiltonienne), mais dont je connais seulement l'état initial par une distribution de probabilités dans son espace de phase, par exemple une distribution uniforme sur une partie E0 de cet espace de phase, mon manque d'information sur cet état (l'entropie de cet état donc) est mesuré par le volume de cette partie E0.

    En raison de la conservation du volume au cours de l'évolution hamiltonienne dans l’espace de phase, ce manque d'information reste théoriquement constant. C'est seulement quand je fais, par exemple, un coarse graining Et* du transformé Et de mon état (macroscopique) initial E0 que je vois apparaître une perte d'information. Il s'agit de l'augmentation du volume V(Et*) > V(E0) traduisant une diminution de ma connaissance de l'état du système. L'état microscopique se trouve bien quelque part dans la partie E(t)* mais elle est plus grande que la "vraie partie" Et parce que je l'aie "coarse grainée" (contre mon gré le plus souvent). En raison du théorème de Liouville, le vrai volume V(Et) n’augmente pas. La perte d’information, l’augmentation de volume V(Et*) > V(Et)=V(E0), n’est pas objective.

    Bref, l'observateur n'est pas hors de cause dans la fuite d'information hors de sa portée, base de l'irréversibilité des phénomènes physiques observés à notre échelle. On peut toujours invoquer le principe de Landauer, mais l'argument, s'il vise à éliminer l'observateur en tant qu'origine de l'irréversibilité, est (à mon sens) circulaire car il fait intervenir l'observateur (1).

    J’aurais pu faire reposer cette même remarque sur les considérations d’observables pertinentes (au lieu du coarse graining) des articles de Balian Incomplète description and relevant entropies et Information in statistical physics, mais ça ne changerait pas ma remarque. Bon an, mal an elle repose sur cette remarque de Balian.

    The concept of relevant entropy [is] associated with some set of relevant variables; it characterizes the information that is missing at the microscopic level when only these variables are known. For equilibrium problems, the relevant variables are the conserved ones, and the Second Law is recovered as a second step of the inference process. For non-equilibrium problems, the increase of the relevant entropy expresses an irretrievable loss of information from the relevant variables towards the irrelevant ones.
    Le rôle de l’observateur dans l’émergence de l’irréversibilité des phénomènes physiques perçus à notre échelle (et le rôle qu'y joue la notion d'information) me semblent donc bien être une question de nature physique et non de nature sémantique. Cette considération est à la base de l’hypothèse du temps thermique, hypothèse grâce à laquelle C. Rovelli, A. Connes et P. Martinetti parviennent à faire rentrer une dynamique privilégiée dans une théorie quantique généralement covariante (tout en intégrant dans cette approche le cas des dynamiques quantiques non covariantes sans en changer un iota). Voilà ce que dit C. Rovelli dans "forget time" par exemple :

    Citation Envoyé par Carlo Rovelli
    VI. RECOVERY OF TIME
    The time of our experience is associated with a number of peculiar features that make it a very special physical variable. Intuitively (and imprecisely) speaking, time “flows”, we can never “go back in time”, we remember the past but not the future, and so on. Where do all these very peculiar features of the time variable come from?

    I think that these features are not mechanical. Rather they emerge at the thermodynamical level. More precisely, these are all features that emerge when we give an approximate statistical description of a system with a large number of degrees of freedom. We represent our incomplete knowledge and assumptions in terms of a statistical state ρ.

    (1) Concernant le postulat de Kelvin je me suis demandé si une sorte "d'éolienne" dont les pales pourraient laisser passer les molécules de gaz dans un sens et pas dans l'autre (par un principe mécanique de type clapet anti-retour agissant à l'échelle moléculaire, plus facile à dire qu'à faire) ne permettrait pas de faire le travail du démon de Maxwell (sans avoir à recueillir l'information qui le rend théoriquement impossible). Bref, la transformation de chaleur en énergie mécanique lors d'un cycle monotherme est-elle réellement impossible au plan du principe ? Je constate d'ailleurs que Balian tend effectivement à remettre en cause ce postulat cf. Thomson’s formulation of the second law: an exact theorem and limits of its validity.
    Thomson’s formulation gets limited when the source of work is mesoscopic, i.e. when its number of degrees of freedom is large but finite. Here work-extraction from a single equilibrium thermal bath is possible when its temperature is large enough.

  14. #13
    invitec998f71d

    Re : Principe de conservation de l'information

    Avant de parler de conservation de l'infirmation est il possible de définir ce que serait la quantité d'information dans un volume?

  15. #14
    invite93279690

    Re : Principe de conservation de l'information

    Citation Envoyé par chaverondier Voir le message
    Bien sûr. Ce que l'auteur a voulu signaler, c'est que cette irréversibilité n'est pas "un fait de nature". Elle découle du fait que l'observateur macroscopique ne contrôle qu'un nombre extrêmement limité de degrés de liberté du système.
    le point que je souhaitais souligner ici était juste que le concept de réversibilité n'est même pas défini dans ce passage. Alors évidemment on peut s'amuser à utiliser des termes que l'on considère comme "évidents" mais si on ne précise jamais de quoi on parle vraiment on peut définitivement arriver à toutes les conclusions possibles (pour rappel : "from falsity anything follows").

    A mon sens, ce que l'auteur a voulu dire (implicitement) c'est la chose suivante:

    Si je considère un système isolé (donc d’évolution régie par une dynamique hamiltonienne), mais dont je connais seulement l'état initial par une distribution de probabilités dans son espace de phase, par exemple une distribution uniforme sur une partie E0 de cet espace de phase, mon manque d'information sur cet état (l'entropie de cet état donc) est mesuré par le volume de cette partie E0.

    En raison de la conservation du volume au cours de l'évolution hamiltonienne dans l’espace de phase, ce manque d'information reste théoriquement constant. C'est seulement quand je fais, par exemple, un coarse graining Et* du transformé Et de mon état (macroscopique) initial E0 que je vois apparaître une perte d'information. Il s'agit de l'augmentation du volume V(Et*) > V(E0) traduisant une diminution de ma connaissance de l'état du système. L'état microscopique se trouve bien quelque part dans la partie E(t)* mais elle est plus grande que la "vraie partie" Et parce que je l'aie "coarse grainée" (contre mon gré le plus souvent). En raison du théorème de Liouville, le vrai volume V(Et) n’augmente pas. La perte d’information, l’augmentation de volume V(Et*) > V(Et)=V(E0), n’est pas objective.
    Le coarse graining n'est pas nécéssaire il me semble. On parle ici de densité de probabilité dans l'espace des phases qui sera plate sur une région E0 de mesure non nulle à l'instant initial mais, moyennant certaines propriétés de mélanges de la dynamique, deviendra plate sur l'ensemble de l'espace des phases sur un temps suffisament long sous le flot hamiltonien. Si cela se passe ainsi, il est évident que l'entropie du système augmente avec le temps. Mais peut être que je rate quelque chose...

    Bref, l'observateur n'est pas hors de cause dans la fuite d'information hors de sa portée, base de l'irréversibilité des phénomènes physiques observés à notre échelle.
    certes mais, à nouveau, l'observateur n'intervient pas qu'au niveau du coarse graining mais dès le départ lorsqu'on parle d'une densité de probabilité initiale; qui peut parler d'une telle densité à part un observateur ?

    On peut toujours invoquer le principe de Landauer, mais l'argument, s'il vise à éliminer l'observateur en tant qu'origine de l'irréversibilité, est (à mon sens) circulaire car il fait intervenir l'observateur (1).
    non il ne vise pas à exclue l'observateur, il sert à montrer, dans mon post, qu'on ne parle pas d'information en physique sans prendre en compte des tonnes conséquences bizarres de l'utilisation de ce mot sans faire attention qui ont été mises en avant par Maxwell et Landauer.

  16. #15
    invite93279690

    Re : Principe de conservation de l'information

    Citation Envoyé par Murmure-du-vent Voir le message
    Avant de parler de conservation de l'infirmation est il possible de définir ce que serait la quantité d'information dans un volume?
    tout à fait d'accord. Pas besoin d'être un radicaliste de la philosophie pour se rendre compte que de temps en temps il est bon de définir de quoi on parle .

  17. #16
    chaverondier

    Re : Principe de conservation de l'information

    Citation Envoyé par Murmure-du-vent Voir le message
    Avant de parler de conservation de l'information est-il possible de définir ce que serait la quantité d'information associée à un volume…
    ...de l'espace des phases d'un système donné ?
    • Si les microétats d'un système donné occupent un volume v de l'espace des phases
    • si le microétat e dans lequel se trouve le système observé n'est connu (par une classe d’observateurs implicite) que par un état macroscopique E (contenant le microétat e donc) occupant un volume V0 dans l’espace des phases,
    alors l'information qui manque à cet observateur pour caractériser le micro-état e, c'est le nombre de bits nécessaires pour identifier le micro-état e parmi les W = V0/v micro-états contenus dans le macro-état E connu de l’observateur. C'est donc le logarithme (en base 2 si on veut compter ça en bits) du nombre de micro-états indistinguables du micro-état e pour cet(te) (classe d’) observateur(s) en raison de son manque d'information (sa « myentropie » en quelque sorte).

    Comme le rappelle gatsu

    Citation Envoyé par gatsu Voir le message
    l'observateur n'intervient pas qu'au niveau du coarse graining mais dès le départ lorsqu'on parle d'une densité de probabilité initiale.
    Cette information manquante, autrement dit l'entropie de l'état microscopique e incomplètement connu de cet observateur vaut donc (à un coefficient multiplicateur à caractère conventionnel près) :

    S = log(W) l'inscription sur la tombe de Boltzmann (à la constante de Boltzmann près)

    S est donc le logarithme du nombre de micro-états indistinguables (du point de vue de l'information accessible à cet observateur) dans lequel peut se trouver le système.

    Maintenant, que signifie la conservation de l'information en lien avec le théorème de Liouville évoquée via le lien posté par Ansset ? Elle signifie que, lors d'une évolution hamiltonienne, un volume d'espace des phases se conserve. Le flot hamiltonien dans l’espace des phases se comporte comme un fluide incompressible.

    si V_t désigne le volume d'espace des phases occupé par l'état macroscopique E à l'instant t, on a V_t = V0 (et donc S_t = ln(V_t/v) = ln(V0/v) = S0)

    Bref, une évolution hamiltonienne est isentropique (je détaille encore plus ce point plus bas).

    Citation Envoyé par gatsu Voir le message
    Le coarse graining n'est pas nécessaire il me semble.
    Pour faire apparaître la croissance de l'entropie des systèmes isolé, il faut prendre en compte la fuite d'information hors de portée de l’observateur que cette croissance de l’entropie modélise.
    Qualitativement, il s’agit de "coarse graining". Cela consiste à considérer à l’instant t un état approximatif Et* obtenu (par exemple) en réunissant des volumes DeltaV de l’espace des phases centrés autour des micoétats contenus dans le « vrai état » E_t. C'est une façon grossière de prendre en compte l'incapacité dans laquelle se trouve l'observateur de distinguer des micro-états contenus dans ces volumes DeltaV.

    De façon plus précise voilà comment, dans le cadre du formalisme de la physique quantique statistique, R. Balian procède, dans Information in statistical physics, pour réaliser ce coarse graining de l’état du système (c’est le qualificatif qu’il emploie dans son article). Ce formalisme permet :
    • de construire une loi d'évolution approchée de l’état du système prenant en compte les limitations d’accès à l’information d’une classe d’observateurs (via la notion d’observables dites pertinentes)
    • d’en tirer et d’en expliquer la croissance observée de l’entropie des systèmes isolés.

    Dans ce but, on recherche la meilleure approximation Dr de l'état D inconnu du système. L’état D d’un système est un outil statistique permettant le calcul de la valeur moyenne de toute observable O de ce système par la formule : Valeur moyenne de O (notée <O>) = Trace(DO)

    Mathématiquement, il s’agit d’un opérateur linéaire positif, de trace 1, sur l’algèbre des observables du système.
    La meilleure approximation macroscopique Dr de l’état exact D, c’est l’approximation Dr de l’état exact D qui, statistiquement, donnera la meilleure approximation des valeurs moyennes des observables O. Pour obtenir cette meilleure approximation, on demande à cet état Dr de respecter les valeurs a1, a2, a3… observées pour les observables dites pertinentes A1, A2, A3… (c’est-à-dire les grandeurs physiques (pas trop difficilement) accessibles à l’observation pour la classe d’observateurs implicitement considérée).

    On demande donc à l'état approché Dr (r pour relevant) de vérifier les contraintes suivantes:
    • Moyenne de l’observable pertinente A1 = valeur effectivement observée a1
    • Moyenne de l’observable pertinente A2 = valeur effectivement observée a2 …
    • Somme des probabilités de l’ensemble des micro-états de l’espace des phases = 1

    Mathématiquement, dans le cadre du formalisme de la physique quantique statistique, cet ensemble de contraintes sur l’état D s’écrit :
    trace(D A1) = a1, trace(D A2) = a2… et trace (D) = 1 (1)
    Parmi tous les états D respectant ces contraintes, on choisit l’état Dr qui maximise l'entropie de Von Neumann (le manque d’information de l’observateur)
    Sr = -Trace (Dr ln(Dr))

    The assignment of a density operator Dr satisfying (1) … leads to the coarse-grained density operator with maximum von Neumann entropy.
    Autrement dit, l'état Dr contient seulement l'information correspondant aux contraintes ci-dessus et aucune information parasite supplémentaire. C’est une déclinaison mathématique du rasoir d’Occam (rasoir dont la justification est donc, en fait, de nature statistique). Dr s’obtient par une méthode de recherche de maximum sous les contraintes
    trace(Dr) = 1 et A1 = a1, A2 = a2…
    via les multiplicateurs de Lagrange associés notés gamma1, gamma2...

    Ce calcul donne l’opérateur positif ci-dessous :
    Dr = exp ( -psi – gamma1 A1 –gamma2 A2…)
    En raison de la contrainte trace(Dr) = 1, la fonction de partition de l’énergie exp(psi) vérifie :
    exp(psi) = trace[exp( -gamma1 A1 – gamma2 A2…)]

    Cet état Dr est la meilleure approximation (l’approximation la plus « occamisée ») du vrai état D compte tenu du peu que l’observateur macroscopique connait de cet état, à savoir :
    Trace(D) = 1, trace (A1 D) = a1, trace (A2 D) = a2…
    L’entropie de von Neumann associée à l’état approché Dr, autrement dit le manque d’information de l’observateur sur le vrai état D vaut :
    S(Dr) = - trace(Dr ln(Dr)) = psi + gamma1 a1 + gama2 a2 +…

    S(Dr) is the relevant entropy associated with the set Ai of relevant observables selected in the considered situation. By construction, it measures the amount of information which is missing when only the data Ai are available.
    L’état approché Dr maximisant de manque d’information de l’observateur (connaissant seulement la valeur a1 de l’observable pertinente A1, a2 de l’observable pertinente A2…), nous donne accès au meilleur estimateur de la valeur moyenne de toute observable O : Valeur moyenne approchée de O = trace (Dr O)

    Si on demande à l’évolution temporelle de l’état Dr de respecter l’équation déterministe et réversible de Liouville Von Neumann (on revient au point de départ en renversant le temps) régissant la dynamique hamiltonienne du système observé, alors :
    i hbar d Dr/dt = [H, Dr] (2)
    Dans ce cas, on trouve (moyennant quelques manipulations algébriques)
    d(Dr ln(Dr))/dt = 0

    From this initial state D_t0 = DR_t0, one derives the state D_t at an arbitrary time t by solving the equation of motion (2). The relevant variables Ai _t are then found from D_t through ai = trace (Ai D), which formally solves our inference problem. The von Neumann entropy S(D_t) = –trace(D_t ln(D_t) associated with D_t remains constant in time, as readily checked from the unitarity of the evolution (2). This means that, if one considers all possible observables, no information is lost during the evolution.
    On retrouve dans l’article Information in statistical physics de R. Balain ce que l’auteur du lien posté par Ansset a voulu exprimer (avec les détails requis pour mieux en préciser la signification).

    Intrinsèquement, l’évolution d’un système isolé est hamiltonienne, donc isentropique.
    De ce point de vue « objectif » (c’est-à-dire basé sur l’Hamiltonien caractérisant la dynamique d’évolution du système) la quantité d’information S(Dr_t) manquant à l’observateur à l’instant t (pour caractériser complètement le micro-état du système observé à cet instant) reste égale à l’information S(Dr) manquant à l’observateur à l’instant initial. La croissance du manque d’information de l’observateur au fil du temps (autrement dit l’écoulement irréversible du temps) n’est pas un « fait de nature », c’est un « fait d’observation ».

    Mezalor, nous dit Balian, page 11, dans le temps macroscopique à propos du paradoxe de l’irréversibilité,
    comment expliquer qu’une dynamique microscopique réversible engendre à l’échelle macroscopique des processus irréversibles ? Comment comprendre l’existence même de l’entropie, fonction dissymétrique par rapport au temps de l’état macroscopique du système, alors que l’on sait que l’évolution microscopique du matériau est symétrique ?
    Pour faire apparaître, au contraire, la fuite d’information hors de portée de l’observateur macroscopique via la croissance de l’entropie modélisant cette fuite d’information, il faut s’appuyer, non pas sur la loi d’évolution hamiltonienne objective de l’état Dr du système, mais sur l’évolution de l’état du système inférée des seules observables dites pertinentes A1, A2, A3…. C’est-à-dire en prenant en compte la « myentropie » de l’observateur.

    We can then modify eq. (2) so as to account for losses of information that may take place during a dynamical process. When applied to the final state, the maximum entropy criterion of statistical mechanics can be worked out in two steps. In the first step SvN (l’entropie de Von Neumann) is maximized for fixed arbitrary values of the variables Ai; in the second step the outcome, already identified with Sth (Ai) (l’entropie thermodynamique s’avérant identique à S(Dr), le manque d’information de l’observateur en raison de sa seule connaissance des observables pertinentes Ai), is maximized with respect to the variables Ai subject to constraints imposed by the conservation laws and by the possible exchanges between subsystems. The Second Law then appears merely as the second step of this maximization.
    Donc, pour faire croître l’entropie des systèmes isolés en accord avec l’observation, on ne doit pas calculer Dr_t en se basant sur l’évolution déterministe « objective » d D/dt = [H, D] du système. On doit au contraire tenir compte des limitations d’accès à l’information intersubjective d’une classe implicite d’observateurs.

    Pour cela, on recommence, à l’instant t, ce que l’on a fait à l’instant initial.
    On recherche l’état Dr_t qui respecte à l’instant t les contraintes :
    A1 = a1(t), A2 = a2(t)… et trace (Dr_t) = 1

    En appliquant, à chaque instant t, cette méthode de recherche de l’approximation Dr(t) de l’état D(t) du système observé on trouve que, effectivement, l’entropie de Von Neumann de cet état approché Dr(t) ne fait que croître au fil du temps.

    We thus consider in parallel two time-dependent descriptions of the system,
    • the most detailed one by D (t) which accounts for all observables,
    • and the less detailed one by DR (t), or equivalently by the set gamma i (t), which accounts for the variables Ai (t) only, and is sufficient for our purpose.
    Rather than following the motion of D (t) which involves all the complicated irrelevant variables, we wish to eliminate these variables, i.e., to follow the motion of DR (t).
    En raison de sa limitation d’accès aux observables dites pertinentes A1, A2… l’observateur perd de plus en plus d’information sur le microétat du système observé.

    The fact that the relevant entropy is in general larger at the time t than at the initial time t0 means that a part of our initial information on the set Ai has leaked at the time t towards irrelevant variables. This loss of relevant information characterizes a dissipation in the evolution of the variables Ai (t).

    The construction of section 5 associates, at each time, a reduced density operator DR (t) with the set of relevant variables Ai (t). As regards to these variables, DR (t) is equivalent to D (t) :
    Trace DR (t) Ai = Trace D (t) Ai = Ai (t)
    but it has the maximum entropy form
    Dr = exp ( -psi – gamma1 A1 –gamma2 A2…)
    and thus does not retain information about the irrelevant variables.
    Quand, par exemple, et en se plaçant cette fois en physique statistique classique, la distribution de probabilités dans l’espace des phases modélisant (la connaissance de) l’état du système est sensiblement uniforme sur une partie E de l’espace des phases, l’état approché (par le coarse graining correspondant aux observables dites pertinentes) occupe un volume V_t d’espace de phase de plus en plus grand. Comme le signale gatsu

    Citation Envoyé par gatsu Voir le message
    La densité de probabilité deviendra plate sur l'ensemble de l'espace des phases sur un temps suffisamment long…
    ...grâce à la prise en compte de la fuite d’information des observables pertinentes vers les observables non pertinentes.

    Citation Envoyé par gatsu Voir le message
    Si cela se passe ainsi, il est évident que l'entropie du système augmente avec le temps.
    Ce qu’il faut bien noter, c’est l’origine de cette croissance de l’entropie. Elle modélise la fuite d’information hors de portée de l’observateur depuis les observables pertinentes vers les observables non pertinentes.

    Cela ne signifie pas pour autant que ces observables non pertinentes et l’information associée auraient disparu en ne laissant nulle trace observable nulle part. Elles sont seulement devenues inaccessibles ou très difficilement accessibles à l’observateur. C’est ce que l’auteur du lien signalé par Ansset a voulu exprimer. La difficulté et l’ensemble des considérations reliées au recueil d’information forment un sujet complexe et étroitement relié mais il ne remet pas en cause ce constat.

    Les éléments de réponse au paradoxe de l’irréversibilité et à la violation de conservation de l’information modélisée par la croissance de l’entropie des systèmes isolés objet de ce post sont présentés de façon plus détaillée dans

    Information in statistical physics de R. Balian

  18. #17
    invite51d17075
    Animateur Mathématiques

    Re : Principe de conservation de l'information

    bonjour,
    je trouve votre "résumé" extrêmement riche et explicite.
    mais je ne sais pas si j'aurai le temps et aussi les capacités de m'investir d'avantage dans ce sujet et cette réflexion, notamment à travers ce dernier lien.
    merci encore.

  19. #18
    invitec7606cbb

    Re : Principe de conservation de l'information

    Bonjour

    Ce qui est proposé ici concerne l 'entropie des systèmes isolé dans le cadre du formalisme de la physique quantique statistique, il s’est dit qu’intrinsèquement, l’évolution d’un système isolé est hamiltonienne, donc isentropique.


    Cependant, il est remarquer, que les notions thermodynamiques telles que l'entropie et la dissipation ont au niveau microscopique un aspect subjectif.

    Mais nous pouvons considérer l'entropie comme un manque d'information ou de manière équivalente, le « désordre »

    Concernant cette fuite d’information, c’est en raison de sa limitation d’accès aux observables pertinentes que l’observateur perd de plus en plus d’information sur le microétat du système observé

    L’origine de cette croissance de l’entropie est la fuite d’information hors de portée de l’observateur depuis les observables pertinentes vers les observables non pertinentes.
    Elles sont seulement devenues inaccessibles ou très difficilement accessibles à l’observateur


    Il y a bel et bien conservation de l’information mais devenue inaccessible ou très difficilement accessibles à l’observateur

    De plus,
    Cette fuite d’information ne devrait elle pas être entrevue pas le biais de la lois du Khaos et de la sensibilité aux conditions initiales

    En sachant que dans le cadre de cette théorie, il est actuellement impossible de prédire un simple système avec un seul élément dans le cas d’une boule qui tombe sur la pointe d’un cône

  20. #19
    invite51d17075
    Animateur Mathématiques

    Re : Principe de conservation de l'information

    vous résumez l'exposé précédent ?

  21. #20
    invitec7606cbb

    Re : Principe de conservation de l'information

    Citation Envoyé par ansset Voir le message
    vous résumez l'exposé précédent ?


    Dans l’exposé précédent il n’est question que de systèmes isolé


    J’ajoute a mon sens une notion quant à la modélisation de la perte d’information en introduisant la notion de loi du KHAOS
    et de la sensibilité aux conditions initiales ce qui correspond au phénomène étudié, la pseudo perte d’information

  22. #21
    invite93279690

    Re : Principe de conservation de l'information

    Citation Envoyé par chaverondier Voir le message
    ...
    Oui tu as raison, l'entropie de Shannon (ou von Neumann) est constante sous le flot hamiltonien. En revanche, il n'est pas clair pour moi que cela ne soit pas juste "pathologique". Cette constance de l'entropie me semble invérifiable expérimentalement ou meme numériquement (en initialisant N simulations de dynamique moléculaire suivant une distribution uniforme sur un sous domaine de l'espace des phases et en observant l'evolution temporelle de la probabilité d'ensemble). Par exemple, si la dynamique est mélangeante (et la distribution initiale non delta), deux realisations de la densité de probabilité à des temps différents (mais longs par rapport a l'instant initial) devraient correspondre à deux fluctuations autours d'une probabilité invariante. La hauteur de ces fluctuations doit dépendre de la taille du système et de la "distance" entre la distribution initiale et la distribution d'équilibre.

    C'est ce que j'entendais lorsque je disais que la densité de probabilité allait "probablement" tendre vers la distribution invariante dans mon premier message.
    On peut peut être se representer ce point de vue via une analyse de Fourier (en temps) de la densité de probabilité dans l'espace des phases. Sauf pour certaines distributions initiales pathologiques, on s'attend à ce que la composante de fréquence nulle soit la meme pour toute distribution initiale. C'est ce point de vue que, semble-t-il, Gibbs ou Poincaré avaient tete. Ainsi, il est possible de montrer que la densite de probabilité converge (faiblement) vers une distribution invariante sous le flot hamiltonien.

    Tu as évidemment raison de souligner le coarse graining mais la encore son invocation n'est peut être pas nécessairement due à une histoire de variables "pertinentes" (en mécanique classique en tout cas). Je vois au moins 1 raisons pour cela :

    L'entropie de Shannon continue est pathologique dans le sens ou elle n'est pas définie positive ou nulle et n'est pas invariante par changement de variable. Ainsi, si on effectue une transformation canonique (hyper standard en mécanique hamiltonienne), l'entropie de Shannon n'est pas conservée (dès lors, difficile de parler "d'information"). Certains auteurs considèrent donc qu'il n'est pas juste suffisant mais nécessaire de partitioner d'une manière ou d'une autre l'espace des phases. L'utilisation d'une telle partition, meme très fine (par exemple avec une maille de Planck) peut conduire a une entropie croissante en utilisant, entres autres, la méthode de Balian.

  23. #22
    invitec7606cbb

    Re : Principe de conservation de l'information

    ..

    @ansset

    je comprend mieux l'intervention ,...


    je commence a lire le fil dans son ensemble,..

    desolé , j'aurais du lire tout le fil avant de poster ,.... oops

    sorry,;..

  24. #23
    invitec7606cbb

    Re : Principe de conservation de l'information

    Citation Envoyé par Murmure-du-vent Voir le message
    Avant de parler de conservation de l'infirmation est il possible de définir ce que serait la quantité d'information dans un volume?


    Je dirais plutôt quelle serait la quantité d’information pertinentes nécessaires et suffisantes afin de caractérisé du manière suffisante un volume



    Du Trou Noir,..


    si on s'interesse au rapport de R, ou la quantité de volume de Planck oscillants, dans le volume de l’intérieur du trou noir et la quantité H définie comme le nombre de surfaces de Planck sur la surface du trou noir

    (R/H) multiplier par la masse de planck = masse du trou noir

    cette relation geometrique des planck a l'interieur et en surface est une solution holographique a la masse qui est exactement la solution pour les equations gravitionnelle d'EINSTIEN

    cette valeur est ce que nous percevons,...

    la violation intersubjective de la loi de conservation de l'information sans laquelle il serait impossible d'observer quoi que ce soit puisque qu'une observation est une opération irréversible d'enregistrement d'information

    ..

    ....sur la surface du trou noir

  25. #24
    invitec998f71d

    Re : Principe de conservation de l'information

    Citation Envoyé par BAALSOD Voir le message
    Je dirais plutôt quelle serait la quantité d’information pertinentes nécessaires et suffisantes afin de caractériser du manière suffisante un volume
    Effectivement. C'est non quantique de parler d'un volume comme d'objet abstrait ayant des proprietes hors de la notion de mesure.

  26. #25
    invitec7606cbb

    Re : Principe de conservation de l'information

    Citation Envoyé par Murmure-du-vent Voir le message
    Effectivement. C'est non quantique de parler d'un volume comme d'objet abstrait ayant des proprietes hors de la notion de mesure.
    c'est le cas des Trou Noir,...

  27. #26
    invitec7606cbb

    Re : Principe de conservation de l'information

    ...


    Le trou noir, est une zone où l'effondrement gravitationnel est devenu irréversible.
    Qui dit effondrement gravitationnel dit courbure de l'espace-temps, donc, vu depuis notre espace ordinaire

    Le trou noir est une zone où la courbure de l'espace-temps a franchi une valeur limite.
    courbure modérée persiste à proximité de cette zone dirigeant les trajectoires vers l'horizon

    L'étoile a disparu, mais pas l'espace-temps qu'elle déformait.

    ce qui est dans le cône passé est "l'étoile", et donc c'est bien elle la source de la gravitation à l'événement "observateur".

    la gravitation est une déformation topologique, donc qui "est" et ne se propage pas .
    en revanche
    les fluctuations ( provoquant evt des ondes gravitationnelles ) elles ( porteuses d'informations sur une modification de cette déformation ) se propagent à C.

    le temps est une fluctutation de l'espace


    "Depuis que le Temps est distance dans l'Espace, le Temps est mémoire sur la structure de l'Espace. Sans mémoire , pas de Temps. Sans Temps pas de mémoire."

  28. #27
    invite93279690

    Re : Principe de conservation de l'information

    Juste pour continuer un peu sur ma lancée. Si on part d'une distribution initiale uniforme sur un sous-ensemble de mesure et qu'on appelle , la mesure sur la totalité de l'espace des phases disponible alors il est vrai que l'entropie . Pour autant, si la dynamique est mélangeante, l'image du domaine initial sous le flot hamiltonien va de plus en plus se mélanger avec l'ensemble de l'espace des phases disponible. C'est une propriété non négligeable qui n'est pas capturée par l'entropie de Shannon utilisée comme fonction d'un point de l'espace des phases. Il existe une entropie qui permet de capturer certains aspects de ce melange et qui s'appelle l'entropie topologique. La partie importante est que cette entropie topologique est bornée supérieurement par l'entropie de Boltzmann .

    D'un point de vue physique, le sous-domaine initial est déformé de telle sorte a couvrir de manière homogène l'espace des phase. Je dis homogène car ce n'est pas uniforme (au sens d'une mesure uniforme). La forme du domaine est poreuse et a une dimension fractale . La dimension fractale est telle que . Si la topologie de l'espace des phases utilisée n'est pas celle de mais plutot une partition plus grossière dont la maille élémentaire est plus grosse que la porosité de l'image du domaine initial sur un temps long, alors il y aura convergence, par rapport à la mesure correspondante, de la distribution initiale vers la distribution uniforme sur et de l'entropie (topologique ?) vers l'entropie de Boltzmann "coarse grainée" avec cette partition.

    L'avantage d'une telle approche est qu'elle evite de parler de moyennes temporelles.

  29. #28
    invitec998f71d

    Re : Principe de conservation de l'information

    BAALSOD
    Il y a cependant un probleme avec cette idee.
    Un volume tres compliqué a décrire contiendrait beaucoup d'information.
    Cependant s'il est inclus dans une sphere de rayon 1 qui est elle facile à décrire on a une contradiction.

  30. #29
    invitec7606cbb

    Re : Principe de conservation de l'information

    @ Murmure-du-vent


    pouvez-vous me faire part de cette contradiciton qui ne me saute pas aux yeux... oops,...

  31. #30
    invitec998f71d

    Re : Principe de conservation de l'information

    le petit volume compliqué (et donc censé contenir beaucoup d'information) est dans la grosse sphere simple.
    il y aurait donc beaucoup d'information dans la sphere simple parcequ'elle inclut un truc compliqué
    et non pas parce que sa forme est compliquée à décrire.

Page 1 sur 3 12 DernièreDernière

Discussions similaires

  1. [Génétique] La conservation de l'information génétique
    Par inviteca1fe83b dans le forum Biologie
    Réponses: 5
    Dernier message: 17/12/2012, 21h19
  2. Principe de conservation du mouvement
    Par invite2d98776b dans le forum Physique
    Réponses: 5
    Dernier message: 20/07/2011, 11h45
  3. [exo] Principe de conservation de l'énergie
    Par invite76e167ce dans le forum Physique
    Réponses: 1
    Dernier message: 07/05/2008, 14h36
  4. Principe de conservation de l'énergie
    Par invite299c39aa dans le forum Physique
    Réponses: 2
    Dernier message: 15/04/2008, 16h26
  5. principe de la conservation
    Par invite624c5402 dans le forum Chimie
    Réponses: 0
    Dernier message: 10/10/2006, 17h47