Une question sur l'entropie - Page 2
Répondre à la discussion
Page 2 sur 4 PremièrePremière 2 DernièreDernière
Affichage des résultats 31 à 60 sur 96

Une question sur l'entropie



  1. #31
    Aigoual

    Re : Une question sur l'entropie


    ------

    Citation Envoyé par mmy
    il faut absolument aller regarder les notions de systèmes dissipatifs. […]
    Réfléchir sur l'entropie et se contenter du second principe sans prendre en compte les équilibres dynamiques des systèmes dissipatifs, amène à une vision erronée…
    Pour être certain de bien comprendre de quoi tu parles, peux-tu me préciser ce que sont le premier et deuxième principe, ainsi que la notion de systèmes dissipatifs ?

    N’oublie pas mon inculture… (qui est réelle : ce n’est pas de la coquetterie)

    J’utilise peut-être des termes qui ne sont pas tout à fait normés.
    Ce n’est pas forcément grave, mais je voudrai juste vérifier si, de ma part, c’est une question de mots et de définitions, ou s’il s’agit d’un vrai contresens.

    Amicalement,

    Aigoual.

    -----

  2. #32
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Oui, je suis d’accord, c’est bien ce qu’il m’avait semblé dire moi-même, non ?

    i, je vois ce que tu veux dire, mais là non plus, je ne perçois pas de désaccord.
    Bonsoir,

    Je ne sais plus trop. Je résume ma thèse: si je définis le système solaire comme ce qui est dans une sphère de 2 années-lumière de diamètre centrée sur le Soleil, alors l'entropie dans cette sphère diminue (l'ordre augmente, si on accepte la relation en ordre et entropie - ce que je n'accepte pas vraiment, mais c'est un autre sujet...)

    Le deuxième principe est néanmoins respecté, parce que l'entropie sort de cette sphère sous forme de rayonnement.

    La notion d’ordre et de désordre est locale, contingente de l’idée de structure locale au système local.
    Globalement, les notions d’ordre et de désordre n’ont effectivement pas de sens.
    Ordre/désordre, je ne sais pas, mais l'entropie a un sens!

    Pourquoi faudrait-il que la pomme tombée témoigne d’un désordre plus grand que quand elle était en l’air ? En revanche, ce qui est vrai, c’est que si je devais la remettre dans l’arbre une fois au sol, il me faudrait dépenser davantage d’énergie que celle qui lui a permis de tomber.
    La pomme tombe, il y augmentation d'entropie. Mais ce n'est pas nécessairement celle de la pomme. Il se peut que l'entropie pomme/Terre diminue (je ne sais pas calculer ce cas). L'énergie potentielle, de basse entropie, est transformée en énergie thermique à 285 K (fait frisquet, cet automne!), à plus haute entropie, par le frottement sur l'air, le choc mou, l'amortissement des vibrations. Cette énergie va finir par fuir de la Terre, sous forme de rayonnement à disons 250 K, de l'entropie part avec... Au résultat, la chute de la pomme peut avoir baisser l'entropie sur Terre, l'augmentation d'entropie étant partie avec le rayonnement.

    Quand je parle d’ordre et de désordre, je fais nécessairement référence à des systèmes locaux, possédant des structures locales et disposant d’un niveau d’énergie local suffisamment élevé pour maintenir la structure locale en question. Mais, dans l’absolu, c’est clair, il n’y a ni perte, ni ordre, ni désordre, ni même structure particulière.
    Il faut s'occuper de l'entropie, rien d'autre!

    Il me semble effectivement avoir été plus clair dans ce fil http://forums.futura-sciences.com/th...+entropie.html. où je répondais à une question du même ordre.
    Clair, peut-être, mais je n'exprimerais pas les choses ainsi...

    Cordialement,
    Michel

  3. #33
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Pour être certain de bien comprendre de quoi tu parles, peux-tu me préciser ce que sont le premier et deuxième principe, ainsi que la notion de systèmes dissipatifs ?
    Le premier principe est la conservation de l'énergie.

    Le deuxième est l'augmentation de l'entropie.

    L'entropie est un concept pas facile, en rapport avec le nombre de degrés de liberté sur lesquels l'énergie est distribuée. Plus l'énergie est concentrée (un gros objet qui se déplace), moins il y a d'entropie. Quand la même énergie est distribuée sur plein de particules légères allant librement dans tous les sens (énergie thermique d'un gaz), l'entropie est élevée.

    Un système isolé évolue usuellement vers un équilibre statique, avec homogénéisation de la température, en accord avec le second principe.

    Un système dissipatif est un système qui est traversé par un flux d'énergie continu entre une source d'énergie et un puits d'énergie. Si le flux est constant, il s'établit un équilibre dynamique : les indicateurs principaux, comme la répartition de la température, de la pression n'évoluent pas (mais il peut y avoir des structures dynamiques complexes). Par exemple, la température de la surface de Vénus (j'évite la Terre!) n'évolue pas, mais elle est définie par un équilibre dynamique; si le flux solaire s'arrête, la température se met à chuter.

    Un système dissipatif à l'équilibre dynamique peut présenter des gradients thermiques, ce qui n'est pas possible pour système fermé à l'équilibre statique.

    Le Soleil est un système dissipatif, en équilibre dynamique depuis qq milliards d'années et pour encore autant. Le flux d'énergie provient de la fusion nucléaire au centre, le puits est l'espace vers lequel la surface rejette de l'énergie, et cela détermine un gradient de pression et un gradient thermique. Sans cela, le Soleil s'effrondrerait, et finirait au bout d'un certain temps en une boule homogène en température, celle du fond de ciel (3K maintenant).

    La Terre est un système dissipatif, avec deux flux: le flux solaire, et le flux géothermique. D'où des tas de gradients, et des phénomènes typiques des systèmes dissipatifs, mouvements convectifs (tectonique des plaques, ouragans et autres mouvements de l'atmosphère).

    La vie est essentiellement un système dissipatif, sur le flux solaire principalement.

    Une simple casserole d'eau qui chauffe montre un système dissipatif. Dans certaines conditions, des mouvements convectifs stables se forment. Un exemple de mouvement stable est la tache rouge de Jupiter...

    Dans une système dissipatif à l'équilibre dynamique, l'entropie est constante (puisqu'à l'équilibre). La formation des structures avant l'équilibre est une diminution d'entropie, mais n'est pas en contradiction avec le second principe, parce que l'entropie en excès est partie dans le puits d'énergie.

    Le maintien des structures est lié à la circulation de l'énergie et l'augmentation d'entropie le long de la circulation. La source est à basse entropie, et le puits à plus haute entropie.

    Ouf..

    Ca fait un début...

    En espérant que cela aide...

    Cordialement,

  4. #34
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Clair, peut-être, mais je n'exprimerais pas les choses ainsi...
    (Je viens de lire ton second message, au moment où je finissais celui-ci. Il ne me semble pas que ce qui suit soit en contradiction, même si, c’est vrai, les mots ne sont pas exactement les mêmes. Me trompe-je ?)

    Si tu me trouves clair, c’est que je suis cohérent, ce qui n’est déjà pas si mal.
    Si tu ne t’exprimerais pas ainsi, c’est probablement que mes propos ne sont pas correctement normés.

    Mes notions d’entropie commencent à dater un peu, maintenant.
    Elles proviennent de ma compréhension de la théorie des systèmes vue sous l’angle informatique. Ce qui explique les notions de structures, d’ordre et de désordre qui passent davantage par une organisation plus ou moins complexe de l’information, bien plus que de l’énergie (bien qu’elles ne soient pas incompatibles, au contraire)

    Au sens global du réel, aucune information ou structure d’informations ne prime sur une autre. L’ordre vaut le désordre. Le bloc de marbre entier n’a pas davantage de valeur en soi que le bloc de marbre brisé en mille morceaux. En revanche, localement, il est possible de créer autant de hiérarchie d’organisations (de structures) que voulues. Et la statue du David de Michel Ange possède une valeur différente selon qu’elle soit entière ou brisée.

    On peut facilement transposer ce modèle sur la 2CV de Manu au plan énergétique. Pour que la 2CV ait pu exister, il a fallu une dépense énergétique infiniment plus importante que la seule énergie nécessaire à l’assemblage de ses composants. Il a fallu la concevoir à partir d’un cerveau humain, lui-même issu d’une filiation évolutionniste qui a pris naissance avec la première bactérie primitive dans le bouillon de culture originel.

    En terme de bilan, le coût est colossal, comparé aux quelques années qui suffisent à la réduire à un simple tas de rouille, la laissant dans un état proche des ses composants avant assemblage…

    Si l’on suppose que l’énergie ne se crée pas, il a bien fallut qu’elle soit dépensée sur le stock initial incompressible disponible dans l’univers. De ce point de vue, la néguentropie locale est donc bien accélération de l’entropie générale.

    Cela dit, peut-être suis-je à côté de la plaque…

    Amicalement,

    Aigoual.
    Dernière modification par Aigoual ; 07/10/2005 à 21h33.

  5. #35
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par manu_mars
    Je résume. Entropie : Désordre. Lorsque l'entropie diminue, l'ordre augmente.
    Fondamentalement, l'entropie d'un système c'est l'information qui manque à une catégorie d'observateurs pour pouvoir définir complètement l'état du système observé. L'entropie (l’ignorance de l’état) d'un système observé par la catégorie d'observateurs que sont les êtres humains par exemple c’est (avec une bonne approximation) l'entropie dite de Boltzmann.

    Or, quand l'information d’un observateur sur l'état initial d'un système isolé est incomplète, il s’avère que cette ignorance initiale (cad l'entropie initiale du système observé) tend à croître au fil du temps…
    …ou plutôt que le fil du temps s’écoule dans le sens selon lequel l'entropie (cad l'ignorance de la catégorie d'observateur associée à cette entropie) augmente quand les observateurs observent des systèmes isolés.

    Par ailleurs, malgré la microréversibilité des lois de la physique, les observateurs ont des souvenirs du passé et pas de souvenirs du futur. Pourquoi cette dissymétrie ?

    On n’a pas de souvenirs du futur parce qu’un souvenir c’est une information enregistrée. Or, enregistrer une information, exige d’en perdre une partie (donc de faire croître l’entropie). Une information enregistrée garde donc la trace d’événements situés « du côté du temps » où l’entropie est plus élevée (donc garde la trace des événements passés et pas des événements futurs).

    Par exemple, on « enregistre » la position d’une bille en la laissant tomber du bord d’un bol vers le fond de ce bol. L’information finale est enregistrée sous la forme d’un état d’équilibre stable. Après cet enregistrement, l’information est moins riche mais elle est plus stable. Elle résiste bien à de futures opérations de lecture (comme donner un petit coup sur la bille pour vérifier qu’elle est bien là).

    Dans l'hypothèse d'un déterminisme fondamental (que je trouve assez tentante eu égard aux nombreux succès que la science doit au principe de déterminisme), l'information sur les événements futurs est pourtant tout aussi présente que celle sur les événements passés. Toutefois, aux yeux d'une catégorie d'observateurs, l'information sur les événements passés est beaucoup plus facile d'accès (à ce jour, on n'a pas encore observé la trace d'ossements d'espèces animales qui existeront dans 65 millons d'années ).
    Citation Envoyé par manu_mars
    Visiblement, le concept important est le concept du "système isolé", associé au qualificatif "spontané".
    Pour ma part, j’aurais tendance à penser que le concept important (mais ce n'est pas si visible que ça), c'est le concept d'information, d'enregistrement d'information et de catégorie d'observateurs (caractérisée par leurs horizons d'accès à l'information et leurs horizons d'action). On a tendance à considérer que les informations s'échangent au fil du temps. Or il ne me semble pas exclus que, finalement, ce soit plutôt l'inverse. Ce sont peut-être les échanges d'information qui provoquent l'impression d'un déroulement du temps.

    C'est le même type de renversement de situation que celui provoqué par le passage de la conception Newtonienne de l’espace à la conception qu’en donne la Relativité Générale. En Relativité Générale, l'espace n'est plus considéré comme un cadre vide préexistant à la matière, apte à accueillir des champs de matière et d'énergie. Ce sont au contraire les champs d'énergie-matière qui créent l'espace. Je me demande si ce ne sont pas l'information et les échanges d’informations qui créent le temps et son déroulement (au même titre que les champs d’énergie matière créent l'espace).

    Peut-être que, finalement, la place dans la physique de concepts tels que le passé, le présent, le futur, la flèche du temps, l’écoulement du temps, l’entropie, l’information, le principe de causalité, le second principe de la thermodynamique… ne sont pas plus centraux (et pas moins ?) que la place de l’homme dans l’univers.

    Bernard Chaverondier
    Dernière modification par chaverondier ; 07/10/2005 à 22h01.

  6. #36
    invité576543
    Invité

    Re : Une question sur l'entropie

    Bonjour,

    Personnellement, je suis très mal à l'aise avec cette relation qui est faite un peu partout entre entropie et information. Cette relation a certes un très grand succès, et pas mal en dehors des milieux scientifiques, notons-le. A la base elle est liée à une similarité formelle entre la formule de Boltzmann et celle de Shannon, et un choix pas vraiment justifié par Shannon en dehors de la similarité formelle d'appeler entropie l'information avec le signe -. Il y aussi des développements sur le démon de Maxwell interprété à base de l'information. Et sûrement d'autres choses, merci pour tout lien...

    Mais je dois être bouché, tout cela ne me satisfait pas, principalement parce que la notion d'information est fuyante, mal définie . (Et pourtant l'information, sa transmission, son usage, sont au centre de mon métier d'ingénieur en télécom...). Par exemple, dire à quelqu'un qu'un suite de lettres tirées au hasard contient plus d'information qu'un texte de même longueur bien écrit (ce qui est correct au sens de l'information de Shannon) est un bon moyen pour passer pour un illuminé. Dans mon métier, expliquer que la démodulation d'un signal pour en tirer des 0 et des 1 est une perte d'information par rapport au signal analogique échantillonné et quantifié rencontre une résistance farouche... (et pourtant c'est parfaitement exact au sens de Shannon). Aller dire qu'un symbole binaire (un 0 ou un 1) que vous recevez contient 0.6 bits d'information... Et pourtant, c'est parfaitement licite et significatif dans la théorie de Shannon! (Un jour, dans mon milieu, j'ai montré qu'il restait dans un message numérique seulement 0.95 bits de libre; cela m'a coûté pas mal de salive pour expliquer ce que cela voulait dire!)

    A l'opposé, analyser l'entropie sur une base purement physique, en partant de la thermodynamique, des notions de température et d'énergie, de degrés de liberté thermodynamiquement actifs ou pas, d'homogénéité et d'hétérogénéité, me pose beaucoup moins de problèmes, même si je suis loin de bien comprendre tout cela. Mais au moins cela donne l'impression d'être sur un terrain solide, celui des modèles prédictifs de la physique.

    En d'autres termes, je ne connais pas d'autre sens opérationnel (susceptible de prédictions) du mot information que celui de Shannon appliquée à la transmission et au stockage de l'information (avec les "paradoxes" cités plus haut), et de ce quoi c'est dérivé, un calcul de probabilité. (Et je répète, ce sont des notions au coeur de mon métier). Le passage aux notions de connaissance d'un observateur, ou encore pire, d'ordre et de désordre, me semble être des extrapolations mal justifiées, quelle que soit leur popularité.

    Et cela ne m'empêche pas de croire comprendre des tas de choses quand je lis des textes sur l'entropie en thermodynamique...

    Cordialement,
    Michel
    Dernière modification par invité576543 ; 08/10/2005 à 07h19.

  7. #37
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Personnellement, je suis très mal à l'aise avec cette relation qui est faite un peu partout entre entropie et information. … je dois être bouché, tout cela ne me satisfait pas, principalement parce que la notion d'information est fuyante, mal définie.
    Non, tu n’es pas bouché.
    Ou alors tu l’es à la manière dont je le suis dans ton domaine ou ce lui de Chaverondier.
    A le lire, j’ai l’intuition que sa réponse est une synthèse correcte, mais je ne suis pas capable de dépasser le stade de l’intuition, parce qu’il me manque la formation aux langages formels, aux outils qu’il utilise.

    Cependant, je comprends maintenant mieux ce qui nous sépare.

    Pour moi, l’information n’a pas de réalité tangible. Elle est le pur produit de nos modèles de représentations du monde. C’est la raison pour laquelle je disais que, dans l’absolu du réel, il n’y a ni ordre, ni désordre, ni structure, ni hiérarchies de complexité entre structures.

    Je peux par exemple définir un arbre par l’ensemble arbitraire, constitué a priori de tout ce qui le constitue (tronc, branches, feuilles, cellules, etc. qui sont eux-mêmes autant de sous-ensembles obéissant à la même logique et formant un tout cohérent)
    Mais cette structure disparaît si je choisis de définir l’arbre par les seuls atomes qui le compose, puisque je ne peux plus distinguer la frontière entre les atomes d’oxygène, d’azote ou d’hydrogène (dont ceux présents dans l’eau et dans l’air) contenus dans l’arbre ou dans ce qui l’entoure.

    La notion de structure est donc purement arbitraire, issue des informations arbitrairement tirées du réel, nous servant à construire des représentations jugées utiles à ce que nous voulons faire.
    Reconnaissons cependant que la notion d’arbre ne nous est pas totalement inutile…
    Il n’empêche, utile ou pas, ce n’en est pas moins une réduction (ou une compression) du réel.

    De même, l’émergence de ces structures d’informations, pour arbitraires qu’elles soient dans l’absolu, n’en ont pas moins une histoire, une filiation du plus simple vers le plus complexe, même si cette filiation est elle-même une représentation structurée arbitraire.
    Je n’aime pas beaucoup les notions de générations spontanées. Arbitraire ne veut pas dire gratuit. Ces structures ont un coût, notamment en terme énergétique, même si cette idée de coût en débit crédit est purement interne à la structure locale, sans aucune incidence sur le coût global.
    Sauf à définir ce que serait l’extérieur de l’univers, celui-ci ne gagne rien et ne perd rien. Les notions de coûts lui sont totalement étrangères…

    Ce qui signifie aussi que la notion d’entropie est-elle même une représentation compressée (ou réductrice) du réel. Dans l’absolu, cette représentation n’a pas de sens, pas de réalité. Le réel s’en fiche royalement.

    Cela dit, si tu me dis qu’à…

    Citation Envoyé par mmy
    …l'opposé, analyser l'entropie sur une base purement physique, en partant de la thermodynamique, des notions de température et d'énergie, de degrés de liberté thermodynamiquement actifs ou pas, d'homogénéité et d'hétérogénéité, me pose beaucoup moins de problèmes, […] cela donne l'impression d'être sur un terrain solide, celui des modèles prédictifs de la physique.
    ...alors cela signifie qu’il me faudrait peut-être pour éviter les ambigüités, trouver un autre modèle que celui de l’entropie (notion de "dégradation" peut-être ?)
    Jusqu’à présent, ce modèle m’allait bien, mais si ce doit être motif de confusion, ce n’est pas une bonne chose.
    Il y a nécessairement des penseurs qui ont déjà du buter sur la difficulté et trouver des solutions.
    Si vous avez des propositions, je suis volontiers preneur.

    Amicalement,

    Aigoual.

  8. #38
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Personnellement, je suis très mal à l'aise avec cette relation qui est faite un peu partout entre entropie et information.
    J'ai mis beaucoup de temps à l'accepter moi aussi et je cherche à savoir (encore un peu mais sans trop d’espoir) s’il n’existerait pas un moyen de s’en passer pour définir l’entropie et la flèche du temps (le caractère relatif à l’observateur de la flèche du temps m’est très difficile à accepter).

    Du fait du caractère informationnel de l’entropie (je détaille plus loin l’impossibilité de la définir autrement au plan fondamental), un grand nombre de concepts physiques importants : le passé, le présent, le futur, la flèche du temps, l'écoulement du temps, le second principe de la thermodynamique et le principe de causalité notamment, apparaissent pour ce qu’ils sont peut-être (je continue à en douter) : une propriété de la relation qui s’établit entre les systèmes observés et une catégorie d’observateurs limités par leurs horizons d’accès à l’information et par leurs horizons d’action.
    Citation Envoyé par mmy
    A la base elle [la relation entropie/information] est liée à une similarité formelle entre la formule de Boltzmann et celle de Shannon.
    Parler de similarité n’est pas correct à mon sens. On ne peut pas dire d’un chien qu’il est similaire à un mammifère. Il en est un. Pour la même raison, il n’est pas possible de dire qu’il y a similarité entre entropie et quantité information manquante pour caractériser l’état d’un système. Au niveau fondamental, même en cherchant bien, on ne sait pas définir l'entropie d’un système autrement que comme le manque d'information d’une catégorie d’observateurs sur l’état de ce système.

    A titre d’illustration, si je fais tomber une goutte d'encre dans un verre d'eau, j’atteins « un » état d'équilibre où l’encre forme un mélange stationnaire, homogène et isotrope avec l’eau. En apparence, plus rien ne se passe. En réalité, à une échelle d’observation plus fine, on se rend compte que c’est une illusion d’optique liée à la myopie de l’observateur macroscopique. En effet à l’échelle microscopique, quand le phénomène de diffusion de l’encre est censé s’être achevé, les particules d’encre profitent de la myopie de l’observateur macroscopique pour continuer à chahuter avec toujours autant de vigueur.

    L’état d’équilibre est pourtant censé être atteint. L’évolution vers cet état d’équilibre est qualifiée d’irréversible car l’entropie est censée avoir augmenté. Oui mais quelle entropie ? Celle de Gibbs ou celle de Boltzmann ?…
    …Celle de Boltzmann traduisant le manque d’information de l’observateur macroscopique et la croissance de son ignorance au fil du temps (en fait c’est l’inverse. Le sens d’écoulement du temps c’est l’ordre dans lequel il faut ranger les événements mémorisés pour qu’il y ait croissance de cette ignorance).

    A l'échelle d’observation microscopique, les systèmes évoluent de façon déterministe et réversible donc isentropique, c'est à dire sans création et sans perte d'information. Modélisé dans son Gamma espace de phase à 6N dimensions, un système isolé de N particules ponctuelles évolue à entropie de Gibbs constante comme l’établit le théorème de Liouville découlant de l'évolution Hamiltonienne des systèmes classiques isolés. Cette évolution est unitaire, déterministe et réversible donc isentropique.

    A une échelle d’observation microscopique, l’irréversibilité de l’évolution, la croissance de l’entropie et même l’état d’équilibre atteint par un système isolé apparaissent pour ce qu’ils sont : des illusions d'optique découlant de la myopie de l'observateur macroscopique. Il n’y a pas de flèche du temps et pas de possibilité d'enregistrer des informations (donc d’avoir des souvenirs) sans une part d’ignorance de l'observateur. Par ailleurs, je soupçonne la mécanique quantique d'être elle aussi déterministe et réversible à un niveau de description approprié [1].
    Citation Envoyé par mmy
    Il y aussi des développements sur le démon de Maxwell interprété à base de l'information.
    Le démon de Maxwell a effectivement été d’une aide non négligeable pour réaliser que la notion d’entropie ne peut être définie (au niveau fondamental) sans faire appel à la notion d’information (Cf Le Démon de Maxwell, David Poulin, décembre 99, université de Sherbrooke http://www.iqc.ca/~dpoulin/publications/dm.pdf )
    Citation Envoyé par mmy
    A l'opposé, analyser l'entropie sur une base purement physique, en partant de la thermodynamique, des notions de température et d'énergie, de degrés de liberté thermodynamiquement actifs ou pas, d'homogénéité et d'hétérogénéité, me pose beaucoup moins de problèmes, même si je suis loin de bien comprendre tout cela. Mais au moins cela donne l'impression d'être sur un terrain solide, celui des modèles prédictifs de la physique.
    C’est tout à fait ça, une impression, l’impression de l’observateur macroscopique reflétée par le modèle phénoménologique qu’en donne la thermodynamique avant que sa base informationnelle n’ait été mise en évidence par la thermodynamique statistique.

    S = k ln(oméga) c’est l’information qui manque à l’observateur macroscopique pour définir l’état microscopique d’un système qu’il ne connaît que par les caractéristiques qu’il observe à l’échelle macroscopique. Il ignore quel est le bon état microscopique parmi les oméga états microscopiques indiscernables à ses yeux et k ln(oméga) est une mesure de l’information qui lui manque pour caractériser complètement cet état microscopique. Au niveau fondamental, on ne peut pas s’appuyer sur la notion de température car elle repose sur la notion d’entropie (1/T = dS/dE), entropie qui elle même repose sur la notion d’information.
    Citation Envoyé par mmy
    Le passage aux notions de connaissance d'un observateur…
    En fait, c’est l’inverse. On ne passe pas des notions d’entropie à la notion de connaissance d’un observateur. On quantifie la notion de connaissance d’un observateur. L’information qui lui manque pour caractériser l’état des systèmes observés est appelée entropie. Sans observateur, il n’y a tout simplement pas d’entropie. Elle n’existe pas sans lui.

    Bernard Chaverondier

    [1] Subquantum Mechanics : The sub-quantum (deterministic) theory of Micho Durdevich, Universidad Nacional Autonoma de Mexico, “Physics Beyond the Limits of Uncertainty Relations”. A picture of physical reality which is based on individual physical systems, completely causal, and statistically compatible with quantum mechanics http://www.matem.unam.mx/~micho/subq.html

  9. #39
    Aigoual

    Re : Une question sur l'entropie

    Bonjour à tous les deux,

    Je suis désolé de n’être pas au niveau pour vous suivre.
    J’en reste à l’intuition de ce que vous dites, sans pourvoir en dépasser le seuil technique que je ne possède pas et qui me permettrait de faire miennes vos réflexions…

    Juste un truc.
    Quand Bernard dit qu’
    Citation Envoyé par chaverondier
    …on ne passe pas des notions d’entropie à la notion de connaissance d’un observateur. On quantifie la notion de connaissance d’un observateur. L’information qui lui manque pour caractériser l’état des systèmes observés est appelée entropie. Sans observateur, il n’y a tout simplement pas d’entropie. Elle n’existe pas sans lui.
    Ai-je le droit de le rapprocher de ce que je disais en supposant que
    Citation Envoyé par Aigoual
    …l’information n’a pas de réalité tangible. Elle est le pur produit de nos modèles de représentations du monde. C’est la raison pour laquelle je disais que, dans l’absolu du réel, il n’y a ni ordre, ni désordre, ni structure, ni hiérarchies de complexité entre structures.
    ?

    Est-ce intuitivement juste, ou dois-je considérer que cela n’a rien à voir ?

    En vous remerciant,

    Aigoual.

  10. #40
    invite3dc2c2f6

    Re : Une question sur l'entropie

    Bonsoir
    Sans observateur, point d’entropie, et point de temps non plus… microscopique ou macroscopique. Le temps peut être assimilé a une différence entre l’information entière et l’absence d’information ; autrement dit, il s’installe dans ce creux et instaure pour l’observateur un compte à rebours qui quantifie la notion de connaissance : a l’instant T j’ai l’information de l’état, et a l’instant T+1, j’ai une autre information qui décrit en fait la différence entre l’information à T et celle a T+1. De cette différence, je tire une connaissance, une description de ce qu’il s’est passé.
    De la même manière, l’observateur en train d’observer à T est conscient de son propre état d’information, et pendant qu’il observe, cette information évolue jusqu’a T+1. Ainsi, le temps du système observé est assimilé par l’observateur au temps de l’observateur ;
    Autrement dit, il se trouve que ce creux d’information du système observé est en rapport identique avec le creux d’information de l’observateur en train d’observer.
    En fait, dans l’expérience du chat de Schrödinger, on peut dire que le temps n’existe pas dans le système jusqu'à ce que l’on se renseigne sur l’état du chat…puisque le système n’est pas observé.
    L’état d’équilibre thermodynamique peut alors peut-être signifier non plus un équilibre en température, mais plutôt un état dans lequel plus aucune information n’a besoin d’être échangé : chaque corps est renseigné de la même manière, possède la même quantité moyenne d’information.
    La température n’est alors plus une représentation de l’état d’excitation des atomes, mais d’un niveau d’information particulier. C’est du moins ce que je retire d’un poste précédent ou l’on me disait que la température d’un seul atome n’existe pas, mais que l’on peut parler de température pour un ensemble d’atomes.
    Hum. Bon, c’est une hypothèse que je fait, qui d’ailleurs a sûrement du être formalisée ou envisagée par des hommes de sciences, mais est-ce valable ?

    Manu
    (de meme en vous remerciant)

  11. #41
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    L’information n’a pas de réalité tangible. Elle est le pur produit de nos modèles de représentation du monde.
    Je suis assez tenté de dire l'inverse. Mon sentiment c'est que l'information que nous percevons et dont nous nous souvenons requiert une part d'ignorance. Heureusement elle existe grâce à nos limitations physiques d'accès à l'information. C'est assez bizarre mais un certain nombre de concepts physiques très importants n'existeraient pas sans cette part d'ignorance.

    Sans cette ignorance (qu'on appelle l'entropie), nous ne retiendrions rien du tout car nous ne pourrions pas classer dans le même état macroscopique (grâce à notre myopie d'observateur) des états qui à une échelle d'observation plus fine sont différents. En effet, selon moi, une information enregistrée c'est un état d'équilibre stable, comme une bille au fond d'un bol. Si on la pousse un peu pour vérifier si elle est bien là, elle reste dans le même état d'équilibre stable. Enregistrer une information c'est accepter de perdre la majeure partie d'une information riche et instable pour obtenir la stabilité de l'information qui reste vis à vis des agressions de l'environnement (notamment vis à vis d'opérations de lecture ultérieures).
    Citation Envoyé par Aigoual
    C’est la raison pour laquelle je disais que, dans l’absolu du réel, il n’y a ni ordre, ni désordre, ni structure, ni hiérarchies de complexité entre structures.
    Je ne sais pas trop. En tout cas, une chose me semble presque sûre. Notre façon de modéliser et de comprendre l'univers est probablement très fortement dépendante de l'entropie des systèmes observés, c'est à dire de nos limitations d'accès à l'information.

    Notre vision du monde (en particulier notre perception du temps, de sa flèche et de son écoulement) peut donc être assez profondément modifiée si des informations à ce jour inaccessibles (je pense notamment au fond de rayonnement gravitationnel et à des informations sur des événements qui sont séparés de nous par des intervalles de type espace) nous deviennent accessibles un jour ou l'autre.

    Bernard Chaverondier

  12. #42
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par manu_mars
    En fait, dans l’expérience du chat de Schrödinger, on peut dire que le temps n’existe pas dans le système jusqu'à ce que l’on se renseigne sur l’état du chat…puisque le système n’est pas observé.
    Je ne suis pas d'accord sur ce point. Les "dinosaures de Schrödinger" n'ont pas eu, je pense, la patience d'attendre pendant 65 millions d'années dans un état superposé entre survie et disparition qu'un paléontologue vienne examiner leurs ossements pour décider de s'éteindre .

    Par contre, effectivement, le temps ne s'écoule pas (pour les observateurs que nous sommes) entre le moment où on mesure la polarisation d'un photon et le moment où le photon jumeau EPR corrélé (de l'expérience d'Alain Aspect) se met dans l'état de polarisation complémentaire. A mon avis, cela signifie que la dynamique de réduction du paquet d'onde (si s'en est bien une) se déroule sans laisser de trace observable (enregistrées sous forme d'état stable) compte tenu de nos limitations actuelles d'accès à l'information (cf http://perso.wanadoo.fr/lebigbang/epr.htm pour plus de détails à ce sujet). Peut-être le temps présent (d'épaisseur nulle) se "déplie"-t-il comme un accordéon si l'on dispose d'informations enregistrées sur un support (je pense au fond de rayonnement gravitationnel) dont l'observation nous est à ce jour inaccessible.
    Citation Envoyé par manu_mars
    L’état d’équilibre thermodynamique peut alors peut-être signifier non plus un équilibre en température, mais plutôt un état dans lequel plus aucune information n’a besoin d’être échangée.
    Un état d'équilibre thermodynamique est un état dans lequel l'entropie est maximale. Cela semble (au départ du moins. Quand on creuse ça l'est beaucoup moins) assez normal puisque c'est "un" état dans lequel le système a la plus grande probabilité de se trouver. C'est "un" état qui, en réalité, rassemble un nombre oméga gigantesque d'états microscopiques distincts mais indiscernables aux yeux myopes de l'observateur macroscopique. Cette ignorance (ce manque d'information) de l'observateur macroscopique S = k ln(oméga) sur l'état microscopique du système observé s'appelle l'entropie du système.

    La température T du système, c'est : 1/T = dS/dE. C'est donc le taux de croissance de l'entropie S en fonction de l'énergie E. 1/T c'est la perte d'information dS = k d[ln(oméga)] de l'observateur macroscopique rapportée à un gain d'énergie dE du système (sous la condition de constance d'autres grandeurs macroscopiques telles que le volume V et le nombre de particules N du système par exemple).

    Le fait que l'équilibre entre deux systèmes soit obtenu quand ils ont même température se démontre (en physique statistique). On montre en effet que c'est dans cette situation que le manque d'information S de l'observateur macroscopique sur l'état microphysique de la réunion des deux systèmes est maximal (voir Physique statistique, Introduction, Christian et Hélène Ngô, édition Dunod, 2ème édition, § 4.1 équilibre thermique, notamment l'équation (11) page 80)

    Bernard Chaverondier

  13. #43
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    Parler de similarité n’est pas correct à mon sens. On ne peut pas dire d’un chien qu’il est similaire à un mammifère. Il en est un. Pour la même raison, il n’est pas possible de dire qu’il y a similarité entre entropie et quantité information manquante pour caractériser l’état d’un système. Au niveau fondamental, même en cherchant bien, on ne sait pas définir l'entropie d’un système autrement que comme le manque d'information d’une catégorie d’observateurs sur l’état de ce système.
    L'unité de l'entropie est Joule par Kelvin. Une quantité d'information manquante est un nombre sans dimension, construit comme la somme de produit d'une probabilité et d'un log, celui-ci sans dimension mais évalué avec comme unité le "bit", une unité d'information.

    Le passage d'une unité à l'autre demande une constante, qui est sortie d'un chapeau. Tant que cette constante n'est pas expliquée, justifiée, je refuse d'accepter que l'on ne peut pas définir l'entropie autrement que comme manque d'information. En d'autres termes, cette constante montre qu'il n'est pas possible de définir l'entropie comme un manque d'information sans une interprétation de l'unité de température: quelle est cette interprétation?

    A l'échelle d’observation microscopique, les systèmes évoluent de façon déterministe et réversible donc isentropique (...)

    A une échelle d’observation microscopique, l’irréversibilité de l’évolution, la croissance de l’entropie et même l’état d’équilibre atteint par un système isolé apparaissent pour ce qu’ils sont : des illusions d'optique découlant de la myopie de l'observateur macroscopique.
    J'ai beaucoup de mal à suivre cela. Pour moi l'entropie est un moyen pour modéliser des phénomènes, pas pour modéliser un observateur.

    Pour moi, nous sommes en présence d'un phénomène émergent. Le dsicours ci-dessus, c'est comme dire que "affirmer que des cellules ou des êtres sont vivants" est une illusion d'optique découlant de la myopie de l'observateur: à l'échelle microscopique, il n'y a que des échanges d'atomes entre molécules, et la notion de vie n'existe pas à cette échelle! C'est vrai, mais cela passe totalement à côté du problème.

    Cordialement,

  14. #44
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par manu_mars
    Bonsoir
    Sans observateur, point d’entropie, et point de temps non plus… microscopique ou macroscopique.
    Bonjour,

    La dérive vers le solipsisme est quasiment inévitable avec ce genre d'affirmation. J'adopte un point de vue réaliste, et cela ne me permets pas de suivre la discussion sur ce terrain.

    Cordialement,

    Michel

  15. #45
    Aigoual

    Re : Une question sur l'entropie

    Bonjour Bertrand,

    Je crois que je commence à bien mieux percevoir tes propos.
    Je vais peut-être pouvoir passer de l’intuition à la vérification de cohérence.

    Citation Envoyé par chaverondier
    Mon sentiment c'est que l'information que nous percevons et dont nous nous souvenons requiert une part d'ignorance.
    Ce qui nous permettrait donc de rejoindre l’idée que nous ne connaissons le réel que par les informations qu’il veut bien nous livrer. La formulation que j’avais utilisé est effectivement inverse (le réel ne connaît pas l’information) mais elle semble bien exprimer la même chose.

    Citation Envoyé par chaverondier
    Sans cette ignorance (qu'on appelle l'entropie), nous ne retiendrions rien du tout car nous ne pourrions pas classer dans le même état macroscopique (grâce à notre myopie d'observateur)
    Ignorance qui nous contraint à réduire (ou compresser) le réel pour y avoir accès. Avec cet inconvénient que, si le réel est réduit, nous perdons nécessairement les informations (myopie) que nous avons éliminé (arbitrairement, mais en fonction d’un but précis) pour en dégager la structure. Le réel est unique, mais les structures (compressions) possibles (dont le modèle entropique) sont infinies.

    Si l’entropie est ignorance parce que structure est réciproquement, je suis donc légitimé à pouvoir dire qu’à l’inverse, le réel ne connaît pas l’entropie, pas davantage qu'il ne connaît aucune structure.

    Ce que tu sembles confirmer lorsque tu dis que

    Citation Envoyé par chaverondier
    …notre façon de modéliser et de comprendre l'univers est probablement très fortement dépendante de l'entropie des systèmes observés, c'est à dire de nos limitations d'accès à l'information.
    Ce qui rejoint ma proposition selon laquelle l’entropie serait

    Citation Envoyé par Aigoual
    …le pur produit de nos modèles de représentations du monde.
    Je suis évidemment désolé de t’imposer mon langage davantage philosophique que purement scientifique, mais malheureusement, c’est le seul outil dont je dispose.
    En tout cas, je te remercie de tes précisions.
    Elles m’ont permis de mieux structurer ma pensée (structuration, donc inévitable réduction...)
    N’hésite pas à me reprendre si tu sens encore des points de divergence.

    Amicalement,

    Aigoual.

  16. #46
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    Sans cette ignorance (qu'on appelle l'entropie), nous ne retiendrions rien du tout car nous ne pourrions pas classer dans le même état macroscopique (grâce à notre myopie d'observateur) des états qui à une échelle d'observation plus fine sont différents.
    Bonjour,

    On ne doit pas mettre toute l'information sur un même plan. Ce serait dire que tout bit à la même importance. Ben non, il y a des bits de poids faible et des bits de poids fort. On peut comprimer la parole sans perte d'intelligibilité alors qu'il y a une énorme perte d'information.

    Quand on diagonalise une matrice et qu'on ne retient que les valeurs propres les plus significatives, on a une bonne approximation de la matrice d'origine alors qu'on a perdu de l'information. Perdre la même quantité d'information (au sens Shannonien) au hasard sur les coefficients de la matrice non diagonalisée donne une approximation bien plus grossière, d'usage pratique incomparablement plus faible que l'approximation sur les valeurs propres.

    Le principe variationnel en physique est une application de ces méthodes: on s'intéresse à un problème simplifié correspondant aux "grosses" valeurs propres, et on calcule ensuite les variations autour de la solution du problème simplifié en prenant un peu plus de détails en comte, etc. on hiérarchise le problème en privilégiant l'opérationnalité.

    L'entropie est une "grosse" valeur propre. Oui, comme toute théorie émergente, c'est une perte d'information par rapport au phénomène microscopique, mais, oui, comme pour toute théorie émergente, cette perte n'est pas n'importe quelle perte, elle est choisie pour garder un maximum de signification opérationelle parmi les pertes d'information Shannonienne équivalente.

    C'est tout le problème avec l'information Shannonienne: elle ne s'occupe pas de la hiérarchie de l'information en termes opérationnels. Si je dit que pi = 11.0010010001 une erreur sur le premier bit me rend ce nombre inopérationnel pour le calcul du périmètre d'un cercle, alors qu'une erreur sur le dernier bit (qui est d'ailleurs faux... mais l'autre valeur est moins efficace!) n'aura pas beaucoup de conséquence: la théorie avec ce nombre reste tout à fait utilisable et le nombre garde une certaine siginification utile.

    Cette énorme différence entre l'information "brute", stockée et transmise, et la "sémantique", l'usage opérationnel de l'information, donne des limitations énormes aux théories se limitant à l'information "brute".

    Cordialement,
    Dernière modification par invité576543 ; 09/10/2005 à 06h43.

  17. #47
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    J'ai beaucoup de mal à suivre cela. Pour moi l'entropie est un moyen pour modéliser des phénomènes, pas pour modéliser un observateur.
    C’est vrai, mais le fait que nous ne percevions du réel que les informations qu’il veut bien nous livrer ne signifie pas que le réel ne soit pas, ce que tendrait effectivement à nous laisser croire le solipsisme.
    Bertrand (si je l’ai bien compris) ne dit pas que le réel se réduit à l’observateur. Il dit simplement que l’en-soi du réel n’est pas accessible autrement que par des modèles.
    Je n’ai pas le sentiment d’une dérive solipsiste.
    Et tu es tout à fait fondé, dans l’expérimentation, à t’en tenir à un "réalisme pragmatique" qui reste parfaitement opérationnel.

    Amicalement,

    Aigoual.

  18. #48
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Ignorance qui nous contraint à réduire (ou compresser) le réel pour y avoir accès. Avec cet inconvénient que, si le réel est réduit, nous perdons nécessairement les informations (myopie) que nous avons éliminé (arbitrairement, mais en fonction d’un but précis) pour en dégager la structure. Le réel est unique, mais les structures (compressions) possibles (dont le modèle entropique) sont infinies.
    Bonjour,

    La compression n'est pas arbitraire. Le nombre de compressions n'est pas infinies, à moins d'admette le mot "compression" comme toute perte d'information.

    Il y a des critères forts dans le choix de la compression, et qui sont indépendants de l'observateur.

    Encore un autre exemple: le mouvement de la Lune autour de la Terre est fort complexe, et demande une infinité de bits pour être décrit. J'affirme que le choix de donner la période moyenne de révolution sur 5 chiffres significatifs est une compression non arbitraire, qui sera choisie par tous les observateurs si j'impose une limite de 15 bits, sans aucune discussion entre eux. Simplement parce qu'à nombre de bits égal, c'est ce qui permet les prédictions les moins erronées sur un temps donné, et cela a un sens objectif.

    Cordialement,

    Michel

  19. #49
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Je n’ai pas le sentiment d’une dérive solipsiste.
    La dérive solipsiste dont je parlais est celle de Manu_mars, quand il dit "sans l'observateur pas de temps", je suis d'accord avec toi sur la position de Bertrand.

    Cordialement,
    Dernière modification par invité576543 ; 09/10/2005 à 07h01.

  20. #50
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    l’en-soi du réel n’est pas accessible autrement que par des modèles.
    J'ai du mal à voir là autre chose qu'une tautologie (ce qui fait que je suis d'accord avec l'affirmation ). Si par "accessible" on entend comprendre, modéliser, mesurer dans le cadre d'un modèle, c'est clairement une tautologie. Quelle autre définition proposes-tu pour "accessible" ?

    Cordialement,

  21. #51
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    J'ai du mal à voir là autre chose qu'une tautologie (ce qui fait que je suis d'accord avec l'affirmation ). Si par "accessible" on entend comprendre, modéliser, mesurer dans le cadre d'un modèle, c'est clairement une tautologie. Quelle autre définition proposes-tu pour "accessible" ?
    Oui, il y a bien tautologie au niveau de la définition du réel.
    Quoi que je puisse faire, je n’ai pas réussi à trouver une définition du réel qui soit autre chose que "la totalité de ce qui est"

    Pour le verbe être non plus, je n’ai pas réussi à le définir autrement que par "ce qui désigne ce qui est dans la réalité"

    Ca boucle…

    En revanche, non, nos modèles, même s’ils s’appuient sur le réel, ne sont pas tautologiques. Ils sont déductifs, inductifs, sensibles, associatifs, algorithmiques et tout ce que tu veux d’autres, mais ils ne sont pas tautologiques.
    La définition d’un modèle est celle d’une réduction du réel, permettant de dégager une structure d’accès à sa compréhension.

    Les modèles sont donc bien les outils nécessaires pour accéder au réel, ou plutôt, aux informations que nous sommes capables d’en extraire.
    Les modèles organisent, structurent ces informations.
    Ils sont certes imparfaits et nécessairement incomplets (puisqu’ils font un tri sélectif parmi ces informations, selon les buts à atteindre) mais ils sont tout à fait opérationnels.
    (J’insiste : le pragmatisme dont tu te réclames est parfaitement légitime, parfaitement fondé !)

    Les solipsismes nous laissent croire que, puisque le réel n’est pas directement accessible, « tout n’est qu’illusion. » C’est évidemment faux, puisque l’illusion ne peut se définir qu’au regard su réel. Pour qu’il y ait illusion, il faut donc bien que le réel soit…
    Si le réel est, pourquoi parler d’illusion ?

    En espérant avoir été plus clair,
    Amicalement,

    Aigoual.

  22. #52
    invite3dc2c2f6

    Re : Une question sur l'entropie

    Bonjour

    Mon but n'etait pas de demontrer une illusion du reel, mais bien plutot le fait que la notion de temps s'introduit avec la notion de pensee et de connaissance.
    J'essayais de dire que le temps s'inscrit naturellement dans la dynamique d'apprehension du reel.
    Pour moi, il est evident que le reel existe; je tentais de montrer qu'on ne peut evidemment tout connaitre d'un coup, et que la notion du temps ne peut faire autrement que de s'inscrire dans la "difference" entre l''information totale et "décompressée", et le niveau d'information de départ.
    Autrement dit, je suppose deux choses:
    1) l'information est accessible aux etres pensants, mais aussi aux systemes microscopiques.
    2) l'acces a cette information est modifiée en fonction de la configuration de l'espace: il se peut que selon les conditions de gravité, selon la deformation locale de l'espace, le transfert d'information est lui aussi modifié, modifiant alors la perception et la notion du temps.

    toujours amicalement,
    manu

  23. #53
    GillesH38a

    Re : Une question sur l'entropie

    A vrai dire, nous ne percevons pas réellement le temps. Nous percevons un état présent de notre conscience qui nous semble contenir une mémoire du temps passé, comme si nous découvrions en permanence le journal d'un naufragé qui raconte son histoire. L'orientation du passé et du futur est donc contenue dans l'information de chaque état présent, avec la difficulté théorique que nous ne savons pas ce que c'est qu'un "état présent" du monde....

  24. #54
    invité576543
    Invité

    Re : Une question sur l'entropie

    Bonjour,

    Citation Envoyé par manu_mars
    1) l'information est accessible aux etres pensants, mais aussi aux systemes microscopiques.
    Je ne comprends pas le mot "accessible" dans le contexte après "mais".

    2) l'acces a cette information est modifiée en fonction de la configuration de l'espace: il se peut que selon les conditions de gravité, selon la deformation locale de l'espace, le transfert d'information est lui aussi modifié, modifiant alors la perception et la notion du temps.
    J'ai du mal à suivre. Pour moi la perception du temps ne dépend pas des conditions locales. Je, en tant que système physique, internalise un temps qui est le même que pour tous les phénomènes physiques locaux autour de moi. Seuls les rapports de durées sont accessibles, et ils sont indépendants des conditions locales dans ma vision du principe de relativité (au sens fort, pas d'une théorie particulière de la relativité).

    Amicalement,

    Michel

  25. #55
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    On ne doit pas mettre toute l'information sur un même plan. Ce serait dire que tout bit à la même importance.
    Tout à fait d'accord. Quand ma goutte d'encre s'est mélangée à l'eau, pour moi, le mélange obtenu est dans un état parfaitement connu du point de vue de l'information pertinente à mon échelle d'observation. Il est stationnaire, homogène, isotrope et les conséquences (pour teindre un vêtement par exemple) seront les mêmes (toujours à mon échelle d'observation) que la particule d'encre A soit à 1,2 mm ou à 1,3 mm de la particule d'encre B.

    L'information qui manque à l'observateur macroscopique pour caractériser l'état microscopique des systèmes observés (quantité manquante mesurée par l'entropie de Boltzmann) est de l'information que nous considérons comme non pertinente à notre échelle d'observation.

    Cette perte d'information est essentielle car elle nous permet de définir ce que nous appelons de l'information pertinente. Sans cette perte d'information, les informations qualifiées de non pertinentes et les informations qualifiées de pertinentes seraient classées au même niveau d'importance. Elle est donc à la base de notre vision du monde.

    De plus, cette perte d'information nous permet d'avoir des souvenirs du passé. En effet, elle permet
    * de définir la notion d'état stable en regroupant dans "un" même état macroscopique des états microscopiques différant seulement par une information jugée non pertinente,
    * de pouvoir extraire des informations sur des événements qui se sont produits à telle ou telle époque en étudiant des traces laissées par ces événements. Ces traces (comme des ossements de dinosaures par exemple) contiennent ce que nous considérons comme une information pertinente sur ce qui s'est passé à cette époque.

    En revanche, en dépit de la microréversibilité des lois de la physique, il nous est bien plus difficile d'obtenir des informations pertinentes en étudiant les traces laissées dans le présent par des événements futurs (des souvenirs du futur) car les informations contenues dans ces traces d'événements futurs se situent au dela de nos horizons d'accès à l'information.

    Ces informations qui nous sont inaccessibles sont notamment
    * des traces d'événements qui sont séparés de nous par des intervalles de type espace et font pourtant partie des causes d'événements appartenant à notre cône de futur,
    * des traces trop nombreuses et trop dispersées se situant à une échelle d'observation microscopique contribuant pourtant à déterminer tel ou tel événement futur.

    La naissance du chiot qui va naître dans 2 ans de la chienne de mon voisin a laissé des traces dans le présent (ne serait-ce que le code génétique de cette chienne et celui du chien qui va la féconder), mais les traces laissées par les causes qui provoqueront la rencontre de cette chienne et de ce chien, la fécondation de la chienne, sa grossesse, puis la naissance du chiot qui suivront ne sont pas rassemblées en un même lieu (comme les ossements de dinosaures) où elles sont facilement observables.

    Voila pourquoi nous avons des souvenirs du passé et pas de souvenirs du futur. Cela découle de nos limitations d'accès à l'information et de la façon dont s'enregistre une information pertinente ("un" état d'équilibre stable) pour les observateurs que nous sommes.

    Bernard Chaverondier

  26. #56
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Le fait que nous ne percevions du réel que les informations qu’il veut bien nous livrer ne signifie pas que le réel ne soit pas, ce que tendrait effectivement à nous laisser croire le solipsisme. Bernard (si je l’ai bien compris) ne dit pas que le réel se réduit à l’observateur. Il dit simplement que l’en-soi du réel n’est pas accessible autrement que par des modèles.
    Pas seulement. L'information que nous analysons en faisant des expériences physiques ne qualifie pas des objets réels mais notre relation à ces objets réels (que cette relation soit directe comme l'observation des arbres, du ciel ou des petits oiseaux ou indirecte par l'utilisation d'instruments d'observation comme un microscope ou un télescope).

    Les informations que nous obtenons sur les objets physiques ne sont pas objectives, mais intersubjectives (le qualificatif n'est pas de moi). Deux personnes observant un spectacle de tauromachie seront toutes deux capables de dire que la cape du toréador est rouge. C'est ça l'intersubjectivité. Elle n'est possible que parmi une catégorie d'observateurs présentant des caractéristiques communes (comme l'ensemble des êtres humains et même un ensemble plus large comprenant un certain nombre d'animaux pour certaines choses simples).

    Il est impossible de chasser complètement l'observateur de l'étude et de la caractérisation du réel. Le réel n'a de sens qu'à travers la relation que nous établissons avec lui. Notre quête d'objectivité (en fait d'intersubjectivité maquillée en objectivité) nous fait parfois oublier le rôle de l'observateur. C'est peut-être pour ça qu'on ne parvient pas à trouver le présent dans les modèles de la physique et que l'on peine à y trouver la flèche du temps.

    Bernard Chaverondier

  27. #57
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    De plus, cette perte d'information nous permet d'avoir des souvenirs du passé (...)

    Voila pourquoi nous avons des souvenirs du passé et pas de souvenirs du futur. (...)
    Bonjour,

    L'approche est intéressante, mais la dissymétrie futur/passé n'est pas si claire dans ton texte.

    J'avais il y a quelque temps dans une discussion fait la remarque un peut paradoxale suivante: il est plus scientifique de prédire le futur que d'antédire le passé.

    Le raisonnement est le suivant: faire une théorie opérationnelle qui fait des prédictions sur le futur répond au critère de Popper: c'est réfutable, il suffit d'attendre et de voir si la prédiction se réalise.

    Maitenant, une antédiction du passé est beaucoup plus difficile à réfuter. Paradoxalement, la meilleure manière de la faire (et la seule à mon avis) est de faire un prédiction du futur du genre: toutes les traces que l'on trouvera dans le futur seront compatibles avec l'existence de tel événement du passé.

    Le passé a alors le même statut qu'une théorie, aucune affirmation sur le passé ne peut avoir une nature de vérité différente au fond de celle de la mécanique quantique ou la relativité générale par exemple. Du non-encore-réfuté, par du "vrai".

    Le critère de Popper rentre parfaitement (en renversant le sens commun!) dans le cadre d'une dissymétrie informationnelle entre le futur et le passé, et je ne vois pas bien où cela colle dans ton approche.

    Cordialement,

    Michel

  28. #58
    invité576543
    Invité

    Re : Une question sur l'entropie

    Il est impossible de chasser complètement l'observateur de l'étude et de la caractérisation du réel. Le réel n'a de sens qu'à travers la relation que nous établissons avec lui. Notre quête d'objectivité (en fait d'intersubjectivité maquillée en objectivité) nous fait parfois oublier le rôle de l'observateur.
    Bonjour,

    Le sujet de l'intersubjectivité est très important. Mais il me semble qu'il est possible d'établir une hiérarchie. J'utilise personnellement ce que j'appelle la contingence d'une information, sa pertinence dans le temps et l'espace. Une information est d'autant plus contingente qu'elle ne concerne que zone spatio-temporelle limitée.

    Clairement certaines informations sont fortement intersubjectives, car elles utilisent un mode de transmission de l'information dépendant de manière intraduisible d'un contexte limité dans le temps et l'espace. Une discussion de la vision entre un dauphin et un humain serait très difficile: nous voyons des "couleurs" mais cette notion de couleur est totalement intersubjective aux humains, et est très difficilement communicable; à l'opposé, les dauphins "voient" l'intérieur des organismes, et la notion de vêtement par exemple comme ayant fonction de cacher quelque chose leur serait (sera?) très difficilement compréhensible.

    Mais il me semble qu'il y a dans la physique des informations à très faible contingence, valides dans tous l'univers. Alors l'intersubjectivité se limite à un problème de codage, de correspondance entre les symboles de l'un et les symboles de l'autre, et se résoud par une simple traduction syntaxique.

    Intuitivement, cela doit être le cas de tout ou partie des mathématiques, de la liste des éléments, des particules, de la chimie, de tout une partie de la physique. J'ai repéré quelques exceptions amusantes, comme par exemple la masse atomique, exprimée au même titre que la charge, alors que la masse atomique a bien des raisons d'être contingente. (C'est d'ailleurs évident pour les atomes avec un nucléide instable à vie très longue: clairement la masse atomique de l'Uranium varie avec le temps.)

    L'intersubjectivité est donc bien quelque chose à prendre en compte, mais à la mettre partout sans nuance, on risque de tomber dans le relativisme scientifique, à savoir que la science est une construction culturelle sans valeur autre que dans cette culture. Ce type d'approche ne me convainc pas pour la physique.

    Cordialement,

    Michel

  29. #59
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Il me semble qu'il y a dans la physique des informations à très faible contingence, valides dans tous l'univers.
    Valides dans tout l'univers peut-être (ou en tout cas très loin dans le temps et dans l'espace), mais pertinentes (pas seulement valides) pour quelle catégorie d'observateurs ?

    Je suis tout à fait convaincu que les notions physiques que nous manipulons peuvent avoir un sens bien au dela du système solaire (heureusement sinon on ne pourrait pas faire d'astrophysique) et bien avant que l'espèce humaine ne soit apparue (heureusement sinon on ne pourrait pas faire de paléontologie et encore moi de cosmologie). Le chat de Schrödinger est une présentation du problème de la mesure quantique qui a le mérite de souligner le rôle de l'observateur mais l'inconvénient de laisser croire que sa présence est nécessaire et que son caractère humain est important (ce que je ne crois pas).

    Je crois que l'observateur est nécessaire uniquement pour cataloguer les informations en deux catégories : les informations pertinentes et les informations non pertinentes. A mon sens, les informations pertinentes sans contestation possible (pour la catégorie d'observateurs que nous formons) sont les grandeurs macroscopiques, cad en gros les notions que nous manipulons en thermodynamique classique. Les autres informations (se situant à des échelles d'observation très éloignées des notres ou inaccessibles à ce jour comme des informations relatives à des événements séparés de nous par des intervalles de type espace) ne sont pertinentes, à mon avis, que par leurs conséquences sur ces grandeurs macroscopiques.

    L'entropie ne peut pas se définir sans préciser de quelle entropie on veut parler, c'est à dire quelles informations on doit ignorer (donc quelle catégorie d'observateurs caractérisée par ses limitations d'accès à l'information définit cette entropie). Cette notion d'entropie est essentielle car sur elle repose les notions physiques de passé, d'avenir, de flèche du temps, de second principe de la thermodynamique, de principe de causalité (peut-être même de présent. Je le soupçonne d'être susceptible de se déplier comme un accordéon, dans l'esprit de la Transactional Intepretation of Quantum Mechanics de John Cramer [1], si certaines informations comme le fond de rayonnement gravitationnel ou des informations sur des événements séparés de nous par des intervalles de type espace nous deviennent accessibles)

    Il y a une trentaine d'années, Hawking disait (sous forme de boutade vis à vis du point de vue déterministe d'Einstein) que "non seulement dieu joue aux dés, mais en plus il les jette là où on ne peut pas les voir". Les études récentes sur la formation d'un trou noir en théorie des cordes [2] semblent indiquer qu'il n'y a pas réellement de perte fondamentale d'information à l'occasion de la formation d'un trou noir. En théorie des cordes, le nombre de microétats quantiques du trou noir semble correspondre à l'entropie de Hawking Bekenstein (c'est à dire que cette entropie serait celle de la surface de la sphère de Schwarzschild exprimée en unités de Planck).

    Cela me semble suggérer que même en ce qui concerne la mesure quantique, on finira par découvrir, là aussi, que la création d'information (indéterminisme de la mesure quantique) et la perte d'information (perte d'information à l'issue de la mesure quantique) ne sont pas absolues mais relatives aux limitations d'accès à l'information d'une catégorie d'observateurs.
    Citation Envoyé par mmy
    L'intersubjectivité est bien quelque chose à prendre en compte, mais à la mettre partout sans nuance, on risque de tomber dans le relativisme scientifique, à savoir que la science est une construction culturelle sans valeur autre que dans cette culture.
    Je ne crois pas. Même en se plaçant à l'époque préhistorique, les flammes brulaient les mains de celui qui les approchait imprudemment du feu. L'intersubjectivité dont je veux parler, celle relative au classement comme pertinentes des grandeurs macroscopiques, dépasse donc très largement les questions culturelles. Ces grandeurs macroscopiques restent même vraisemblablement pertinentes pour tout le règne animal et probablement aussi pour tout le règne du vivant (donc largement en dehors de la catégorie des seuls observateurs humains).

    Le développement des êtres vivants me semblent suggérer qu'il s'établit une hiérarchie de pertinence des informations probablement identique à la notre. La façon dont se développent des organes tels que des yeux, des oreilles, des poumons... me donnent le sentiment que les informations macroscopiques pertinentes pour nous le sont aussi du point de vue des fonctions assurées par ces organes. Les oreilles de deux lapins différents sont totalement différentes du point de vue de leur microétat. Elles n'en réalisent pas moins la même fonction du point de vue des informations qui sont pertinentes à notre niveau d'observation macroscopique (capter des bruits et les transmettre à un cerveau chargé de les décoder).

    Bernard Chaverondier

    [1] The Transactional Interpretation of Quantum Mechanics
    John G. Cramer Department of Physics, University of Washington
    PO Box 351560 Seattle WA 98195-1560 USA
    http://mist.npl.washington.edu/ti/

    [2] On the observability of quantum information radiated from a Black hole, Marc Srednicki, department of physics, University of California http://arxiv.org/pdf/hep-th/0207090

  30. #60
    invité576543
    Invité

    Re : Une question sur l'entropie

    Quand je veux dire valide dans l'univers, je veux dire qui ferait sens à un observateur où qu'il soit dans l'univers.

    Tu demandes quelle catégorie d'observateur? Je ne sais pas ce que le mot "catégorie" veut dire ici? Quels attributs d'un observateur te semblent pertinents?

    De toute manière j'ai du mal à suivre ton discours sur l'observateur (quand tu l'appliques à la méca Q comme quand tu l'appliques à l'entropie).

    Mon approche naïve, c'est de considérer que les modèles de la physique sont autant que possible sur la réalité. Et, quand impossible de faire autrement, sur l'interaction entre l'observation et l'observé. Les notions de conscience, d'information connue ou non de l'observateur, et tout cela sont des "derniers recours", et on doit à mon naïf avis, regarder en priorité les interprétations sans ces idées là...

    Cordialement,

Page 2 sur 4 PremièrePremière 2 DernièreDernière

Discussions similaires

  1. Ptite question sur une question de géo3D : Asie 06
    Par invitefc60305c dans le forum Mathématiques du collège et du lycée
    Réponses: 2
    Dernier message: 01/06/2007, 13h51
  2. Question sur une question ( algèbre lin.)
    Par invite2dc206d9 dans le forum Mathématiques du supérieur
    Réponses: 1
    Dernier message: 13/10/2006, 23h39
  3. validité d'un formule sur l'entropie
    Par invite81b3833e dans le forum Physique
    Réponses: 1
    Dernier message: 03/10/2004, 12h44
  4. L'entropie et l'auto organisation : Une raison à la vie ?
    Par Pierre de Québec dans le forum [ARCHIVE] Philosophie
    Réponses: 32
    Dernier message: 20/08/2004, 09h03