Une question sur l'entropie - Page 3
Répondre à la discussion
Page 3 sur 4 PremièrePremière 3 DernièreDernière
Affichage des résultats 61 à 90 sur 96

Une question sur l'entropie



  1. #61
    chaverondier

    Re : Une question sur l'entropie


    ------

    Citation Envoyé par mmy
    Tu demandes quelle catégorie d'observateur? Je ne sais pas ce que le mot "catégorie" veut dire ici? Quels attributs d'un observateur te semblent pertinents?
    Son aptitude à accéder à certaines informations et pas à d'autres. C'est cela qui donne lieu au classement des informations en informations pertinentes (en gros les grandeurs thermodynamiques statistiques) et informations non pertinentes (en gros ce qui manque pour compléter la description thermodynamique statistique).
    Citation Envoyé par mmy
    Mon approche naïve, c'est de considérer que les modèles de la physique sont autant que possible sur la réalité.
    On a pas d'informations sur la réalité (on ne sait pas ce que c'est), mais seulement sur les relations que nous établissons avec elle.
    Citation Envoyé par mmy
    Et, quand impossible de faire autrement, sur l'interaction entre l'observation et l'observé.
    A mon avis, il n'y a pas d'autre cas.
    Citation Envoyé par mmy
    Les notions de conscience,
    D'après moi, on peut s'en passer dans toutes les études scientifiques qui ne portent pas spécifiquement sur la pensée humaine ou animale.
    Citation Envoyé par mmy
    Les notions d'information connue ou non de l'observateur, et tout cela sont des "derniers recours", et on doit à mon naïf avis, regarder en priorité les interprétations sans ces idées là...
    Quand on parle d'entropie et de flèche du temps, je ne vois pas comment on peut éviter la prise en compte de la notion d'observateur même si je trouve ça extrèmement choquant (ça fait plusieurs années que j'essaye de savoir s'il existe un moyen de sortir l'observateur de là et jusqu'à présent, je n'ai rien trouvé dans les études que j'ai regardées à ce sujet permettant d'atteindre cet objectif). C'est difficile de combattre le sentiment que la flèche du temps est absolue. Peut-être que c'est ce sentiment qui est correct et que l'on n'en a pas encore trouvé la raison scientifique ? Mais je commence un peu à en douter.

    Bernard Chaverondier

    -----

  2. #62
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    C'est cela qui donne lieu au classement des informations en informations pertinentes (en gros les grandeurs thermodynamiques statistiques) et informations non pertinentes (en gros ce qui manque pour compléter la description thermodynamique statistique).
    Bonsoir,

    Je continue à penser qu'il y a des critères objectifs pour trier l'information. Dans le cas bits de poids fort et de poids faible, il n'y a aucun subjectivisme: c'est inhérent à la sémantique. L'observateur n'intervient pas, c'est un problème de choix sous contrainte, posé sans avoir besoin de référence à un observateur.


    Pour l'entropie, peut-être peux-tu m'aider alors? Comment intègres-tu dans ton modèle la notion de degré de liberté thermodynamiquement actif, et comment s'articule-t-il avec l'entropie. Et la signification physique du passage de l'information aux Joules par Kelvin. Ces points m'agacent depuis des années...

    Cordialement,

    Michel

  3. #63
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Signification physique du passage de l'information aux Joules par Kelvin.
    A mon avis, il n'y en a pas. C'est un changement d'unité : la multiplication par k [1].

    En effet, 1/T = dS/dE (2)
    S entropie du système considéré
    E énergie du système considéré

    La température T se définit donc à partir de l'entropie (et non l'inverse).

    Bernard Chaverondier

    [1] cf Physique statistique, Introduction, Christian et Hélène Ngô, 2ème édition, édition Dunod, Chapitre 3 postulats de la physique statistique, notamment §3.3.2 Entropie et théorie de l'information et chapitre 4 Equilibre thermodynamique

    (2) Qu'on peut encore écrire 1/(kT) = d ln(Oméga)/dE

  4. #64
    Aigoual

    Re : Une question sur l'entropie

    Ouch…
    C’est abondant !

    Je n’aurai pas du m’absenter.
    Il va falloir que je rattrape mon retard de lecture, maintenant…

    Je prends le temps de vous lire et je reviens.

    Amitiés,

    Aigoual.

  5. #65
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    La température T se définit donc à partir de l'entropie (et non l'inverse).
    Sauf que je trouve aussi dans des textes, température = énergie par degré de liberté thermodynamiquement actif.

    Et il est clair en cinétique des gaz que l'énergie cinétique est en kT. (Le déplacement est un degré de liberté toujours actif, c'est cohérent avec la définition concernant les degrés de liberté.)

    Le changement d'unité n'est pas satisfaisant comme explication, ou du moins ne m'a jamais satisfait. On arrive bien à l'énergie cinétique, quelque chose difficile à comprendre en termes d'information!

    C'est comme dire la fréquence et l'énergie c'est pareil, le passage est un simple changement d'unité , ou que la durée et la longueur c'est pareil, c'est un simple changement d'unité; d = tc.

    Dans tous les cas, c'est vrai, mais on aimerait un peu plus d'explications!

    Cordialement,

  6. #66
    Aigoual

    Re : Une question sur l'entropie

    Me revoilà.

    Je ne vais pas reprendre vos messages dans le détail, mais j’adhère en gros à l’ensemble de vos propos et critiques communes qui (à l’exception du temps) me confortent finalement dans mes propositions (sous réserve des différences de langages)

    Reste la question du temps.

    J’aimerai vous soumettre un angle d’approche différent, qui peut-être devrait permettre de mieux dégager l’idée évoquée par Bertrand sur l’asymétrie entre le passé et le futur (nous pouvons nous souvenir du passé, pas du futur), ainsi que son lien avec l’observateur.

    Dans un autre message, (http://forums.futura-sciences.com/th...s+spinoza.html) j’avais exposé l’idée suivante :

    Citation Envoyé par Aigoual
    Parler des causes et des effets, c’est effectivement parler du temps.

    Il y a causes et effets si le temps se déroule.
    Si le temps est une dimension statique "déjà" achevée en totalité depuis les origines jusqu’à son terme (proposition de la pierre de Spinoza), alors le regard sur les causes et les effets n’est plus le même.

    Dans ce cas, le temps est assimilable aux dimensions spatiales.
    Or, dans les dimensions spatiales, on "comprend" où se trouvent les montagnes et les vallées, les campagnes et les villes, sans qu’il y ait liens de cause à effet.

    Il y a bien existence des montagnes, par comparaison aux plaines, mais la plaine n’est pas "cause" de la montagne, ni réciproquement.

    L’idée que le temps est "déjà" achevé en totalité est moins difficile à comprendre que la raison pour laquelle nous sommes contraints, d’une part à n’avancer que dans un seul sens (du passé vers l’avenir) et d’autre part, pourquoi notre vision est strictement limitée à un passé local très réduit. Ce qui disparaît derrière l’horizon du temps est définitivement perdu.

    Sur l’axe du temps, nous ressemblons à des escargots qui progresseraient à reculons, butant en aveugle sur toutes ses aspérités "déjà" là, et laissant s’évanouir sans espoir de retour la courte trace que nous venons de parcourir.

    J’ai bien le sentiment ici, que nous sommes confrontés aux limites intrinsèques de nos structures humaines, et non à la réalité elle-même.
    Un peu à la manière dont le crapaud, même s’il obéit aux lois de l’univers, n’est pas conçu pour les comprendre.

    Bon : être les crapauds de l’univers n’est peut-être pas très agréable, mais de le savoir n’est déjà pas si mal…
    D’où il ressort que le temps de l’observateur est intrinsèquement très différent du temps réel.

    Pensez-vous pouvoir faire quelque chose de cette hypothèse ?
    Amicalement,

    Aigoual.

  7. #67
    invite3dc2c2f6

    Re : Une question sur l'entropie

    Bonsoir

    Citation Envoyé par mmy
    Je ne comprends pas le mot "accessible" dans le contexte après "mais".
    Hum.. J'aurais plutot dire "et aussi", pour signifier que l'echange d'information n'a pas besoin de "conscience"
    pour se faire; la conscience est là pour interpreter ces informations.
    Lorsque Bernard parle d'objectivité camouflée, je suis entièrement d'accord pour cette raison.


    Citation Envoyé par mmy
    J'ai du mal à suivre. Pour moi la perception du temps ne dépend pas des conditions locales.
    La perception du temps est subjective, je pense que tu es d'accord avec cela: un concert par exemple, ou bien le fait meme de faire de la musique, deforme cette perception. Pourquoi dit-on que c'est subjectif?
    Parce qu'immediatement, on fait reference au temps de l'horloge, celui qui nous prendre un train a l'heure, celui que l'on porte au poignet.
    Le paradoxe des jumeaux de Langevin que "si nous suivons une particule dans son mouvement, on voit sa desintegration en quelques fractions de secondes...mais de plusieurs minutes pour celui par rapport auquel elle se deplace rapidement" (La Recherche, H.S Avril 2001 P.21 , M.Lachièze-Rey).
    Il me semble que cette perception du temps depend des conditions locales...
    Ce que je cherche, c'est justement un moyen de sortir de cette notion de temps absolu, qui, à mon sens n'existe pas, meme si effectivement nous sommes tributaires au quotidien de cette fleche.

    Nuitement vôtre,
    Manu

  8. #68
    invite3dc2c2f6

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    D’où il ressort que le temps de l’observateur est intrinsèquement très différent du temps réel.

    Pensez-vous pouvoir faire quelque chose de cette hypothèse ?
    Amicalement,

    Aigoual.
    Coucou
    Eh bien, personnellement, j'essaie d'aborder cette question du temps sous l'angle de l'information, mais c'est pas gagné..
    Mon hypothese est donc que la perception que l'on en a depend en fait du deficit d'information qui nous parvient. Imaginons (un instant ) que nous ayons acces a la totalite de l'information de l'univers, et dans son integralité...en plus d'etre des dieux, quelle serait notre conscience du temps? Dans mon hypothese, elle disparaitrait, et nous toucherions au sens de l'immortalité: l'infini de la durée.
    Il ne reste plus qu'à mettre cela en equation!
    manu

  9. #69
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par manu_mars
    ...personnellement, j'essaie d'aborder cette question du temps sous l'angle de l'information, mais c'est pas gagné...
    Mon hypothèse est donc que la perception que l'on en a dépend en fait du déficit d'information qui nous parvient. Imaginons (un instant ) que nous ayons accès a la totalité de l'information de l'univers, et dans son intégralité...en plus d'être des dieux, quelle serait notre conscience du temps ? Dans mon hypothèse, elle disparaîtrait, et nous toucherions au sens de l'immortalité: l'infini de la durée.
    Il ne reste plus qu'à mettre cela en équation !

    Ce qui rejoindrait donc ma proposition.
    Selon elle, ce déficit d’information est bien dû à notre incapacité à regarder l’axe du temps dans les deux sens. Ce qui nous oblige aux utilisations d’outils déductifs, capables de reconstruire les enchaînements de causes et d’effets en projection dans l’avenir.

    L’information serait le résultat de ces projections.
    Le déficit d’information en serait les approximations.

    Si nous maîtrisions l’axe du temps dans les deux sens, à la manière dont nous nous déplaçons dans l’espace, nous n’aurions plus besoin de déduire quoi que ce soit. Plus de causes, plus d’effets, plus de théories formelles, plus d’indétermination, plus de statistiques, etc.

    (Tu connais peut-être cette histoire des deux statisticiens qui vont à la chasse. Ils voient une biche. Le premier tire un peu trop à droite et la manque. Le second tire un peu trop à gauche, la manque aussi et la biche disparaît. Alors, les deux hommes se mettent à sauter de joie en disant ; "On l’a eu, on l’a eu !")

    Plus d’équations, non plus, d’où probablement ta difficulté à vouloir "mettre cela en équation."
    Et pas davantage "d’informations." Nous serions en contact direct avec le réel "comme des dieux," sans nécessité de transiter pat l’information pour y accéder ("accéder", c’est à dire être obligé de s’en faire une représentation, ceci pour préciser l’une de tes remarques concernant l’utilisation du mot)

    Il me semble bien là, qu’il ne s’agit pas de niveau de connaissance ou de savoir, mais plutôt d’une limite intrinsèque à notre condition de Sapiens. Pas de progrès possible, donc. Juste le constat de nos limites, avec l’obligation de reconstruire le monde, moins à partir de l’information que de son déficit.

    D’où mon image du crapaud qui, même s’il obéit aux lois de l’univers, n’est pas conçu pour les comprendre.

    Amicalement,

    Aigoual.

  10. #70
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par manu_mars
    l'échange d'information n'a pas besoin de "conscience"
    Effectivement, au regard de mon précédent message, l’échange d’information s’inscrit dans le temps, indépendamment de la conscience.

    Citation Envoyé par manu_mars
    La perception du temps est subjective
    Si par subjectif tu entends psychologique, relatif au "sujet" ou à "l’individu", je ne suis pas tout à fait d’accord. Je préfère ancrer cette subjectivité dans l’intrinsèque de l’espèce (nous, Sapiens), même s’il peut effectivement y avoir des temps individuels différents.

    Citation Envoyé par manu_mars
    Ce que je cherche, c'est justement un moyen de sortir de cette notion de temps absolu, qui, à mon sens n'existe pas, même si effectivement nous sommes tributaires au quotidien de cette flèche.
    Ce que tu peux donc peut-être faire en distinguant les deux formes de temps :
    - Le temps humain se "déroule" du passé vers le futur.
    - Le temps réel est un axe fixe "déjà" fini, du début jusqu’à son terme.

    Amicalement,

    Aigoual.

  11. #71
    invite3dc2c2f6

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    L’information serait le résultat de ces projections.
    Le déficit d’information en serait les approximations.
    Salut
    Ben justement, il y a TOUJOURS un deficit d'informations...qui fait, selon moi (et ptet d'autres, mais j'en sais rien) que nous percevons le temps.

    Citation Envoyé par Aigoual
    Si nous maîtrisions l’axe du temps dans les deux sens, à la manière dont nous nous déplaçons dans l’espace, nous n’aurions plus besoin de déduire quoi que ce soit. Plus de causes, plus d’effets, plus de théories formelles, plus d’indétermination, plus de statistiques, etc.
    Je ne pense pas qu'il faille maitriser l'axe du temps, mais plutot reussir a penser le rapport à l'information de maniere a reduire au mieux les degradations.

    Citation Envoyé par Aigoual
    (Tu connais peut-être cette histoire des deux statisticiens qui vont à la chasse. Ils voient une biche. Le premier tire un peu trop à droite et la manque. Le second tire un peu trop à gauche, la manque aussi et la biche disparaît. Alors, les deux hommes se mettent à sauter de joie en disant ; "On l’a eu, on l’a eu !")
    Je ne la connaissais pas, elle m'a bien fait rire!

    Citation Envoyé par Aigoual
    Pas de progrès possible, donc. Juste le constat de nos limites, avec l’obligation de reconstruire le monde, moins à partir de l’information que de son déficit.
    Je ne crois pas en l'idee de progres... Si le progres c'est d'arriver a allumer un feu quand on veut et sans se bruler, alors oui, il y a progres... mais en meme temps, si cela nous permet de nous eliminer plus "proprement", je doute que le progres soit autre que purement technologique.
    Ton idee de mettre sur un plan identique l'homo sapiens qui dessine dans sa grotte et celui de maintenant me seduit dans ce sens

    Citation Envoyé par Aigoual
    D’où mon image du crapaud qui, même s’il obéit aux lois de l’univers, n’est pas conçu pour les comprendre.

    Amicalement,

    Aigoual.
    Les comprendre, je ne sais pas, mais les interpreter, surement; et cette interpretationest justement ce qui fait la richesse de la vie amha...

    A tres bientot
    manu

  12. #72
    Aigoual

    Re : Une question sur l'entropie

    Salut Manu,

    Oui, nous sommes bien en phase.
    Cela me fait plaisir, parce que ce n’est pas toujours facile de savoir si ce que l’on conçoit tient la route ou non.

    J’aimerai bien avoir les regards de Michel et Bernard (que j’ai rebaptisé "Bertrand" par erreur : mes excuses…) sur ces points.
    Ils me sont précieux, parce qu’ils me permettent de faire le lien avec des domaines qui ne me sont pas familiers.

    Amicalement,

    Aigoual.

  13. #73
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Et il est clair en cinétique des gaz que l'énergie cinétique est en kT. (Le déplacement est un degré de liberté toujours actif, c'est cohérent avec la définition concernant les degrés de liberté.)
    Ca marche en cinétique des gaz, mais la définition générale de la température en physique statistique c'est 1/T = dS/dE. Cela permet de définir la température d'un réseau de spins et permet notamment de modéliser le phénomène d'inversion de population donnant lieu à des températures négatives (cas des systèmes dont l'énergie est bornée supérieurement).
    Citation Envoyé par mmy
    Le changement d'unité n'est pas satisfaisant comme explication, ou du moins ne m'a jamais satisfait. On arrive bien à l'énergie cinétique, quelque chose difficile à comprendre en termes d'information!
    Ce n'est pas l'énergie qui définit l'information, mais l'information et l'énergie (pas toujours cinétique d'ailleurs) qui définissent la température. Si on choisit k = 1, la température apparait pour ce qu'elle est vraiment : de l'énergie par unité de manque d'information. 1/T est alors l'augmentation du manque d'information de l'observateur macroscopique par unité d'augmentation d'énergie du système observé.

    La multiplication de ln(oméga) par k n'apporte pas d'information physique nouvelle. Cela permet simplement d'exprimer entropie et température dans les unités de mesure habituelles en thermodynamique. Cela ne diffère pas d'un passage des mètres aux centimètres pour mesurer des longueurs.
    Citation Envoyé par mmy
    C'est comme dire la fréquence et l'énergie c'est pareil, le passage est un simple changement d'unité , ou que la durée et la longueur c'est pareil, c'est un simple changement d'unité; d = tc.
    C'est vrai en unités de Planck, c'est à dire en prenant, le rayon de Planck, le temps de Planck et la constante de Planck égales à 1 (ce qui équivaut à prendre c, h et G = 1).

    Malgré tout, c'est effectivement une convention et on peut en envisager une autre. On peut choisir au contraire de considérer la longueur d'onde, la fréquence et l'hélicité d'un photon constantes entre le moment où il est émis et celui où il est absorbé, c'est à dire convenir que ce sont les "photons neufs" qui sont blue-shiftés et non les "vieux photons" qui sont red-shiftés. Cela revient à prendre en compte le fait que les photons ne vieilissent pas au cours de leur voyage (puisque leur ds=0) donc qu'ils sont des étalons de mesure somme toute assez naturels.

    C'est une simple convention de choix d'unité en fonction du temps. Avec cette convention là, au lieu d'avoir des atomes, des molécules, des étoiles, des galaxies... de taille constante dans un univers en expansion, on a au contraire de la matière en effondrement gravitationnel dans un univers de taille constante (constance de la distance moyenne entre superamas de Galaxies) (1).

    Bernard Chaverondier

    (1) Considérer que c'est la matière qui se contracte dans un espace de taille fixe est d'ailleurs une convention homogène avec le fait que le rayon R augmente au fil du temps dans la métrique de Robertson Walker (dans la cosmologie de Friedmann)

    ds^2 = (cdt)^2 -R^2[dalpha^2+sin^2(alpha)(dthêta^2 +sin^2(thêta)dphi^2)]

    au même titre que le dr/(1-v^2/c^2)^(1/2) > dr (où v = (2GM/r)^(1/2)) traduit la contraction de Lorentz d'un mètre immobile dans un espace-temps de Schwarzschild régnant autour d'une masse M

    ds^2 = (1-v^2/c^2)(cdt)^2 - dr^2/(1-v^2/c^2) - r^2(dthêta^2+sin^2(thêta)dphi^ 2)

    ou encore que le r dthêta/(1-v^2/c^2)^(1/2) > r dthêta (ou v=oméga r) traduit bien la contration circonférentielle de Lorentz d'un mètre au repos au rayon r dans la direction circonférentielle dans un référentiel tournant à la vitesse angulaire oméga.

  14. #74
    invité576543
    Invité

    Re : Une question sur l'entropie

    Bonjour,


    Le texte du poste précédent ne répond pas exactement à mes interrogations. Mais je vais réfléchir, et essayer de clarifier mes questions, dans le langage proposé.

    C'est vrai en unités de Planck, c'est à dire en prenant, le rayon de Planck, le temps de Planck et la constante de Planck égales à 1 (ce qui équivaut à prendre c, h et G = 1).
    (..)
    C'est une simple convention de choix d'unité en fonction du temps. Avec cette convention là, au lieu d'avoir des atomes, des molécules, des étoiles, des galaxies... de taille constante dans un univers en expansion, on a au contraire de la matière en effondrement gravitationnel dans un univers de taille constante (constance de la distance moyenne entre superamas de Galaxies) (1).
    Là par contre, mon point n'est pas passé. Je ne m'intéressais pas à une quelconque prise en compte de l'expansion. Simplement, "c" et "h" sont essentiellement des constantes de changement d'unité. Mais on considère quand même utile de distinguer la grandeur "durée" de la grandeur "longueur", ou la grandeur "fréquence" de la grandeur "énergie". L'argument qu'une constante dimensionnée (ce qui n'est pas le cas de métre/centimètre) est un changement d'unité sans sens physique n'est pas satisfaisant.

    Mais en fait, en lisant le poste de Bertrand, k n'est pas vraiment un changement d'unité, même s'il le présente ainsi. Ce qu'il dit est simplement que l'unité de l'entropie doit être le bit, l'unité d'information Shannonienne (ce qui fait de l'entropie une grandeur sans dimension...) "k" est alors un simple facteur d'échelle, ce qui n'est pas pareil (il est alors comparable, et pour cause, avec le nombre d'Avogadro)...

    C'est à cette manière de voir que je vais réfléchir.

    Cordialement,

  15. #75
    invite8915d466

    Re : Une question sur l'entropie

    Je suis d'accord , l'unité la plus naturelle d'énergie est mpc2, celle de température mpc2/k, et dans ce système d'unité naturelle, l'entropie est sans dimension = ln(omega) (qui est de l'ordre du nombre d'Avogadro pour les systèmes macroscopiques).

  16. #76
    invité576543
    Invité

    Re : Une question sur l'entropie

    Bonjour,

    Oublions donc "k", et prenons l'entropie comme nombre "sans dimension". Je vais essayer de reformuler mon questionnement sur l'affirmation "l'entropie mesure un déficit d'information, et son unité est le bit, ainsi que défini par Shannon", ce qui, j'espère, une reformulation correcte de ce que dit Bertrand.

    Une première remarque est qu'une grandeur extensive sans dimension est quelque chose de particulier. A mon sens, une grandeur extensive sans dimension ne peut être qu'un décompte, cela compte des choses. La mole est un exemple d'unité "sans dimension" et extensive: elle correspond à un décompte de molécules, d'atomes, de ce qu'on voudra. Une grandeur extensive ne peut pas être sans dimension, simplement sa dimension est discrète, et devrait être exprimée.

    Que compte l'entropie? Quelle est son unité, ce qui vaut "1"?

    L'interprétation que cela est la même chose que le bit défini par Shannon (qui est bien une unité sans dimension et extensive, qui compte une quantité d'information à transmettre ou stocker) ne repose, à ce que j'en vois que sur une similarité de formule et des interprétations. Quelle est l'information manquante dans la vitesse d'une particule au sein d'un gaz par exemple? Dans un gaz à l'équilibre, cette vitesse a une certaine distribution. Mais celle-ci étant continue, je ne sais pas appliquer la formule de Shannon discrète sur une telle distribution (ou plus exactement, on obtient l'infini). On doit pouvoir utiliser d'une certaine manière la capacité de Shannon C= B log2(1+ S/N), en prenant par exemple chaque vitesse comme un échantillon d'un signal "3D", mais c'est quoi le bruit N dans ce cas? Si c'est T x 1 unité d'entropie, on tourne en rond.

    L'autre interprétation de l'entropie comme décompte sans dimension est un décompte de degrés de liberté actifs. On compte 1 pour chaque degré continu actif (les trois composantes de la vitesse de chaque système lié, comme une particule; y-en-a-t-il d'autres?), et un nombre réel entre 0 et 1 pour les degrés quantifiés, en appliquant la formule idoine sur la répartion de En, la liste des eigen de l'énergie pour ledit degré, cette répartition dépendant de T exprimée en entropie par énergie. La formule se trouve décrire comment calculer une moyenne d'entropie, chaque valeur de En n'intervenant que comme En/T.

    Comment d'ailleurs interpréter En/T dans ces formules. La dimension est apparemment celle d'une entropie, mais les ordres de grandeur ne collent pas vraiment avec l'entropie elle-même...

    Comment rapprocher cela de la notion d'information ne m'apparaît toujours pas clairement. La formule de Shannon qui s'appliquerait si je cherchais l'information obtenue en tirant au hasard une particule dans un gaz et mesurer un degré de liberté quantifié est -somme(p(Enln(p(En). C'est bien défini, mais cela croît vers l'infini avec le nombre de En en prenant une distribution "gaussienne" autour de T x 1 unité d'entropie...

    Il a sûrement quelque chose qui m'échappe, et cela m'intéresse de savoir quoi. Je n'ai peut-être pas eu les bonnes lectures...

    Cordialement,

    Michel

    PS Dans la formule de la capacité de Shannon C= B log2(1+ S/N), B est le nombre de degrés de liberté du signal; en théorie du signal, B donne le nombre de symboles transmis ou stockés. L'autre terme donne le nombre de bits par symbole, qui dépend du bruit. Plus l'énergie du signal est élevée par rapport au bruit, plus il y a bits par symbole, par degré de liberté. Il y a sûrement un rapprochement à faire avec l'entropie. Mais on remarquera qu'il y a deux grandeurs sans dimension qui apparaissent de manière bien distincte: le nombre de degrés de liberté, et la quantité d'information.
    Dernière modification par invité576543 ; 11/10/2005 à 05h56.

  17. #77
    invite8915d466

    Re : Une question sur l'entropie

    Hum, de ce que j'avais entendu, Von Neumann avait dit à Shannon "vous n'avez qu'à appeler l'opposé de votre information de l'entropie, de toutes façons personne ne sait très bien ce que c'est ". C'est peut être apocryphe mais ça justifie tes doutes !

    N'ayant pas d'expérience dans la manipulation de la formule de Shannon, je t'apporte juste quelques précisions sur le côté "physique".

    Citation Envoyé par mmy

    Que compte l'entropie? Quelle est son unité, ce qui vaut "1"?
    Un peu comme un décibel, ça mesure en gros un doublement du nombre d'états possibles (multiplication par e quoi)
    L'interprétation que cela est la même chose que le bit défini par Shannon (qui est bien une unité sans dimension et extensive, qui compte une quantité d'information à transmettre ou stocker) ne repose, à ce que j'en vois que sur une similarité de formule et des interprétations. Quelle est l'information manquante dans la vitesse d'une particule au sein d'un gaz par exemple?
    Dans un gaz à l'équilibre, cette vitesse a une certaine distribution. Mais celle-ci étant continue, je ne sais pas appliquer la formule de Shannon discrète sur une telle distribution (ou plus exactement, on obtient l'infini).
    Elle est discrétisée en meca Q, où on convient de considérer comme indiscernables et donc identiques des états dans l'espace des phases tels que . C'est plus rigoureux en prenant une boite de volume V et les états propres correspondants.
    L'autre interprétation de l'entropie comme décompte sans dimension est un décompte de degrés de liberté actifs. On compte 1 pour chaque degré continu actif (les trois composantes de la vitesse de chaque système lié, comme une particule; y-en-a-t-il d'autres?), et un nombre réel entre 0 et 1 pour les degrés quantifiés, en appliquant la formule idoine sur la répartion de En, la liste des eigen de l'énergie pour ledit degré, cette répartition dépendant de T exprimée en entropie par énergie. La formule se trouve décrire comment calculer une moyenne d'entropie, chaque valeur de En n'intervenant que comme En/T.

    Comment d'ailleurs interpréter En/T dans ces formules. La dimension est apparemment celle d'une entropie, mais les ordres de grandeur ne collent pas vraiment avec l'entropie elle-même...
    Ca joue plutot comme un facteur de pondération de probabilité d'occupation à cause du caractère "tout ou rien" de l'occupation d'un état et du facteur de Boltzmann exp(-En/T ). Pour un degré de liberté continu le théorème de l'équipartition montre qu'il contribue toujours à 1/2 T pour l'énergie moyenne, mais une valeur inférieure pour un degré de libertés à états discrets.

  18. #78
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Quelle est l'information manquante dans la vitesse d'une particule au sein d'un gaz par exemple?
    Il n'y en a pas. C'est d'ailleurs pour cela que dans le Gamma espace de phase à 6N dimensions, où la position et la vitesse des N particules d'un gaz monoatomique sont toutes définies individuellement, il n'y a pas d'entropie. L'entropie est nulle car on connait tout.

    Si on sait seulement que le microétat du gaz se trouve dans un petit volume du gamma espace de phase, alors on a bien une entropie non nulle (une part d'ignorance) appelée entropie de Gibbs, mais elle n'augmente pas au fil du temps (théorème de Liouville). L'entropie de Gibbs (associée à une modélisation de l'état microphysique du gaz par une distribution de probabilités dans le Gamma espace de phase) est incapable de donner une indication sur la flèche du temps.

    Il faut se placer dans l'espace de phase à une particule (de dimension 6 au lieu de 6N) et y caractériser les vitesses et positions des particules par une distribution de probabilités pour voir réapparaître une ignorance croissante de l'observateur macroscopique sur l'état microphysique du gaz au fil du temps.

    Cette ignorance est définie par le logarithme népérien du nombre oméga de microétats distincts que l'observateur macroscopique est incapable de distinguer les uns des autres. Il les classe donc dans un même macroétat. Cette ignorance s'appelle l'entropie de Boltzmann. L'ignorance croissante de l'observateur macroscopique, est une boussole temporelle qui pointe du passé vers le futur.
    Citation Envoyé par mmy
    Si c'est T x 1 unité d'entropie, on tourne en rond
    Ce n'est pas la température T qui définit l'entropie, mais l'entropie qui définit la température T. Il n'y a pas de défintion générale de la température T (valable dans tous les cas et non pas seulement dans le cas particulier de la théorie cinétique des gaz) qui pourrait se passer d'une définition préalable de l'entropie S.

    La température T est définie par 1/T = dS/dE

    1/T est donc le taux de croissance de l'ignorance de l'observateur macroscopique sur l'état microphysique du système observé en fonction de l'énergie apportée à ce système. On peut démonter facilement que l'équilibre s'établit entre deux systèmes lorsque leurs températures deviennent égales (1).

    Comme je le signalais, il y a même des cas où dS/dE = 0. C'est le phénomène dit d'inversion de population se produisant dans le cas de systèmes dont l'énergie est bornée inférieurement et supérieurement. Dans de tels cas, la température passe brusquement de -00 à +00. On serait bien en peine de donner un sens à la température T sans avoir défini avant l'entropie S, cad le manque d'information de l'observateur macroscopique (mesurée par le logarithme népérien du nombre de microétats qu'il est incapable de distinguer les uns des autres et qu'il classe donc dans le même macroétat).

    Dans un réseau de spins (N électrons dans un champ magnétique vertical par exemple) la température T change de signe lorsque l'on atteint la situation où une moitié des spins sont dans l'état up et l'autre moitié dans l'état down (il y a alors oméga = N!/[(N/2)!]^2 états indiscernables pour l'observateur macroscopique et son ignorance S=ln(oméga) atteint son maximum). Il se passe alors la chose inhabituelle suivante : plus on donne de l'énergie au système et mieux l'état microphysique du réseau est connu de l'observateur macroscopique (dS/dE devient négatif) cad dire plus le macroétat observé contient un petit nombre de microétats indiscernables les uns des autres à son échelle d'observation.

    La méconnaissance S du microétat du réseau de spin se met à diminuer quand on lui donne de l'énergie, c'est à dire quand on se rapproche de la situation où tous les dipôles magnétiques se retrouvent antiparallèles au champ magnétique ambiant.

    Lorsque l'énergie de ce réseau de spin devient maximale, l'entropie S devient nulle car l'observateur, tout macroscopique qu'il soit, connait alors parfaitement l'état microphysique du réseau de spin (et non plus seulement la probabilité pour qu'un spin soit up ou down).

    Bernard Chaverondier

    (1) C'est en effet la situation où l'ignorance S de l'observateur macroscopique atteint son maximun. Elle correpond à l'état macroscopique le plus probable. Il l'est tellement plus qu'une fois cet état atteint il est très difficile à l'état microscopique d'en sortir (il n'y a que de petites fluctuations de l'entropie une fois son maximum atteint à l'issue de l'évolution d'un système isolé).

  19. #79
    invité576543
    Invité

    Re : Une question sur l'entropie

    Bonjour,

    Je m'excuse d'être brutal, mais les arguments se répètent (et je les connaissais avant, il y a beaucoup d'écrit sur le sujet...)! Et cela m'amène à me répéter!!!

    Je cherche toujours dans ces arguments l'information au sens de Shannon, l'information telle qu'elle est définie et utilisée dans les théories du traitement de l'information, où cela fournit un modèle parfaitement efficace de la notion de transmission, stockage, capacité, etc. de l'information.

    Dans le poste précédent, la notion entropie=ignorance est prise comme postulat. Je n'ai rien contre, c'est juste une définition ad-hoc... A tout prendre je préfère le mot "entropie", simplement parce que cela n'a pas de connotation dans le langage courant comme "ignorance".

    Je cherche autre chose que ce postulat. Et la seule autre chose que j'imagine est une relation solide, bien démontrée, avec l'information de Shannon.

    Je ne dit pas qu'il n'y en a pas. Les parallèles entre la théorie de l'information (Shannon, Nyquist) utilisée de manière très pratique dans les technologies de l'information, et la physique moderne sont assez fascinants. Deux domaines principaux : la méca Q, où l'incertitude de Heisenberg a un parallèle avec l'échange temps/fréquence connu en modulation du signal, et effectivement la mécanique statistique. Un autre aspect qui me titille est la notion de système lié et la relation à l'énergie.

    Mais tous ces parallèles ne sont que formels, des similarités de forme. Il manque une relation forte, une conceptualisation qui va au-delà du choix de mots, d'images intuitives, de discours jouant sur les mots et les symboles...

    Tant que je ne vois pas cette relation forte avec l'information de Shannon, et rien dans les rappels fournis par les postes de Bertrand ne me la donne, il m'est beaucoup simple (et plus efficace) de réfléchir à l'entropie et la température en termes de degrés de liberté actifs, qu'en termes de bits.

    Cordialement,

    Michel

  20. #80
    Aigoual

    Re : Une question sur l'entropie

    Salut Michel,

    Comme je continue à souffrir d’entropie chronique (pardon : d’ignorance…) saurais-tu en quelques lignes me résumer en quoi consistent les propos de Shannon ?

    C’est dommage, je n’arrive pas à vous suivre.
    Mais si c’est trop technique, laisse tomber, ce n’est pas grave…

    Amicalement,

    Aigoual.

  21. #81
    chaverondier

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Dans le poste précédent, la notion entropie=ignorance est prise comme postulat.
    Il me semble plutôt qu'on doit la considérer comme une définition. Entropie = logarithme népérien de la taille oméga de la "population d'états" (cad le nombre oméga d'états dans cette population) dans laquelle une catégorie d'observateurs donnée (l'entropie dépend de ce choix) sont en mesure de se mettre d'accord pour dire que se trouve l'état d'un système (mais sans savoir lequel précisément). L'entropie la plus utilisée est celle de Boltzmann.

    Par ailleurs, je ne vois pas comment étendre la notion de degré de liberté thermodynamiquement actifs à des situations où cette notion n'est pas appropriée pour définir la température (la définition 1/T = dS/dE est possible dans tous les cas).
    Citation Envoyé par mmy
    Les parallèles entre la théorie de l'information (Shannon, Nyquist) utilisée de manière très pratique dans les technologies de l'information, et la physique moderne sont assez fascinants. Deux domaines principaux : la méca Q, où l'incertitude de Heisenberg a un parallèle avec l'échange temps/fréquence connu en modulation du signal, et effectivement la mécanique statistique.

    Mais tous ces parallèles ne sont que formels, des similarités de forme. Il manque une relation forte, une conceptualisation qui va au-delà du choix de mots, d'images intuitives, de discours jouant sur les mots et les symboles...
    Il y a un travail important en cours d'étude visant à faire reposer la mécanique quantique sur une base informationnelle. C'est l'objectif visé par Anton Zeilinger, Bruckner, Rovelli, Fuchs et quelques autres, notamment plusieurs thésards du Centre de Recherche en Epistémologie Appliquée de l'école Polytechnique tels que Alaxei Grinbaum par exemple (Elements of information-theoretic derivation of the formalism of quantum theory http://arxiv.org/abs/quant-ph/0306079).

    Il ne me paraît pas exclus qu'à terme une partie importante de la physique (peut-être plus vaste que la MQ) puisse reposer sur une base théorético-informationnelle (la terminologie n'est pas de moi. Je préfèrerais informationelle). A ce jour, je choisis les mots, les images intuitives, les discours jouant sur les mots et symboles suggérant l'intérêt de cette direction de réflexion (1) notamment relativement à la question de la direction du temps (qui m'interroge depuis longtemps).

    Quand on creuse (cf The Direction of Time de Hans Dieter Zeh http://www.time-direction.de/ ), est-il possible d'éviter de recourir à la notion d'information en relation avec une catégorie d'observateurs (caractérisée par la notion d'information et par le découpage en informations pertinentes et informations non pertinentes qui lui sont associés) pour définir le sens d'écoulement du temps, l'existence de souvenirs du passé et notre absence de souvenirs du futur ? A ce jour, j'en doute (mais je peux changer d'avis assez facilement si je tombe sur quelque chose d'assez convaincant qui me prouve l'inverse).

    Bernard Chaverondier

    (1) La formalisation de la réflexion est quelque chose que l'on ne doit pas (à mon avis) mettre en oeuvre trop tôt. Quand le problème est très difficile, plusieurs années de tatonnements et de petites modélisations simplistes, puis de plus en plus élaborées, me semblent progressivement former le tas de sable auquel on va petit à petit tâcher de donner une présentation plus formelle (si l'on ne découvre pas d'incohérence insurmontable en cours de route).
    Dernière modification par chaverondier ; 12/10/2005 à 10h36.

  22. #82
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par Aigoual
    Comme je continue à souffrir d’entropie chronique (pardon : d’ignorance…) saurais-tu en quelques lignes me résumer en quoi consistent les propos de Shannon ?
    J'ai essayé, et ça fait tout de suite un texte très long, que je ne poste pas, cela semble trop long pour un forum.

    J'ai essayé de trouver des liens, c'est un domaine que j'ai étudié à une époque où la toile n'existait pas... J'ai regardé le wikipédia fr (en partant de ), il y a pas mal de choses, même s'il y a plein de points que je n'aime pas beaucoup...

    Finalement, je préfère quand même te proposer de regarder le wiki, que de poster un long texte qui serait trop long pour un forum, et trop court pour entrer dans les nuances intéressantes...

    Cordialement,

    Michel

  23. #83
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    Il y a un travail important en cours d'étude visant à faire reposer la mécanique quantique sur une base informationnelle. (...)

    Il ne me paraît pas exclus qu'à terme une partie importante de la physique (peut-être plus vaste que la MQ) puisse reposer sur une base théorético-informationnelle (la terminologie n'est pas de moi. Je préfèrerais informationelle). (..)

    (1) La formalisation de la réflexion est quelque chose que l'on ne doit pas (à mon avis) mettre en oeuvre trop tôt. Quand le problème est très difficile, plusieurs années de tatonnements et de petites modélisations simplistes, puis de plus en plus élaborées, me semblent progressivement former le tas de sable auquel on va petit à petit tâcher de donner une présentation plus formelle (si l'on ne découvre pas d'incohérence insurmontable en cours de route).
    Bonjour,

    Présenté comme cela, je pense que l'on est d'accord. Disons alors que ma position est une position d'attente, une sorte de prise de distance par rapport à un domaine en plein développement, dévloppement qui m'intéresse de toute manière... Ma réaction vient aussi de nombreux textes qui prennent ces directions d'étude comme des acquis pour en développer un discours plus symbolique qu'autre chose...

    Amicalement,

    Michel

  24. #84
    invite8915d466

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    PS Dans la formule de la capacité de Shannon C= B log2(1+ S/N), B est le nombre de degrés de liberté du signal; en théorie du signal, B donne le nombre de symboles transmis ou stockés. L'autre terme donne le nombre de bits par symbole, qui dépend du bruit. Plus l'énergie du signal est élevée par rapport au bruit, plus il y a bits par symbole, par degré de liberté. Il y a sûrement un rapprochement à faire avec l'entropie. Mais on remarquera qu'il y a deux grandeurs sans dimension qui apparaissent de manière bien distincte: le nombre de degrés de liberté, et la quantité d'information.
    A priori, le plus logique est d'assimiler B au nombre de molécules et (1+S/N) au volume de l'espace des phases qui leur est offert. En physique, c'est plus ou moins le produit du volume spatial réel et du "volume dans l'espace des moments" qui croit avec la température. Ca t'aide?

  25. #85
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par chaverondier
    Par ailleurs, je ne vois pas comment étendre la notion de degré de liberté thermodynamiquement actifs à des situations où cette notion n'est pas appropriée pour définir la température (la définition 1/T = dS/dE est possible dans tous les cas).
    Je suis tout à fait d'accord sur la difficulté. Loin de moi l'idée que l'approche par les degrés de liberté actifs est parfaite. J'ai juste dit que j'étais plus à l'aise danss ce cadre, mais c'est relatif!

    Sinon, dS/dE est un calcul à la marge, et dans les cas de température négative, cela porte, il me semble, sur un aspect particulier d'un système. j'ai l'impression que s'il y a équilibre avec un système "classique" (avec degré de liberté en énergie cinétique), les choses sont moins simples pour définir la température.

    Il y a de toute manière quelque chose d'un peu bizarre à définir une valeur intensive à l'équilibre comme une dérivée de valeurs d'état. Une formule T(E, S) statique serait plus satisfaisante entre variables d'état...

    Amicalement,

    Michel

  26. #86
    invite8915d466

    Re : Une question sur l'entropie

    Citation Envoyé par mmy

    Il y a de toute manière quelque chose d'un peu bizarre à définir une valeur intensive à l'équilibre comme une dérivée de valeurs d'état. Une formule T(E, S) statique serait plus satisfaisante entre variables d'état...

    Amicalement,

    Michel
    C'est la démarche absolument habituelle en mécanique statistique : TOUTES les quantités intensives sont définies par la dérivée de l'énergie par rapport à une variable extensive conjuguée : la pression par rapport au volume, le potentiel chimique par rapoort au nombre de moles, le potentiel électrique par rapport à la charge etc....

  27. #87
    Aigoual

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    J'ai essayé, et ça fait tout de suite un texte très long, que je ne poste pas, cela semble trop long pour un forum.
    Ok, pas de problème.
    De toute manière, mes petites considérations philosophiques me suffisent, pourvu qu’elles restent cohérentes.

    Moi au moins, je n’ai pas à me poser de question concernant la valeur ou la réalité des unités de mesure !

    Amicalement et bon courage pour la suite,

    Aigoual.

  28. #88
    invité576543
    Invité

    Re : Une question sur l'entropie

    Citation Envoyé par gillesh38
    C'est la démarche absolument habituelle en mécanique statistique : TOUTES les quantités intensives sont définies par la dérivée de l'énergie par rapport à une variable extensive conjuguée : la pression par rapport au volume, le potentiel chimique par rapoort au nombre de moles, le potentiel électrique par rapport à la charge etc....
    Bonjour,

    TOUTES?

    Doit bien y avoir des exceptions, à moins que ce ne soit ce qui caractérise la mécanique statistique?? La masse volumique?

    Et dans les diférents cas, il y en a où la relation est linéaire, comme E = qU ou E=PV. Ceux-là peuvent se mettre selon mes voeux, non?

    Et il doit y avoir d'autre cas où il existe une solution autre que linéaire telle que dX/dY = f(X,Y), non?

    Cordialement,

  29. #89
    invite8915d466

    Re : Une question sur l'entropie

    Citation Envoyé par mmy
    Bonjour,

    TOUTES?

    Doit bien y avoir des exceptions, à moins que ce ne soit ce qui caractérise la mécanique statistique?? La masse volumique?

    Et dans les diférents cas, il y en a où la relation est linéaire, comme E = qU ou E=PV. Ceux-là peuvent se mettre selon mes voeux, non?

    Et il doit y avoir d'autre cas où il existe une solution autre que linéaire telle que dX/dY = f(X,Y), non?

    Cordialement,
    E = K PV pour un gaz parfait uniquement (pas un gaz de Van der Vaals par exemple) E = qU parce que la relation liant U aux charges est linéaire, mais c'est un cas tout à fait particulier....

    masse volumique, hum je reflechis...

  30. #90
    invite3dc2c2f6

    Re : Une question sur l'entropie

    bonsoir

    ca a l'air bigrement interessant, malheureusement, pas a a portee...
    Dommach..
    "variable extensive conjuguee" par exemple... gnnniii
    "quantite intensive"...argggh
    Deux ptites phrases pour expliquer, ce serait possible?


    manu

Page 3 sur 4 PremièrePremière 3 DernièreDernière

Discussions similaires

  1. Ptite question sur une question de géo3D : Asie 06
    Par invitefc60305c dans le forum Mathématiques du collège et du lycée
    Réponses: 2
    Dernier message: 01/06/2007, 14h51
  2. Question sur une question ( algèbre lin.)
    Par invite2dc206d9 dans le forum Mathématiques du supérieur
    Réponses: 1
    Dernier message: 14/10/2006, 00h39
  3. validité d'un formule sur l'entropie
    Par invite81b3833e dans le forum Physique
    Réponses: 1
    Dernier message: 03/10/2004, 13h44
  4. L'entropie et l'auto organisation : Une raison à la vie ?
    Par invite333943ff dans le forum [ARCHIVE] Philosophie
    Réponses: 32
    Dernier message: 20/08/2004, 10h03