Entropie !!
Répondre à la discussion
Affichage des résultats 1 à 13 sur 13

Entropie !!



  1. #1
    AbbasBadre

    Question Entropie !!


    ------

    Bonjour a tous;

    une question tres frequente dans la physique, surtout dans la thermodynamique, qui depend de la concept de l'entropie.. tout physicien sait que l'entropie est simplement la variation de la quantité de chaleur Q sur la temperature de la systeme etudié... mais phylosophiquement parlant : qu'est ce qu'un entropie ? et que designe-t-il ? et quel est son role ? et son origine physique ?
    Si qlq'un connait de references pour ce sujet, je l'en pris de me les donner, et je le remercie par avance...
    Aimablement..

    -----

  2. #2
    Deedee81
    Modérateur

    Re : Entropie !!

    Bonjour,

    Voici quelques liens :

    http://fr.wikipedia.org/wiki/Entropi...modynamique%29
    http://fr.wikipedia.org/wiki/Physique_statistique

    L'entropie caractérise le désordre ou la complexité dans la description d'un système.

    Pour être plus précis, soit tu as un système décrit par des variables macroscopiques : température T, pression P, etc.... Le même système peut être décrit de manière microscopique par, par exemple, la position et la vitesse des particules qui le composent xi, vi (très grand nombre de variables).

    Alors, à un état macroscopique donné avec T, P,... donnés, tu auras un grand nombre N d'états microscopiques possibles. Les variables xi, vi peuvent prendre un grand nombre de valeurs possibles donnant la même température, pression,...

    L'entropie est définie comme k.ln N (N = nombre d'états, k, constante de Boltzmann).

    Le second principe découle simplement du fait que lors d'une évolution microscopique aléatoire, le système à plus de chance de se retrouver dans un état avec N grand qu'avec N petit.

    La physique statistique permet de justifier tous les liens entre ce type d'approche et la thermodynamique classique (voir les liens).
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  3. #3
    HUGEPONEY

    Re : Entropie !!

    Bonsoir ! "yoyoyo !"

    je profite de ce post pour évoquer certaines questions que j'ai sur ce phénomène, que je n'assimile pas très bien

    _ premièrement: je ne vois pas pourquoi l'entropie ne se conserve pas dans un système, parce que l'entropie donne une idée sur le désordre globale du système, et le désordre dépend de la température non ? Et l'énergie qui "crée" la chaleur est conservée non ? Ou carrément rien à voir ?

    _ deuxièmement: Je ne comprends pas comment l'entropie d'un système isolé ne peut que rester constante ou augmenter ? AUGMENTER "WTF" ?

    _ troisièmement: j'ai lu que l'entropie tant indéfiniment vers une limite, une valeur maximale. why ?

    _ fourth: Le troisième point à t'il un lien avec le fête que tout dans l'univers tant à se "normaliser" enfin s'homogénéiser ?

    Merci bien à vous grand savants, et moins grand aussi, et même les nuls ! De m'aider Parce que moi je suis au moins aussi nul que vous !

  4. #4
    albanxiii
    Modérateur

    Re : Entropie !!

    Bonjour,

    Citation Envoyé par HUGEPONEY Voir le message
    _ deuxièmement: Je ne comprends pas comment l'entropie d'un système isolé ne peut que rester constante ou augmenter ? AUGMENTER "WTF" ?
    Merci d'être poli.

    Si le coeur vous en dit, ça se démontre à partir de l'équation de Boltzmann, mais il faut un bon niveau de mathématiques pour comprendre la preuve (bac +5/+8).

    Plus accessible http://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_H

    Et lisez aussi les liens de Deedee, ils doivent contenir (toutes ?) les réponses à vos questions !

    @+
    Not only is it not right, it's not even wrong!

  5. A voir en vidéo sur Futura
  6. #5
    HUGEPONEY

    Re : Entropie !!

    Bah c'était pas méchant

    Ok, pour le troisième c'est à démontré mathématiquement, donc il y a aucun moyen, juste par raisonnement du phénomène de le comprendre ? Pour les trois autres aussi je suppose ?

  7. #6
    albanxiii
    Modérateur

    Re : Entropie !!

    Re,

    Citation Envoyé par HUGEPONEY Voir le message
    Bah c'était pas méchant
    C'est pas le problème, c'est grossier. Merci d'en rester là.

    Pour vos questions : pouvez-vous me résumer les documents indiqués par Deedee ? Parce que vraiment, les réponses y sont !

    Bonne soirée.
    Not only is it not right, it's not even wrong!

  8. #7
    HUGEPONEY

    Re : Entropie !!

    ça marche, merci.

  9. #8
    chaverondier

    Re : Entropie !!

    Citation Envoyé par AbbasBadre Voir le message
    philosophiquement parlant : qu'est ce qu'une entropie ?
    L'entropie de Boltzmann d'un système c'est la quantité d'information qui manque à un observateur pour caractériser complètement l'état microphysique du système quand cet observateur détient une information maximale sur cet état à l'échelle d'observation macroscopique (c'est à dire quand il connait la valeur de l'ensemble des grandeurs physiques considérées comme caractérisant l'état macroscopique du système).

    L'entropie S d'un système est donc une notion informationnelle et implicitement relationnelle entre système observé et observateur macroscopique (donc intersubjective, mais pas objective). Elle comptabilise le manque d'information S, sur l'état du système en question, d'un observateur macroscopique maximalement informé sur l'état de ce système à son échelle d'observation.

    Citation Envoyé par AbbasBadre Voir le message
    Quel est son rôle ?
    Elle permet (notamment)

    * de définir la notion statistique de température T.

    1/T = drond S/drond E

    L'inverse de la température d'un système est donc l'accroissement du manque d'information (d'un observateur macroscopique maximalement informé à son échelle d'observation) sur l'état microphysique du système par unité d'énergie E apportée à ce système

    * de définir la notion d'évolution irréversible (évolution au cours de laquelle de l'entropie est sensée être créée)

    * de formuler le second principe de la thermodynamique gérant le sens selon lequel doivent se faire les évolutions. Ce sens d'évolution (tel que perçu à l'échelle macroscopique, à l'échelle microphysique, les évolutions sont (quasiment) réversibles) est celui selon lequel l'entropie des systèmes isolés est sensée croître (bien que, d'un point de vue théorique, la croissance de l'entropie des systèmes isolés entre en conflit avec le caractère isentropique de leur évolution hamiltonienne)

    Sans recours à la notion très délicate d'entropie et de création d'entropie (notamment quand on s'efforce de vraiment comprendre physiquement, par exemple, le théorème H de Boltzmann, notamment l'hypothèse dite du chaos moléculaire), il n'est pas possible de définir l'écoulement irréversible du temps.

    Pour les références, introduction à la physique statistique chez DUNOD (me semble-t-il ) est très bien.

  10. #9
    invite6754323456711
    Invité

    Re : Entropie !!

    Citation Envoyé par chaverondier Voir le message
    L'entropie S d'un système est donc une notion informationnelle et implicitement relationnelle entre système observé et observateur macroscopique (donc intersubjective, mais pas objective). Elle comptabilise le manque d'information S, sur l'état du système en question, d'un observateur macroscopique maximalement informé sur l'état de ce système à son échelle d'observation.
    B. Russell aimait bien les circularités. De plus l'entropie en physique repose sur une représentation probabiliste dans un espace continue alors qu'en théorie de l'information il est discret.

    Patrick

  11. #10
    stefjm

    Re : Entropie !!

    Citation Envoyé par albanxiii Voir le message
    pour vos questions : Pouvez-vous me résumer les documents indiqués par deedee ? Parce que vraiment, les réponses y sont !
    rtfm ?
    Dernière modification par stefjm ; 10/11/2012 à 20h30.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  12. #11
    pesdecoa

    Re : Entropie !!

    Citation Envoyé par chaverondier Voir le message
    L'entropie de Boltzmann d'un système c'est la quantité d'information qui manque à un observateur pour caractériser complètement l'état microphysique du système quand cet observateur détient une information maximale sur cet état à l'échelle d'observation macroscopique (c'est à dire quand il connait la valeur de l'ensemble des grandeurs physiques considérées comme caractérisant l'état macroscopique du système).
    Oui. Ce qui est tout de même surprenant la dedans, c'est que Boltzman voit les états comme des niveaux d'énergie et non pas comme des points dans l'espace des phases (xi,vi). Conférant ainsi à l'énergie un statut plus fondamental que la position et la vitesse.

    Ce qui est certain, c'est que l'entropie est reliée à l'énergie en se disant que pour obtenir de l'information sur un système cela "coûte" forcément de l'énergie: c'est le fameux démon de Maxwell, où il "paye" en énergie sa connaissance du système.

    Les "chaoticiens" (les types qui étudient les systèmes dynamiques chaotiques) disent que l'entropie est la capacité d'un système à créer de l'information. Ils prennent l'exemple suivant : Supposons, à un instant donné, deux trajectoires quasi confondues et donc indiscernables l'une de l'autre. Quelques intants plus tard, les trajectoires se separent, informant ainsi l'observateur de l'existence de deux trajectoires et non d'une (comme il aurait pu le croire).

    L'entropie S d'un système est donc une notion informationnelle et implicitement relationnelle entre système observé et observateur macroscopique (donc intersubjective, mais pas objective). Elle comptabilise le manque d'information S, sur l'état du système en question, d'un observateur macroscopique maximalement informé sur l'état de ce système à son échelle d'observation.

    Elle permet (notamment)

    * de définir la notion statistique de température T.

    1/T = drond S/drond E

    L'inverse de la température d'un système est donc l'accroissement du manque d'information (d'un observateur macroscopique maximalement informé à son échelle d'observation) sur l'état microphysique du système par unité d'énergie E apportée à ce système

    * de définir la notion d'évolution irréversible (évolution au cours de laquelle de l'entropie est sensée être créée)

    * de formuler le second principe de la thermodynamique gérant le sens selon lequel doivent se faire les évolutions. Ce sens d'évolution (tel que perçu à l'échelle macroscopique, à l'échelle microphysique, les évolutions sont (quasiment) réversibles) est celui selon lequel l'entropie des systèmes isolés est sensée croître (bien que, d'un point de vue théorique, la croissance de l'entropie des systèmes isolés entre en conflit avec le caractère isentropique de leur évolution hamiltonienne)
    L'équation que tu donnes sur la relation entre température et entropie n'est valable que près de l'équilibre (thermodynamique), lorsque le système a une entropie maximale. Car en dehors de l'équilibre, on ne peut plus définir la température par ce biais là.
    Pour les références, introduction à la physique statistique chez DUNOD (me semble-t-il ) est très bien.
    C'est celui écrit par deux physiciens d'origine russe non ?
    Si oui, alors j'ai personellement apprécié dans ce livre la façon dont ils démontre l'équation ci-dessus à partir de considération "combinatoire".
    Dernière modification par pesdecoa ; 11/11/2012 à 11h20.

  13. #12
    chaverondier

    Re : Entropie !!

    Citation Envoyé par pesdecoa Voir le message
    Ce qui est certain, c'est que l'entropie est reliée à l'énergie en se disant que pour obtenir de l'information sur un système cela "coûte" forcément de l'énergie: c'est le fameux démon de Maxwell, où il "paye" en énergie sa connaissance du système.
    Pas d'accord sur ce point. L'impossibilité du démon de Maxwell est la traduction du second principe de la thermodynamique sous l'angle de l'information. Cette impossibilité correspond, en fait, à une sorte de rendement informationnel. L'observateur macroscopique ne sait pas enregistrer dans un système isolé (donc un système dont il fait partie) une quantité d'information sur l'état de ce système isolé qui serait supérieure au manque d'information minimal que modélise l'entropie de ce système. La crise actuelle qualifiée de crise de l'énergie est, en fait, une crise de l'entropie.

    La raison de cet état de fait est à trouver, à mon sens, dans la façon dont l'information, pour être accessible à l'échelle d'observation macroscopique, doit être enregistrée de façon très redondante pour pouvoir être accessible plusieurs fois successives et par plusieurs observateurs différents sans être altérée. cf Environment as a Witness: Selective Proliferation of Information and Emergence of Objectivity in a Quantum Universe, Harold Ollivier, David Poulin (auteur d'un excellent article sur le démon de Maxwell accessible par le net d'ailleurs), Wojciech H. Zurek http://arxiv.org/abs/quant-ph/0408125

    Citation Envoyé par pesdecoa Voir le message
    L'équation que tu donnes sur la relation entre température et entropie n'est valable que près de l'équilibre (thermodynamique), lorsque le système a une entropie maximale. Car en dehors de l'équilibre, on ne peut plus définir la température par ce biais là.
    Peux tu donner plus de détails sur ce point en précisant ça par un exemple où une autre définition est requise ? J'ai un peu de mal à voir dans quelles situations hors équilibre une définition de la température serait possible et pertinente et ne serait pas de nature informationnelle (et se passerait donc de la notion d'entropie).
    Citation Envoyé par pesdecoa Voir le message
    C'est celui écrit par deux physiciens d'origine russe non ? Si oui, alors j'ai personnellement apprécié dans ce livre la façon dont ils démontre l'équation ci-dessus à partir de considération "combinatoire".
    Il s'agit de physique statistique, introduction, 3ème édition, Christian et Hélène NGO, édition DUNOD.

  14. #13
    pesdecoa

    Re : Entropie !!

    Ce que je voulais dire c'est que la définition de la température n'est possible que si on suppose un état d'équilibre entre deux systêmes. Ceci est merveilleusement démontré par Boltzmann qui remarque le fait suivant : Le nombre de combinaison possible maximum entre deux urnes contenant n1 et n-n1 boules respectives est obtenu et largement obtenu lorsque n1=n-n1.
    Je trouve que ce résultat mathématique confêre â la physique statistique une assise indéniable.
    Dernière modification par pesdecoa ; 12/11/2012 à 15h40.

Discussions similaires

  1. Réponses: 4
    Dernier message: 20/09/2012, 20h52
  2. Entropie absolue et entropie de formation
    Par Garion5 dans le forum Chimie
    Réponses: 7
    Dernier message: 04/01/2011, 08h58
  3. entropie
    Par invite657b0ad0 dans le forum Chimie
    Réponses: 4
    Dernier message: 22/01/2009, 15h04
  4. Entropie
    Par invite7591132b dans le forum Physique
    Réponses: 3
    Dernier message: 08/01/2009, 11h16
  5. Entropie de sup et entropie de spé ?
    Par Gpadide dans le forum Physique
    Réponses: 3
    Dernier message: 02/04/2007, 06h47