entropie, entropie...
Répondre à la discussion
Affichage des résultats 1 à 4 sur 4

entropie, entropie...



  1. #1
    benjgru

    entropie, entropie...


    ------

    bonjour,

    on a delta S= deltaQ/T + delta S irréversible (2eme principe)

    -pourquoi delta Q/T et pas delta QxT ou delta Q/T²...?? j'ai jamais compris

    - peut on calculer delta Qirréversible explicitement sans passer par delta S - deltaQ/T ? on m'a tjrs dit c'est trop complexe...? mais bon

    - S=k ln W c'est pour des transformations réversibles ou quelconques ??

    merci pour ces mises au point.

    -----

  2. #2
    chaverondier

    Re : entropie, entropie...

    Citation Envoyé par benjgru Voir le message
    bonjour, on a delta S= deltaQ/T + delta S irréversible (2eme principe). Pourquoi delta Q/T et pas delta QxT ou delta Q/T²...?? j'ai jamais compris
    On a deux façon de répondre.

    1ère façon de répondre : on part de la notion de quantité de chaleur dQ échangée entre le système et son "environnement". Autrement dit, on considère que cette notion d'échange de chaleur est une notion physique claire parce qu'on sait assez bien en donner une définition expérimentale. Pour un système physique d'état macroscopique caractérisé par la donnée d'un certain nombre de variables dites d'état x1, x2, x3..., la température T est alors ce que l'on appelle le facteur intégrant, c'est à dire la quantité par laquelle il faut diviser toute quantité de chaleur dQ échangée, de façon réversible, entre le système et son environnement (dQ étant modélisée par une 1-forme sur l'espace des états macroscopiques du système) pour en faire une différentielle totale notée dS (sur l'espace des états du système considéré). Bref, la température est la grandeur T telle que dQ/T possède une primitive S (une fonction d'état S(x1, x2, x3...) sur l'espace des états du système telle que dS = dQ/T, où x1, x2, x3... désignent un système complet de variables caractérisant l'état macroscopique du système considéré).

    2ème façon de répondre : on définit l'entropie S d'un système donné, dans un "état macroscopique" donné, comme la quantité d'information qui manque à l'observateur macroscopique pour connaître parfaitement l'état microphysique dans lequel se trouve, en fait, le système observé (connaissant seulement l'état macroscopique dans lequel se cache cet état microphysique au milieu de ses copains perçus comme appartenant au même état macroscopique car vus comme des "jumeaux indiscernables" à l'échelle d'observation macroscopique).

    La formule dS = dQ_réversible/T devient alors une définition de la température que l'on peut écrire (à la constante de proportionnalité k près) : 1/T = d_rond S/d_rond U (où U désigne l'énergie interne du système considéré)
    L'inverse 1/T de la température c'est donc la perte d'information dS de l'observateur macroscopique (sur l'état microphysique du système observé) par unité d'énergie dU fournie au système (en maintenant constantes un certain nombre de variables d'état du système)
    Citation Envoyé par benjgru Voir le message
    S = k ln W c'est pour des transformations réversibles ou quelconques ??.
    W c'est le nombre d'états microphysiques perçus, à l'échelle macroscopique, comme indiscernables (d'un état microphysique donné du système observé) par un observateur macroscopique du système considéré (observateur macroscopique dont la "myopie" est caractérisée par une partition de l'espace des états microphysiques du système considéré en classes d'équivalences appelées états macroscopiques).

    L'entropie S = k ln W du système dans un état donné, c'est donc une grandeur d'état du système et non une grandeur caractérisant un changement d'état. C'est la quantité d'information qu'il faut donner, en plus, à un observateur macroscopique maximalement informé (à son échelle d'observation) pour qu'il parvienne à identifier l'état microphysique du système considéré connaissant l'état macroscopique dans lequel il se cache (au milieu de ses copains perçus, à l'échelle macroscopique, comme étant dans le même état).

    Nota : quand nous parlons, à tort, de nos besoins en énergie, la grandeur physique dont notre industrie a besoin c'est, en fait, de l'information (le contraire de l'entropie). En effet, l'énergie se conserve donc on ne risque pas d'en manquer. L'information aussi se conserve en théorie (réversibilité des lois de la physique et unitarité des évolutions quantiques) mais, pas en pratique. La preuve, c'est que le temps s'écoule (à nos yeux d'observateur macroscopique incomplètement informé). La transformation d'énergie en chaleur, n'est pas une perte d'énergie. Pourtant c'est souvent embêtant car c'est une perte d'information (on dit de façon assez vague que l'énergie se dégrade. En fait, cela signifie que la connaissance de l'observateur-expérimentateur technologue se dégrade).

    La croissance de l'entropie des systèmes "isolés" traduit la difficulté que nous avons à concevoir des "joints d'étanchéité" capable d'éviter la fuite d'information dans l'environnement par des phénomènes que l'on appelle des phénomènes dissipatifs (fuite d'information, loin de l'observateur macroscopique, à la base de ce que l'on appelle des évolutions irréversibles)

  3. #3
    benjgru

    Re : entropie, entropie...

    ok merci,
    tu dis que W est le nb d'état indiscernables, mais il me semble que Boltzmann travaillait sur des sytèmes à particules discernables (il ignorait la méca Q qui postule l'indiscernabilité des particules), et W représentent des "complexions" .

  4. #4
    chaverondier

    Re : entropie, entropie...

    Citation Envoyé par benjgru Voir le message
    Tu dis que W est le nb d'états indiscernables.
    Le nombre d'états indiscernables _à l'échelle d'observation macroscopique_. L'information, la flèche du temps, l'entropie macroscopique, l'irréversibilité, la notion d'état d'équilibre, n'existent pas sans référence à la limitation d'accès à l'information d'une catégorie d'observateurs (du moins à leur échelle "naturelle " d'observation). Le second principe de la thermodynamique modélise, en fait, l'impossibilité (pour les observateurs-expérimentateurs macroscopiques que nous sommes) d'acquérir une quantité d'information sur l'état d'un système isolé (dont nous faisons partie) telle que l'information manquante (pour une caractérisation microphysique complète de cet état) serait inférieure à l'entropie macroscopique de l'état de ce système. Le second principe exprime donc, en fait, notre limitation d'accès à l'information.

    La question qui vient naturellement à l'esprit et c'est d'ailleurs le sens de la question posée par le démon de Maxwell (je ne suis pas sûr que nous sachions y répondre de façon vraiment catégorique) est de se demander si c'est un principe physique incontournanble ou une limitation de nature technologique (susceptible d'être repoussée par le développement d'une nano ou picotechnologie coopérative à venir).

  5. A voir en vidéo sur Futura

Discussions similaires

  1. Entropie de sup et entropie de spé ?
    Par Gpadide dans le forum Physique
    Réponses: 3
    Dernier message: 02/04/2007, 06h47
  2. entropie
    Par inviteb32a72f0 dans le forum Physique
    Réponses: 7
    Dernier message: 14/04/2006, 18h59
  3. entropie
    Par invite0395b98d dans le forum Chimie
    Réponses: 11
    Dernier message: 14/04/2006, 15h24
  4. Entropie
    Par invite234d9cdb dans le forum Chimie
    Réponses: 2
    Dernier message: 19/02/2006, 17h49
  5. Entropie .
    Par invite61942757 dans le forum Chimie
    Réponses: 3
    Dernier message: 19/08/2004, 16h26