Heu...oubliez tout ce que j'ai dit après la aprtie sur l'extensivité de l'entropie : après relecture, je me rend compte que c'est juste n'importe quoi...
Désolé.
-----
Heu...oubliez tout ce que j'ai dit après la aprtie sur l'extensivité de l'entropie : après relecture, je me rend compte que c'est juste n'importe quoi...
Désolé.
Bonjour,
Je ne pense pas puisque justement l'entropie de ces sous-groupe est nulle ou presque, les atomes sont stables.Envoyé par MewtowOn peut se dire que l'augmentation de la probabilité des micro-états restants risque de changer la donne et compenser le tout.
Si j'ai bien compris.
A moins de considerer l'entropie fournie par la désintegration des noyaux, ça dépend donc aussi des conditions de l'experience.
Ce n'est pas simplement découper le système, mais découper le système + mesurer la température de chaque sous-partie (donc obtenir plus d'information).
Raisonnons avec des boules blanches et noires. Tu as 12 boules dans une boite, tu sais que 6 sont blanches et 6 sont noires.
S = k ln (C-12-6) = k ln (924).
Tu divise ton système en 2, tu sais que dans chaque partie tu as exactement 3 boules blanches et 3 boules noirs
S1 = S2 = k ln (C-6-3) = k ln(20).
S = S1 + S2 = 2k ln(20) = k ln(20x20) = k ln(400) < k ln(924)
En obtenant plus d'information sur le système (le fait que chaque partie possède exactement 3 boules blanches) on a diminué le nombre de possibilité, donc l'entropie.
Ca signifie qu'en augmentant la précision de la mesure, en "changeant d'échelle", on diminue l'entropie du système.
Pour ce qui est du fait que l'entropie est en réalité une variable qui constitue un "point de vue" et dépende de la connaissance de l'observateur, ce n'est pas mon invention, je la tire du livre d'Henri Atlan "le cristal et la fumée" (que je conseille ). Il parle également de l'idée que la néguentropie est "l'énergie utile" (c'est à dire non dispersée), ce qui est finalement lié.
En fait, si je ne me trompe pas.Envoyé par Quen_tinEn obtenant plus d'information sur le système (le fait que chaque partie possède exactement 3 boules blanches) on a diminué le nombre de possibilité, donc l'entropie.
Tu ne prend pas en compte la position dans cet exemple.
Exprimée par l'Onde de Brooglie ?
http://fr.wikipedia.org/wiki/Hypoth%...e_phase_.C2.BB
Non,Envoyé par Quen_tinTu divise ton système en 2, tu sais que dans chaque partie tu as exactement 3 boules blanches et 3 boules noirs
S1 = S2 = k ln (C-6-3) = k ln(20).
S = S1 + S2 = 2k ln(20) = k ln(20x20) = k ln(400) < k ln(924)
je ne pense pas que tu puisse diviser en deux comme ceci.
Il te faudrait de l'energie pour atteindre cette répartition physique.
C'est le probleme du demon de Maxwell
http://www.futura-sciences.com/fr/de...-maxwell_4741/Envoyé par Futura-Sciences"Pour observer les molécules, le démon aura besoin de dépenser de l'énergie en les éclairant. Une analyse fine montre alors que le second principe, chassé par la porte, revient par la fenêtre !
Donc il y a plusieurs manieres de "diviser en deux".
http://fr.wikipedia.org/wiki/Statist...C3.A9partition
Je n'atteint aucune répartition. Je n'ai besoin d'aucune énergie. Le système n'est pas modifié.
Mettons que je dispose d'un appareil qui mesure le nombre de boules blanches dans une zone donnée. "diviser le système en deux" c'est simplement mesurer le nombre de boules blanches sur des zones plus petites, c'est à dire augmenter le "grain" de mes mesures (c'est à dire "changer d'échelle"). Dans mon exemple on obtient 3 et 3, mais on aurait pu obtenir 2 et 4. Ce qui compte, c'est qu'avec cette nouvelle mesure, on obtienne plus d'information sur le système, et de ce fait, l'entropie du système baisse, parce que le nombre de micro-configurations envisageables diminue "à la lumière" de ces nouvelles données.
(Si on remplace la couleur par la vitesse des molécules, on retombe sur la physique statistique -> "diviser le système en deux" revient grosso-modo à multiplier par deux le nombre de thermomètres en les plaçant à des endroits différents).
L'important dans cet exemple c'est simplement de comprendre que l'entropie au sens de Boltzman est une notion relative à la connaissance de l'expérimentateur, c'est tout. Encore une fois, je n'invente rien, puisque Henri Atlan dit exactement la même chose...
Je dois être un peu bouché : je ne comprend pas pourquoi!
Tu disais au dessus que tu ne changeais pas le système, simplement que tu le connaissais mieux.
Pourquoi se retrouverait-on avec trois boules de chaque couleur dans chaque sous système?
Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».
Ce que décrit quen_tin n'est pas l'entropie de Boltzmann! L'entropie telle que la définit Boltzmann est physique et réelle.
Celle dont parle quen_tin est la définition de l'entropie qu'en donne Gibb. C'est une entropie artificielle, puisque dépendante d'un paramètre qui fixe la taille . Lorsqu'on fait tendre vers zéro, on retrouve l'entropie de Boltzmann.
Pour moi, la seule définition qui vaille est celle de Boltzmann.
D'abord de quelle entropie de Boltzmann parles tu ?
L'entropie H de Boltzmann en théorie cinétique des gaz ou l'entropie d'équilibre comme le log du nombre de configurations, chacune d'elle étant équiprobable ?
C'est quoi ? La taille de quoi ?L'entropie telle que la définit Boltzmann est physique et réelle.
Celle dont parle quen_tin est la définition de l'entropie qu'en donne Gibb. C'est une entropie artificielle, puisque dépendante d'un paramètre qui fixe la taille . Lorsqu'on fait tendre vers zéro, on retrouve l'entropie de Boltzmann.
Du moment où nos prédictions sont les mêmes pense ce que tu veux .Pour moi, la seule définition qui vaille est celle de Boltzmann.
Ce n'était pas le point. Si tout les "physiciens" sont d'accord, nul besoin d'en citer un en particulier (et encore moins un non physicien).
Sinon, sur le fond, je ne pense pas qu'il serait difficile de trouver des écrits objectant à l'interprétation subjective de l'entropie.
Et pour finir, pour "être tout à fait d'accord", faut avoir la même notion de "connaissance de" (comment cela a-t-il été vérifié ?), et je ne suis pas bien sûr du statut épistémologique du concept de "connaissance" en physique.
Dernière modification par Amanuensis ; 30/04/2011 à 11h13.
Pour le coup de la mesure d'un sous-système qui modifierait l'entropie, je ne suis toujours pas d'accord.
L'entropie, ce n'est pas une mesure de l’information cachée à l'observateur, mais simplement un nombre de micro-états dont l'observation est possible. Nuance.
Prenons un système avec 10 particules, ayant 500 micro-états possible.
Si jamais on finit par mesurer son micro-état exact (en découpant le système en sous-parties ou par mesure sans découpage), tu auras donc un seul micro-état pour ton système. Soit, mais dans ce cas, l'entropie du système serait nulle, et donc celui-ci serait au zéro absolu. Tu vois le problème ?
A l'équilibre, ton système ne reste pas dans un micro-état constamment : ce micro-état évolue dans le temps. L'entropie, ce n'est pas l’information manquante pour décrire le micro-état du système, mais le nombre de ces micros-états.
Ce qui signifie qu'une fois ta mesure finie, en supposant que ton système est resté dans un état d’équilibre infiniment proche de l'état initial, l'entropie n'a pas changée : n'importe quelle autre mesure pourrait donner un micro-état différent, et le nombre de micro-états différents possibles d'observer n'a pas changé.
A la rigueur, tu peut connaitre l'évolution temporelle du système et ainsi connaitre quel micro-état tu va mesurer à l'instant t. Mais le nombre des micro-états que pourra prendre le système ne changera pas.
Dans l'exemple avec les boucles, tu as supposé qu'il n'y avait qu'un seul micro-état pour ton système : celui-ci ne varie pas dans le temps. Pour un système physique, en connaissant le macro-état du système, tu aurais su qu'il n'y aurait eu qu'un seul micro-état possible, et donc une entropie nulle.
Méfiance. L'entropie ne dépend pas de l'observateur, elle est une propriété d'un système.
Ce débat sur la subjectivité de l'entropie ou pas est un débat centenaire dont l'issue n'est à ce jour toujours pas claire. Il est donc normal de citer des points de vue qui permettent, au final, de résumer l'appartenance à une école de pensée mais qui n'ont pas vraiment de poids si on évite les arguments d'autorité.
C'est vrai mais chaque avis doit être traité séparément et c'est pour ça que je demande des nomsSinon, sur le fond, je ne pense pas qu'il serait difficile de trouver des écrits objectant à l'interprétation subjective de l'entropie.
Quand j'ai mis "tout à fait d'accord" je me suis dis la même chose que toi mais bon j'ai laissé quand même .Et pour finir, pour "être tout à fait d'accord", faut avoir la même notion de "connaissance de" (comment cela a-t-il été vérifié ?), et je ne suis pas bien sûr du statut épistémologique du concept de "connaissance" en physique.
Si on me force à citer un nom résumant une appartenance à une école de pensée "sur le sujet", ce serait Pyrrhon
Si tu parles de l'entropie à l'équilibre, il n'y a pas énormément d'ambiguités et, si les contraintes sont "classiques", il y a une seule valeur de l'entropie pour un système donné.
Maintenant, si tu t'intéresses à un gaz maintenu initialement à l'équilibre avec un gradient de densité (à une particule) par exemple dans le système (grace à un champ de force ou un truc dans le genre).
Si à t=0 tu enlèves le champ de force, la densité doit a priori s'uniformiser lorsque le système relaxe vers la nouvelle situation d'équilibre (note que les contraintes ne sont plus les mêmes).
Cette transformation (à partir de t=0+) doit a priori se faire à entropie croissante dans le système.
La difference entre les deux cas, c'est que pour décrire le macroétat initial il faut un ensemble de valeurs correspondant aux mesures de densité dans chaque sous partie (de taille mésoscopique usuellement et souvent à l'équilibre local) de la boite. L'entropie de Gibbs correspondante étant le nombre de microétats satisfaisant ce qui observé pour le système, elle devra ici satisfaire par exemple :
E, V et N fixés + {toutes les valeurs permettant de décrire le champ de densité à l'instant initial}.
L'information contenue dans le champ de densité va progressivement se diluer avec la dynamique (hypothèse similaire à celle du chaos moléculaire de Boltzmann) pour avoir la valeur maximale correspondant uniquement aux contraintes inhérentes au système i.e. E,V et N fixés.
N'étant pas un crac en philo ça ne m'avance pas beaucoup désolé d'autant que les recherches google n'aboutissent jamais sur quoique ce soit en rapport avec la méca stat...ou alors c'était un sarcasme ?
A la louche, c'est du scepticisme exacerbé.
«Les pyrrhonistes pensent que, comme les sages ont des conclusions opposées, aucune voie n'est meilleure qu'une autre, alors mieux vaut n'en adopter aucune.»
Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».
La logique est une méthode systématique d’arriver en confiance à la mauvaise conclusion.
Edit : Encore zappé un message... Je confirme par celui-ci ce qu'a bien analysé stefjm.
Un peu, mais pas vraiment et au pire pas méchant.
C'était juste une manière de dire que je n'appartiens à aucune école sur le sujet, et campe sur une position sceptique à la Pyrrhon, genre exprimé sur le wiki anglais par :
The main principle of Pyrrho's thought is expressed by the word acatalepsia, which connotes the ability to withhold assent from doctrines regarding the truth of things in their own nature; against every statement its contradiction may be advanced with equal justification.
Comme aux deux questions "pourquoi ne pas en choisir une plutôt
qu'aucune ?" et "pourquoi ne pas en choisir plutôt qu'une ?" il y a des arguments positifs équilibrés, on peut s'abstenir de choisir entre n'en choisir aucune et en choisir une.
Pourtant tu as écrit :
Un fait scientifiquement établi ?
Patrick
J'ai encore une fois oublié le conditionnel. ff
Bon, vu les interventions, le débat sur l'objectivité ou la subjectivité de l'entropie semble être assez ancien, vu les réactions.
Quelqu'un pourrait tenter de résumer les arguments et contre-arguments pour et contre ?
Oui, je sais, je demande beaucoup, mais ça serait pas mal, non ?
Je ne comprends pas ... j'ose pas poser de questions : c'est hors sujet par rapport au fil "Théorème de Noether et entropie" et même par rapport au forum puisque il est question de philosophie. Il faudrait ouvrir un autre fil et discuter des applications physique, ça pourrais être un bon sujet "choisir ou ne pas choisir parmi plusieurs voies de recherche" ?
La logique est une méthode systématique d’arriver en confiance à la mauvaise conclusion.
La première difficulté, et non des moindres, est qu'il y a plusieurs notions d'entropie.
Exemple d'argument contre l'interprétation subjective, comment l'entropie de Clausius pourrait-elle être subjective et être invoquée pour expliquer une limitation de la puissance des machines à vapeur ?
trois, ou quatre, peu importe... Disons qu'on mesure le nombre de boules dans chaque sous-système et qu'on en trouve n. Cette information réduit le nombre de micro-états possibles, donc l'entropie.
Je cite wikipedia : "In Boltzmann's definition, entropy is a measure of the number of possible microscopic states (or microstates) of a system in thermodynamic equilibrium, consistent with its macroscopic thermodynamic properties (or macrostate)."Ce que décrit quen_tin n'est pas l'entropie de Boltzmann! L'entropie telle que la définit Boltzmann est physique et réelle.
Celle dont parle quen_tin est la définition de l'entropie qu'en donne Gibb. C'est une entropie artificielle, puisque dépendante d'un paramètre qui fixe la taille . Lorsqu'on fait tendre vers zéro, on retrouve l'entropie de Boltzmann.
Pour moi, la seule définition qui vaille est celle de Boltzmann.
C'est la définition que j'utilise. La notion de "micro-état" et de "macro-état", et encore plus celle de "possible" dépend du point de vue et de la connaissance qu'on a du système, elle n'a rien d'objective, de "physique" ou "réelle" selon tes termes (qui sont des termes philosophiques au passage).
Il y a differents degrés de subjectivité. De façon évidente, un corps chaud en contact avec un corps froid n'a que faire d'un quelconque observateur et dans 99.9999....% des situations, le corps chaud va transférer de la chaleur au corps froid en suivant le second principe de la thermodynamique.
Mon point de vue est plutot que, si on veut expliquer ce qu'il se passe, on ne pourra rien justifier à l'aide d'une description microscopique exacte de l'état du système et qu'on est obligé d'adopter une description plus "à notre échelle" (pourtant subjective) pour rationnaliser la thermodynamique. D'un point de vue objectif cela correspondrait à une propriété émergente des systèmes thermodynamiques je pense.
Un argument très connu en faveur de l'aspect subjectif du calcul de l'entropie au sens où je l'entends est l'entropie de mélange apparaissant lors du mélange de deux espèces differentes. Si on ne tient pas compte de la non discernabilité pour deux mêmes substances que l'on mélange, alors on prédit un gain entropique qui s'avère faux après mesure des énergies de réaction.
Justement, comme je l'ai dit plus haut (je me répète pour que ça soit confirmé ou réfuté par un intervenant) , ça ne modifie pas le nombres de micro-états possibles, cela dit juste quel est le micro-état actuel.
Un systéme dans un macro-état stable va changer continuellement de micro-état (si il en a plusieurs). L'entropie statistique d'un machin à l’équilibre mesurée par S = -Kb ln (W), c'est le nombre de micro-états que le systéme va pouvoir visiter durant son "évolution". S n'est pas le nombre de micro-état possible à un instant t, mais le nombre de micro-état visités durant une durée suffisamment grande.
Savoir quel est le micro-état à un instant t peut a la rigueur renseigner sur le prochain micro-état du systéme, et aide à prédire les futurs micro-états, mais cela ne change en rien l'entropie du systéme.
Pour l'exemple avec les boules, il faudrait prendre en compte le cas ou les boules changent de couleur au fil du temps. Avec des boules dont les couleurs ne changent pas, on n'a qu'un seul micro-état, et faire les mesures ne changera pas l'entropie, déjà nulle au départ.
Du moins selon mon point de vue. Quelqu'un pourrait confirmer ?
Je ne crois pas que ce soit un bon argument : dans un cas pareil, cela pose problème si on néglige l'indiscernabilité des particules, qui est une propriété "fondamentale" des composants du systéme dont on mesure d'entropie.Un argument très connu en faveur de l'aspect subjectif du calcul de l'entropie au sens où je l'entends est l'entropie de mélange apparaissant lors du mélange de deux espèces differentes. Si on ne tient pas compte de la non discernabilité pour deux mêmes substances que l'on mélange, alors on prédit un gain entropique qui s'avère faux après mesure des énergies de réaction.
Pas de quoi dire que c'est subjectif : il faut simplement prendre en compte un détail sur le systéme lui-même.
Bon, c'est sur que forcer E, V et N ne suffit pas. Ce qui fait qu'une entropie autre que microscopique risque de poser problème. Mais avec l'entropie statistique, avec les micro-états, ça passe, non ?
Dans mon exemple des boules, je suppose qu'il existe deux micro-états possibles par boule (blanc ou noir). On peut imaginer qu'une boule puisse changer d'état. En fait mon système est équivalent à un gaz dont les particules ne pourraient avoir que deux vitesses possibles, et le nombre de boules blanches correspond à la température. C'est juste une version simplifiée de la physique statistique d'un gaz.Dans l'exemple avec les boucles, tu as supposé qu'il n'y avait qu'un seul micro-état pour ton système : celui-ci ne varie pas dans le temps. Pour un système physique, en connaissant le macro-état du système, tu aurais su qu'il n'y aurait eu qu'un seul micro-état possible, et donc une entropie nulle.
Méfiance. L'entropie ne dépend pas de l'observateur, elle est une propriété d'un système.
Pour moi, si on connait la position et la vitesse de chaque particule (en physique classique, donc), l'entropie est effectivement nulle. Il n'y a pas de micro-états "possibles" autres que ceux qu'on mesure effectivement.
Dis moi pourquoi si l'entropie était nulle on serait au zéro absolu ? Il me semble que c'est la variation d'entropie uniquement qui est reliée à la température, pas l'entropie elle même (n'oublions pas qu'on est en physique classique, pas quantique, donc pas question d'utiliser la formule de l'entropie exacte citée plus haut).