C'est toujours la section physique du forum??
-----
C'est toujours la section physique du forum??
La morale de cette histoire, c'est que le vivant ne se complexifie pas mais qu'il correspond à une réduction du nombre des possibles.Un petit poisson à deux nageoires s'est adressé un jour à un gros poisson à quatre nageoires : "Monsieur, vous me semblez inutilement compliqué, toutes ces nageoires et toutes ces dents, au nom de l'Entropie je vous somme de me laisser ce vermisseau, car je meurs de faim !". Le gros poisson violant les lois de l'Entropie a pourtant eu plus de descendance que le petit poisson... La Fontaine aurait trouvé une morale pour cette histoire.
Une goutte d'eau est bien plus complexe qu'aucun organisme vivant de même masse.
Une diminution de l'entropie correspond à une diminution du nombre des possibles.
Un organisme vivant possède alors une forme parmi toutes les formes possibles que l'on pourrait imaginer en prenant ses constituants séparément.
Donc, à mon avis, et pour comprendre le rapport qu'il peut exister entre le vivant et l'entropie, étant donné que le vivant pour autant qu'il ne soit pas la forme la plus complexe reste néanmoins d'une grande complexité organisationnelle (qui est le contraire de la complexité de la physique à l'échelle atomique), c'est de se restreindre dans un premier temps aux formes de vie les plus simples.
La première étape de cette analyse passe donc par l'étude des cycles métaboliques, ce qui implique de regarder pourquoi les molécules interagissent pour se transformer en d'autres ... et inversement.
On comprend d'ailleurs facilement que si ces réactions ne se produisaient pas en vase clos ou du moins sensiblement (dans l'espace sans gravité par exemple) ces réactions ne seraient pas possibles du fait de la dispersion des produits et réactifs,
C'est dommage, ce sujet va être fermé alors qu'il est intéressant à la base.
Pour faire même plus simple, il suffit de voir comment il est possible, en laboratoire, donc sous la "pression de sélection" du laborantin de parvenir à des résultats reproductibles qui vont à l'encontre d'une augmentation "fatale" de l'entropie (fatale sois-disant, car il suffit de constater comment une goutte d'huile sédimente avec de l'eau (dans un environnement gravitationnel) pour se convaincre du contraire).
Je maintiens mon analyse méta: prendre le point de vue de l'entropie amène à du bla-bla.
Parler d'homogénéisation, par exemple nivellement des températures (évident qu'un organisme homéotherme comme le nôtre doit trouver de l'énergie pour ne pas se retrouver à la température extérieure), est plus clair, plus concret et amène à réfléchir aux phénomènes physiques et chimiques, dans des domaines où on ne se contente pas d'un vague ça augmente là, ça diminue là, et au total ça diminue, sans préciser de quoi on parle sauf une étiquette.
Pour l'origine de la vie, une fois qu'on a admis que la surface de la Terre était avant l'émergence de la vie (et est toujours) le théâtre de «turbulences» (physiques et chimiques) à toutes échelles, motorisées par la dissipation de l'énergie géothermique et de l'énergie du rayonnement solaire incident, il n'est pas trop difficile d'accepter que certaines de ces «turbulences» aient pu se caractériser par une croissance/division/héritage, qui ne peut pas faire autrement qu'être l'objet d'une sélection darwinienne.
C'est évidemment le terme «héritage» qui est le plus intriguant: mais, une fois de plus, c'est possible, puisse que la vie existe.
----
Question entropie, au lieu de se poser la question pour un cas chimiquement complexe, on peut commencer à s'intéresser aux courants marins, aux nuages, aux ouragans, au cycle de l'eau qui sculpte montagnes, rivières, canyons, etc., etc., etc., et voir comment cette structuration de tas d'aspects physiques et chimiques à la surface de ce globe est compatible avec un principe qui «demanderait» que tout devienne uniforme, homogène. Avec ces cas là il est plus facile d'étudier les phénomènes physiques et chimiques à l’œuvre, et ne pas se perdre dans un bla-bla tissé de vagues analogies.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Au passage je n'ai encore jamais vu d'explication «par l'entropie» de l'apparition d'un système avec hérédité, le point le plus intrigant. Croissance/division, pourquoi pas, mais quelle «explication» sérieuse l'entropie peut-elle fournir pour l'apparition du phénomène d'hérédité nécessaire à démarrer et entretenir la boucle de l'évolution darwinienne?
(Et par explication sérieuse j'exclus le bla-bla sur une relation entre entropie de Clausius et information...)
(Et par hérédité je ne parle pas de l'ADN. Il y a une hérédité plus fondamentale, que montre juste se poser la question de l'héritage du code génétique.)
Dernière modification par Amanuensis ; 04/11/2018 à 08h39.
Pour toute question, il y a une réponse simple, évidente, et fausse.
l’organisme homéotherme que nous somme pourrait t’-il vivre si un des flux d’énergie qui le traverse vient à disparaître? C’est le cas s’il est plongé dans un milieu qui atteint sa température propre sous 100% d’humidité. Dans ce cas pour maintenir et utiliser son énergie de faible entropie, il ne peut plus évacuer (flux sortant) l’énergie de forte entropie (chaleur).Je maintiens mon analyse méta: prendre le point de vue de l'entropie amène à du bla-bla.
Parler d'homogénéisation, par exemple nivellement des températures (évident qu'un organisme homéotherme comme le nôtre doit trouver de l'énergie pour ne pas se retrouver à la température extérieure), est plus clair, plus concret et amène à réfléchir aux phénomènes physiques et chimiques, dans des domaines où on ne se contente pas d'un vague ça augmente là, ça diminue là, et au total ça diminue, sans préciser de quoi on parle sauf une étiquette.(..)
Donc on se retrouve confronté avec la loi de Clausius (comme un moteur ditherme).
A noter, que l’évacuation en question est facilité du fait que l’organisme est homéotherme.
Bon, c’est sans doute du blabla...
Effectivement, la remarque est bonne. Pourquoi si tout se dégrade, l'ADN qui passe d'une génération à une autre "se bonifie-t-il" ?Au passage je n'ai encore jamais vu d'explication «par l'entropie» de l'apparition d'un système avec hérédité, le point le plus intrigant. Croissance/division, pourquoi pas, mais quelle «explication» sérieuse l'entropie peut-elle fournir pour l'apparition du phénomène d'hérédité nécessaire à démarrer et entretenir la boucle de l'évolution darwinienne?
(Et par explication sérieuse j'exclus le bla-bla sur une relation entre entropie de Clausius et information...)
(Et par hérédité je ne parle pas de l'ADN. Il y a une hérédité plus fondamentale, que montre juste se poser la question de l'héritage du code génétique.)
Je vais répondre par une image. Quand on emprunte à la banque pour faire des travaux, on chiffre un budget approximatif pour déterminer l'enveloppe nécessaire. Par la suite on utilise ce budget légèrement différemment en fonction des besoins réels.
Dans l'état actuel de mes réflexions (mais qui ne constitue en rien une réponse même provisoire), je dirais qu'une fois la vie apparue (= l'emprunt = le paiement en entropie, même si c'est récurent et pas un emprunt unique), la vie peut évoluer dans cette "enveloppe" entropique à condition bien sûr de ne jamais la dépasser (rappel : l'entropie ne fait pas crédit). Donc je ne suis pas certain que l'apparition, même de la reproduction sexuée ai nécessairement besoin de se justifier par une augmentation d'entropie.
Bonjour,Au passage je n'ai encore jamais vu d'explication «par l'entropie» de l'apparition d'un système avec hérédité, le point le plus intrigant. Croissance/division, pourquoi pas, mais quelle «explication» sérieuse l'entropie peut-elle fournir pour l'apparition du phénomène d'hérédité nécessaire à démarrer et entretenir la boucle de l'évolution darwinienne?
(Et par explication sérieuse j'exclus le bla-bla sur une relation entre entropie de Clausius et information…) (..)
L’entropie de Clausius et de Bolzmann concerne les milieux à l’équilibre.
L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.
L’information associée concerne l’émergence que ses études font apparaître au niveau macroscopique ( trajectoire, bifurcation …)
Voilà mon point de vue.
Rassurez-moi, une locomotive à vapeur n'est pas un milieu à l'équilibre, si ?Bonjour,
L’entropie de Clausius et de Bolzmann concerne les milieux à l’équilibre.
L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.
L’information associée concerne l’émergence que ses études font apparaître au niveau macroscopique ( trajectoire, bifurcation …)
Voilà mon point de vue.
Tu es sûr ? Comment as-tu fait le calcul ? Ca me paraît peu au vu des complexes d'ATP-synthase qui tapissent la paroi interne des mitochondries...
https://fr.wikipedia.org/wiki/ATP_synthase
La grossièreté et l'invective sont les armes préférées d'une pensée impuissante.
Comme tous les moteurs qui transfèrent de l'énergie. Le flux d'énergie thermique (chaleur), comme tout flux d'énergie est causé par un déséquilibre (ici différence de température ou de potentiel thermique) (que l'on entretient). Dans une machine électrique le flux est le courant associé à une différence de potentiel électrique.
Par contre on peut parler d'un état stationnaire.
Effectivement, il manque un facteur 1000. c'est 1,5.10^8 équivalent en eau.Tu es sûr ? Comment as-tu fait le calcul ? Ca me paraît peu au vu des complexes d'ATP-synthase qui tapissent la paroi interne des mitochondries...
https://fr.wikipedia.org/wiki/ATP_synthase
J'ai refait le calcul (qui a dit jamais 2 sans 3) et il y avait un facteur 10^6.
Le détail (en prenant les chiffres du wiki pour les données des mitochondries :
En guise de comparaison, 1,5.10^11, c'est à peu près le nombre de bits dans 16 GB de RAM (16 * 8 * 10^9 = 1,3.10^11).Code:diamètre 7,50E-07 rayon 3,75E-07 longueur 1,00E-05 Volume 4,42E-18 m3 (un mitochondrie) Pour l'eau : Volume molaire 18.10^6 m3 N 6,023E23 Volume 2,98854E-26 (d'un molécule) Equivalent 1,48E+11
Dernière modification par Amanuensis ; 06/11/2018 à 16h46.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Par contre le résultat final semble correct. Bizarre...
Pour toute question, il y a une réponse simple, évidente, et fausse.
J'en reviens à la machine à vapeur. Le cycle, on prend de l'eau liquide qui est vaporisée par la chaleur du fourneau.
Ensuite cette vapeur sous pression entre dans un piston et repousse la vapeur refroidie du cycle précédent qui est expulsée. Après détente et refroidissement partiel, cette même vapeur est elle même repoussée du piston.
Où vois-tu un état stationnaire dans ce cycle (qui n'est même pas complet, puisque logiquement si on pense au cycle de carnot, il ne faudrait pas évacuer la vapeur d'eau dans l'air mais la condenser et la refroidir pour réutiliser l'eau ainsi récupérée et reprendre le cycle au début).
Bonsoir,
Stationnaire du point de vue énergétique dans le sens ou le cycle se réalise entre 2 isothermes (thermostat). Dans le cas de la machine à vapeur (locomotive), contrairement aux machines fixes, le cycle de l'eau n'est pas fermé.
Notes, que le contrôle du transfert de l'énergie demande une très petite puissance : le régulateur de watt. C'est le volet informationnel de la boucle de régulation de vitesse.
Dernière modification par yvon l ; 06/11/2018 à 22h49.
J'ai quand même l'impression que les arguments sont ad-hoc. Oui, la locomotive est une machine thermique crée par l'homme et que l'homme a cherché à optimiser au mieux. Mais baser sur ce fait une discrimination dans les théories qui sous-tendent les phénomènes ne me parait pas une approche fructueuse. Lorsqu'on fait chauffer a chaudière, la température de la source chaude varie, de même l'air extérieur et sa pression peuvent varier. Pour moi parler de thermostats est donc une vue de l'esprit simplificatrice.Bonsoir,
Stationnaire du point de vue énergétique dans le sens ou le cycle se réalise entre 2 isothermes (thermostat). Dans le cas de la machine à vapeur (locomotive), contrairement aux machines fixes, le cycle de l'eau n'est pas fermé.
Notes, que le contrôle du transfert de l'énergie demande une très petite puissance : le régulateur de watt. C'est le volet informationnel de la boucle de régulation de vitesse.
De même écrire que, je cite "L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.", bien que je connaisse pas cette théorie et que j'ai lu (toujours sur la même page wiki : "Physicists and chemists are apt to be more interested in changes in entropy as a system spontaneously evolves away from its initial conditions, in accordance with the second law of thermodynamics, rather than an unchanging probability distribution.) dont je ne peux pas dire si les mots que j'ai mis en gras ne sont pas un argument contre l'idée des flux et des déséquilibre. Par contre,
Par contre quand je lis votre affirmation "L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.", j'en déduis que l'entropie de Clausius ne permettraient pas de traiter les cas de système traversés par des flux ou en déséquilibre et ça, me parait totalement inexact.
Dans une simple dissolution, il y a gradient de concentration et flux de matière et tant que les concentrations ne sont pas strictement égales dans l'ensemble du liquide, le système n'est pas à l'équilibre. De même dans une simple détente d'un gaz, il y a une variation d'entropie, il y a flux et déséquilibre et on a pu calculer la variation d'entropie 100 ans avant la découverte de l'entropie de Shannon (1945 de mémoire).
Bien sur, c’est une simplification de type pédagogique, dans la pratique difficile de trouver à long terme un moteur thermique dans un état vraiment stationnaire.J'ai quand même l'impression que les arguments sont ad-hoc. Oui, la locomotive est une machine thermique crée par l'homme et que l'homme a cherché à optimiser au mieux. Mais baser sur ce fait une discrimination dans les théories qui sous-tendent les phénomènes ne me parait pas une approche fructueuse. Lorsqu'on fait chauffer a chaudière, la température de la source chaude varie, de même l'air extérieur et sa pression peuvent varier. Pour moi parler de thermostats est donc une vue de l'esprit simplificatrice.
La variation d’entropie de Clausuis/ Bolzmann se mesure avant et après la détente, dans deux situations ou on est à l’équilibre.Dans une simple dissolution, il y a gradient de concentration et flux de matière et tant que les concentrations ne sont pas strictement égales dans l'ensemble du liquide, le système n'est pas à l'équilibre. De même dans une simple détente d'un gaz, il y a une variation d'entropie, il y a flux et déséquilibre et on a pu calculer la variation d'entropie 100 ans avant la découverte de l'entropie de Shannon (1945 de mémoire).
L’entropie de shannon permet, suivant certains chercheurs, l’étude du comportement d’une structure pendant le déséquilibre.Par contre quand je lis votre affirmation "L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.", j'en déduis que l'entropie de Clausius ne permettraient pas de traiter les cas de système traversés par des flux ou en déséquilibre et ça, me parait totalement inexact.
Par exemple dans l’article de Dewar: Maximum Entropy Production as an Inference Algorithm that Translates Physical Assumptions into Macroscopic Predictions: Don’t Shoot the Messenger
l’auteur s’appuie sur l’entropie de shannon pour valider ses thèses .
Par exemple l’extrait suivant:
More recently, Niven [25] has proposed a “conditional derivation” of MEP based on maximising the Shannon entropy defined in terms of macroscopic fluxes rather than microscopic trajectories.
Voir:
http://citeseerx.ist.psu.edu/viewdoc...=rep1&type=pdf
L'ornière a une belle puissance attractive.
D'un autre côté, c'est quasiment entièrement le fait d'un seul participant, aidé de ceux qui lui répondent...
J'imagine qu'on ne reviendra plus au sujet, et que ce fil va rejoindre la «discussion générale» sur l'entropie, discussion qui s'est révélée vaine, instance après instance.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Merci d'étayer par des arguments scientifiques vos conclusions pour le moins lapidaires.L'ornière a une belle puissance attractive.
D'un autre côté, c'est quasiment entièrement le fait d'un seul participant, aidé de ceux qui lui répondent...
J'imagine qu'on ne reviendra plus au sujet, et que ce fil va rejoindre la «discussion générale» sur l'entropie, discussion qui s'est révélée vaine, instance après instance.
Peut-être que les références citées vous étaient inconnues. Ce qui n'est pas le cas de la communauté des scientifiques.
La physique appliquée a permis de résoudre de nombreux problèmes.
Indiquez-le alors, on est dans une discussion hors cadre pédagogique. Si vous ne prenez pas de précautions en disant "on pourrait vulgariser ...", on ne peut pas le deviner. Quand bien même, je n'aurais pas été d'accord mais au moins ça aurait été clair.
Ca, ce que vous pensez, mais c'est faux.
Vous pouvez le voir sur la seconde moitié de cette page (titre un peu de thermodynamique) du Lycée Faidherbe de Lille : https://www.faidherbe.org/site/cours/dupuis/joupord.htm .
Vous y verrez toute une approche infinitésimale, preuve qu'on peut suivre tout le processus pas à pas durant les réactions chimiques en particulier ou les transformations en général.
C'est vraiment essentiel. Ne traiter les choses qu'à l'équilibre, c'est dénier à toute la thermo classique la possibilité de traiter du vivant par exemple puisqu'on la dit et redit : l'équilibre, c'est la mort "thermique" du système.
Si vous relisez ce que j'ai écrit vous verrez que je ne critiquais pas l'entropie de Shannon, mais le fait que vous suggériez que c'est la seule qui permet de suivre un système en déséquilibre.
Je terminerai par une remarque très importante. Quand vous n'êtes pas sûr, quand vous exposez un point de vue personnel, de grâce dites-le. Nous ne sommes pas dans un échange privé où vous et moi savons le niveau en physique de notre correspondant mais sur un forum ouvert.
Par respect pour ceux qui vous lisent, qu'ils soient comme moi, ou comme des étudiants par exemple qui viendraient se demander quelle différence il y a entre les diverses entropies et qui tombent sur votre petit résumé et qui pourraient partir de ça comme d'une vérité.
Si vous aviez commencé par "Dans l'état actuel de ma compréhension, je vois l'entropie de Bol ... comme ceci", cela aurait été bien plus honnête.
Honnête parce que vous n'imaginez (peut-être) pas ce que ça implique. Quand vous avez écrit cela, ma première réaction a été de me dire, tiens est-ce que je me trompe jusqu'ici et que je dois changer mon point de vue ? Ensuite, je me suis dit : Non, ce n'est pas logique ! Enfin, pourquoi est-ce que ce n'est pas logique.
Regardez ma manière de m'exprimer au poste #68, je me cite "Dans l'état actuel de mes réflexions (mais qui ne constitue en rien une réponse même provisoire), (...)". C'est quand même clair que ce qui suit est une vision personnelle et sujette à débat, prise de distance, etc.
Dernière modification par Sethy ; 07/11/2018 à 11h56.
Bah, si un seul participant apprend déjà quelque chose de la discussion, elle ne sera pas vaine. Et déjà, il y a un bel os à ronger avec le simple mélange de substances qui n'entraine pas de variation d'énergie mais bien une forte création d'entropie.
Dans une discussion telle que celle-la, il n'est pas anormal qu'on campe sur ses positions, fruit d'une réflexion passée.
Le tout, c'est ce qu'on fait après. Soit on balaye les oppositions d'un revers de la main, soit on se pose des questions et on remet en cause certaines choses.
Plus fondamentalement, sur ce sujet, il y a souvent 2-3 intervenants récurrents. Donc plutôt que d'échanger par bout sur un sujet ou un autre, je ne trouve pas plus mal de vider une fois pour toute (je sais, je suis un peu naïf) un thème.
Ici par exemple, en creusant on se rend compte pourquoi "yvon l" tient tant à imposer l'entropie de Shannon. En fait, c'est parce qu'il pense qu'il n'entre pas dans le cadre des autres théories de traiter le problème considéré. Parvenir à ce point permet en tout cas d'y opposer un argument.
Moi aussi dans certains cas, je suis amené à revoir mon point de vue. Jusqu'ici on a pas parlé de la base de l'idée de Prigogine. C'est celle que j'ai apprise en M1, mais les discussions précédentes m'ont montré que c'était remis en cause, du coup je n'y ai plus fait référence. A ce stade je cherche toujours la synthèse car je pense que Prigogine a raison, mais je ne parviens pas à trouver le bon bout pour démêler l'écheveau.
J'ai tenté plusieurs fois de relancer le débat principal, mais malgré tout je pense qu'on a avancé.
Dernière modification par Sethy ; 07/11/2018 à 12h15.
Re bonjour,
Merci pour le lien. Peux tu préciser l’endroit correpondant à t-on affirmation(..)Vous pouvez le voir sur la seconde moitié de cette page (titre un peu de thermodynamique) du Lycée Faidherbe de Lille : https://www.faidherbe.org/site/cours/dupuis/joupord.htm .(..)
Pour ma par en y lisant ceci:c’est dans ce sens la que je pose mon affirmation.(..) Considérons une transformation spontanée d'un système. Le second principe ne permet d'écrire pour la différentielle de l'entropie qu'une inégalité souvent difficile à exploiter. Mais puisque l'entropie est une fonction d'état, il est possible de calculer ses variations en utilisant au moins formellement une transformation particulière. Dans ce but, la thermodynamique des états d'équilibre (qu'on pourrait qualifier de thermostatique) fait jouer un aux transformations dites réversibles un rôle de premier plan. Ces transformations réalisent une sorte de paradoxe car elles peuvent être effectuées indifféremment dans un sens ou dans l'autre. On peut les considérer comme une suite continue d'états d'équilibre entre le système et son environnement. On comprend qu'elles ne peuvent constituer qu'un*cas limite idéal. Entre deux états quelconques d'une transformation réversible on a : (..)
La, c’est ton interprétation de ce que je dit:
Je te cite (message #79):
(..)Par contre quand je lis votre affirmation "L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.", j'en déduis que l'entropie de Clausius ne permettraient pas de traiter les cas de système traversés par des flux ou en déséquilibre et ça, me parait totalement inexact.(..)Je me cite (message #69)(..)Par respect pour ceux qui vous lisent, qu'ils soient comme moi, ou comme des étudiants par exemple qui viendraient se demander quelle différence il y a entre les diverses entropies et qui tombent sur votre petit résumé et qui pourraient partir de ça comme d'une vérité.
Si vous aviez commencé par "Dans l'état actuel de ma compréhension, je vois l'entropie de Bol ... comme ceci", cela aurait été bien plus honnête.
Honnête parce que vous n'imaginez (peut-être) pas ce que ça implique. Quand vous avez écrit cela, ma première réaction a été de me dire, tiens est-ce que je me trompe jusqu'ici et que je dois changer mon point de vue ? Ensuite, je me suis dit : Non, ce n'est pas logique ! Enfin, pourquoi est-ce que ce n'est pas logique.
Regardez ma manière de m'exprimer au poste #68, je me cite "Dans l'état actuel de mes réflexions (mais qui ne constitue en rien une réponse même provisoire), (...)". C'est quand même clair que ce qui suit est une vision personnelle et sujette à débat, prise de distance, etc.
J’avais donc bien signalé que c’était mon point de vue.L’entropie de Clausius et de Bolzmann concerne les milieux à l’équilibre.
L’entropie de Shanonn permet l’étude des structures traversées par des flux c-a-d en déséquilibre.
L’information associée concerne l’émergence que ses études font apparaître au niveau macroscopique ( trajectoire, bifurcation …)
Voilà mon point de vue.
Mais tu as entièrement raison, je serais plus prudent en signalant plus souvent que c’est une vision personnelle. Cela évitera au moins de t’agacer.
Dernière modification par yvon l ; 07/11/2018 à 13h50.
De mon point de vue l’entropie de shannon avec son aspect informationnel est un tremplin vers des théories de type cybernétique qui font apparaître les boucles de contrôles de l’information dans la structure étudiée et dans ses échanges avec l’environnement. C’est une autre façon de comprendre des problèmes telle que les régimes oscillatoires.(..)Ici par exemple, en creusant on se rend compte pourquoi "yvon l" tient tant à imposer l'entropie de Shannon. En fait, c'est parce qu'il pense qu'il n'entre pas dans le cadre des autres théories de traiter le problème considéré. Parvenir à ce point permet en tout cas d'y opposer un argument.(..)
Parce qu'il y a partout des "petits" d, des différentielles donc et pas des Delta, qui eux sont des résultats intégrés. On peut donc suivre pas à pas l'évolution de la réaction, de l'entropie crée, etc. J'ai choisi 2 équations qui me paraissaient les plus représentatives pour la suite. Il y a peut être plus rigoureux pour montrer ce que j'avance. Mais à tout le moins la première permet une confirmation par l'absurde. Pourrait-on l'écrire si seuls les états en équilibre étaient dans la portée de la théorie ? Oui, mais alors elle ne servirait à rien puisqu'elle égalerait 0, et comme A est différent de 0, v devrait être égal à 0 et donc cela traiterait du cas où il n'y a pas de réaction chimique et donc elle serait inutile.
Ce qui permet d'exprimer la production d'entropie, notamment par cette relation : diS/dt = (A/T).v
Qui à son tour par la suite permet d'arriver à la conclusion que (¶G/¶x)T, P < 0 () encore qu'ici, je ne l'aurais pas écrit comme ça, mais ce n'est pas l'important ici. C'est cette relation qui permet de prévoir le chemin suivi du système vers l'équilibre et donc de traiter du déséquilibre.
Ici évidemment, je le précise pour éviter les discussions, il s'agit du cas d'une réaction chimique en vase clos, ce qui va forcément à un moment donné, conduire à l'équilibre quand tous les réactifs sont consommés. Mais selon moi, on n'est pas empêché par une limite forte de la théorie, de suivre ce qui se passe entre l'état initial et l'état final. Par limite forte, j'entends par exemple un principe comme celui de l'incertitude de Heisenberg, ou celui de l'indiscernabilité totale des particules, deux limites qui sont issues de la théorie elle-même.
Ensuite, on le voit bien, ce n'est pas parce que les phénomènes en déséquilibre sont vus comme une suite infinie d'états en équilibre, que ça empêche de suivre l'évolution du système puisqu'on peut suivre le processus chimique pas à pas, instant dt après instant dt.
Je fais (peut-être à tort), le parallèle avec les intégrales pour lesquelles on somme une infinité de petits rectangles qui sont tous des approximations de la fonction au voisinage d'un point, mais qui une fois intégrée donne la réponse exacte.
Je le répète, je ne la connais pas.De mon point de vue l’entropie de shannon avec son aspect informationnel est un tremplin vers des théories de type cybernétique qui font apparaître les boucles de contrôles de l’information dans la structure étudiée et dans ses échanges avec l’environnement. C’est une autre façon de comprendre des problèmes telle que les régimes oscillatoires.
Mais tout ce que je lis à son propos sur les forums, c'est toujours des affirmations et jamais un élément concret. Ici, il est question de la vie. Ok rétroaction, je veux bien (d'ailleurs dans la page du Lycée Faidherbe, la réaction chimique considérée présente une rétroaction) mais concrètement qu'est-ce la théorie de Shannon apporte ? OK, vous pouvez faire une énième reformulation de la même idée (en y incluant les mots : boucle, information, rétroaction et permet, apporte, indique, offre, suggère, ...), mais moi, ça ne m'apprend rien.
Soit on me montre que la thermodynamique classique est fausse, soit on part de la et on montre un résultat intéressant.
Toujours R Dewar
Dans se papier sans formule mathématique /
Maximum Entropy Production and Non-equilibrium Statistical Mechanics
https://pdfs.semanticscholar.org/ec8...05075d8f25.pdf
Le chapitre 4.7 s’intitule: Thermodynamics of Life
C'est un peu la preuve, non ? 15 pages sans une seule formule ?