D'où provient cette assertion ?
Si je prends une résistance chauffante, elle dissipe (enfin transforme de l'énergie électrique en énergie calorifique) beaucoup, mais je ne vois pas où se situe l'information dans ce contexte.
Dans ce contexte que vous évoquez l'information est l'élévation de température, mais aussi les mouvements de convection liés au déplacement ordonné des molécules d'air chauffées...
Cordialement
ouais ! admettons pour le principe ( encore que ) mais alors ou est le rapport avec les propos d'Ivon qui distingue (l'auteur qu'il cite ) un fonctionnement thermodynamique structurellement différent dans le cadre du monde du "vivant".?
Bonjour,
- Je ne vois pas trop la différence entre ce que l'auteur appel l'ordre par le froid, et l'ordre par le chaud. Dans les 2 cas, l'ordre local s'obtient toujours au prix d'une augmentation de l'entropie à la périphérie du système considéré.Le paradoxe thermodynamique s'exprime comme suit : lorsque l'on a affaire à un système mécanique, l'ordre croît (le liquide cristallise) et, donc, l'entropie décroît, en ôtant de l'énergie au système et, donc, en baissant sa température. L'ordre cristallin, en ce sens, est bien une solution inventée par la Nature pour dissiper mieux et plus vite les calories que le milieu tend à lui pomper. Mais dans les systèmes organiques, c'est exactement l'inverse qui se passe : il faut apporter de l'énergie au système pour que les organisations complexes d'ordre biologique, puissent se mettre en place et se maintenir. Si l'entropie représente bien le degré de désordre du système, il faut alors convenir que, pour les systèmes organiques, l'entropie décroît avec l'apport d'énergie. Là est le paradoxe. On pourrait parler, en quelque sorte, d'un ordre par le froid (celui de la cristallisation mécanique) et d'un ordre par le chaud (celui de l'autopoïèse organique). De deux choses l'une, ou bien le second principe de la thermodynamique ne s'applique qu'aux systèmes mécaniques et doit être largement généralisé pour convenir également aux systèmes organiques, ou bien l'interprétation classique de l'entropie comme mesure du désordre est fausse. Ces deux issues n'en sont en fait qu'une seule car elles s'impliquent l'une l'autre.
Donc le second principe est toujours respecté.
Dans un système organique l'entropie ne décroît pas avec un "apport" d'énergie. Le terme est mal choisi. Ce n'est pas un "apport" d'énergie, mais un flux d'énergie que la structure dissipe et qui en même maintient cette structure.(Autopoîèse).
La différence fondamentale entre un cyclone et un organisme vivant ayant bien été décrit par Shrödinger dans son livre "What is Life":
--> Système mécanique : Order from Noïse
--> Système organique : Order from Order (Information génétique)
Cordialement,
Dernière modification par sunyata ; 22/06/2018 à 18h35.
cela me semble très tiré par les cheveux !
qu'est ce qui prouve que l'info "génétique" est plus dissipative…. c'est un point que je n'ai pas compris.
Je reviens sur ce point qui à mon avis est un contresens où l'auteur se focalise sur la notion de température. Ce n'est pas la température qui importe, mais le flux d'énergie.un ordre par le froid (celui de la cristallisation mécanique) et d'un ordre par le chaud
Par ailleurs, on notera que la température ne suffit pas pour que l'eau passe à l'état solide par exemple, puisque l'eau peut exister en état de surfusion, c'est à dire à l'état liquide ne dessous de zéro degré.
Il faut une impulsion initiale pour que l'eau change d'état.
De même : La cristallisation du charbon sous forme de diamant, se fait par apport d'énergie, à une pression élevée.
Il faut là aussi un "germe" pour que le diamant se développe. La notion d'auto-organisation est présente dans ce type de réaction.
Cordialement
Je partage un peu cette interrogation et cela concerne d'ailleurs plusieurs interventions.
J'en profite pour essayer de recadrer la discussion :
- A priori, cela doit avoir un lien avec Prigogine.
- Si un autre auteur est remis en cause, montrer en quoi il y a un lien entre ce que Prigogine évoquait et cet auteur.
- De manière plus générale, étayez vos propos par un nom d'auteur, une théorie, un lien.
Si vous présentez une vision "personnelle", stipulez-le clairement tout en vous rappelant que c'est hors-charte.
je pourrais ajouter la diff entre la diff entre la diff entre les animaux à sang 'froids" et d'autres à sans "chaud".
faut il en faire une différence ? en déduire une spécificité du "vivant" au niveau purement thermodynamique ?
J'ai l'impression (mais si je me trompe, je m'en excuse) qu'il y a un mélange entre entropie de Shannon et entropie.
Je ne connais pas bien la théorie de Shannon, mais ce paragraphe de Wiki me convainc que tout lien avec le sujet de ce fil sera très difficile à établir :
"At an everyday practical level the links between information entropy and thermodynamic entropy are not evident. Physicists and chemists are apt to be more interested in changes in entropy as a system spontaneously evolves away from its initial conditions, in accordance with the second law of thermodynamics, rather than an unchanging probability distribution. And, as the minuteness of Boltzmann's constant kB indicates, the changes in S / kB for even tiny amounts of substances in chemical and physical processes represent amounts of entropy that are extremely large compared to anything in data compression or signal processing. (...)"
Donc, en gros, il est très difficile d'appliquer la théorie de Shannon aux expériences de la physique et de la chimie du labo (typiquement ce qui est discuté ici) en raison des énormes ordres de grandeurs qui séparent ces deux domaines.
Par expérience dès qu'une discussion mélange entropie thermodynamique et information, le risque de partir en bla-bla est grand (et le sujet attire les amateurs de bla-bla).
Pour toute question, il y a une réponse simple, évidente, et fausse.
Oups, j'ai oublié la source : https://en.wikipedia.org/wiki/Entrop...mation_theory)
alors oui, on ne parle pas de la même chose.
Dans l’article suivant de Roger Balian*:
https://www.ipht.fr/Docspht/articles...blic/publi.pdf
Si vous allez au dernier paragraphe vous pourrez lire qu’entropie et information apparaissent comme les deux faces d’une même entité.
Je crois qu'il y a "maldonne".Dans l’article suivant de Roger Balian*:
https://www.ipht.fr/Docspht/articles...blic/publi.pdf
Si vous allez au dernier paragraphe vous pourrez lire qu’entropie et information apparaissent comme les deux faces d’une même entité.
Je ne dis pas que l'entropie de Shannon est fausse ou inutile, mais que selon la source que j'ai citée, elle s'applique à de tout autres ordres de grandeurs.
Une analogie, celle de la relativité générale qui traite des trous noirs par exemple. Logiquement, entre un noyau (particule massique) et un électron (particule également massique), il faudrait également tenir compte de cette "force" (ou de la déformation de l'espace-temps produite par ces deux corps, qui plus est en mouvement et chargés). Mais elle est 10^40 (de mémoire) plus faible que la force d'attraction électrostatique et donc on la néglige.
Je ne dis pas que l'entropie de l'information ne peut pas être utilisée, mais alors il faut partir de ce qu'a dit Prigogine et montrer en quoi, cette théorie influence l'approche de Prigogine. Dire qu'entropie et information sont liés, c'est bien mais pas suffisant.
Dans le cadre de cette discussion, il faut montrer en quoi cela renforce, déforce ou contredit la théorie de Prigogine et en particulier l'un des éléments suivant que j'ai indiqué dans le message qui a initié cette discussion : entropie interne et externe, critère de production d'entropie, relation de réciprocité d'Onsager, minimum de production d'entropie et résorption des petites fluctuations lorsque le système est proche de l'équilibre, bifurcation possible du système lorsque celui-ci est maintenu loin de l'équilibre, Bruxellateur et réactions chimiques oscillantes, relation prédateur/proie, évolution du système dans l'espace des phases, attracteurs étranges.
Jusqu'à ce moment la, pour moi, j'en reste à ce que j'ai lu dans le wiki.
En droite ligne, à partir des travaux de Prigogine en chimie non linéaire:
http://www.ulb.ac.be/sciences/nlpc/pdf/09.nicolis.pdf
Bonjour,Dans le cadre de cette discussion, il faut montrer en quoi cela renforce, déforce ou contredit la théorie de Prigogine et en particulier l'un des éléments suivant que j'ai indiqué dans le message qui a initié cette discussion : entropie interne et externe, critère de production d'entropie, relation de réciprocité d'Onsager, minimum de production d'entropie et résorption des petites fluctuations lorsque le système est proche de l'équilibre, bifurcation possible du système lorsque celui-ci est maintenu loin de l'équilibre, Bruxellateur et réactions chimiques oscillantes, relation prédateur/proie, évolution du système dans l'espace des phases, attracteurs étranges.
Pour ce que j’en ai lu, Prigogine (et son école) n’ pas une approche informationnelle pour expliquer le comportement des structures dissipatives et l’auto-organisation qui en découle. Il utilise les méthodes classiques: équations différentielles dans un cadre non linéaire, statistique, espace des phases et ses attracteurs étranges (pour moi «sortir» de l’information d’une dynamique complexe), recherche d’extremums dans l’entropie que ces systèmes dynamique génère (pour se maintenir par exemple)..
D’autres auteurs introduisent le concept d’informations pour enrichir ces modèles. Ils font alors une étroite relation entre information et entropie. Cette approche, loin d’être évidente demande presque un saut conceptuel.
Pour moi, si je prends une casquette d’ingénieur automaticien, l’approche informationnelle vue à partir des méthodes qui sont les leur permet une compréhension plus fine (et plus intuitive)
Ces derniers, pour solutionner les problèmes complexes de régulations ont développé des méthodes particulièrement efficaces. Par exemple des méthodes pour linéariser le comportement du système non linéaire, voire chaotique. Ouverture des boucles informationnelles qui régit le comportement du système pour en analyser l’enchaînement des comportements individuels des éléments qui se trouve dans la boucle. Distinguer la chaîne énergétique (flux) qui s’établit entre source et puits de la boucle informationnelle qui la contrôle. Modélisation des systèmes complexes en les décomposant en sous-systèmes imbriqués (poupées russes) (passer progressivement de l’échelle microscopique à l’échelle macroscopique)...
N'y a t il pas une grosse confusion entre une analogie conceptuelle et une interprétation physique de cette analogie ?
que c'est le "concept" d'entropie qui a été utilisé dans le cadre de la théorie de l'information.
cette dernière ne prétend pas refléter ( ou être un modèle se substituant à l'entropie thermodynamique )
il existe aussi d'autres analogie comme l"l'entropie topologique" ou "l'entropie métrique"
Pour ma part, dans mon intervention #47, je ne me suis pas appesanti sur le concept d’entropie dans le cadre de la théorie de l’information. Seulement une phrase où je signale que «*d’autres auteurs… information … entropie...*». Donc sans prendre position ici.
Par contre R Balian est plus affirmatif ici (déjà cité):
https://www.ipht.fr/Docspht/articles...blic/publi.pdf
je te demande un service.
celui de dire en quoi il est plus affirmatif et sur quel point en particulier.(*)
( au moins citer un passage )
depuis plusieurs fils, je ne vois pas où tu veux en venir.
(*) difficile de lire ce lourd PDF sans savoir quelle type d' info y chercher !
Malheureusement, impossible de copier une citation dans: https://www.ipht.fr/Docspht/articles...blic/publi.pdf.
Si tu es pressé tu peux commencer à la page 25 (démon de Maxwell), ou même à la page 27.
Rien à dire, mais en quoi cela est il contradictoire avec les travaux de Prigogine sur les structures dissipatives.
C'est ce point que je ne comprend pas dans ce fil.
Car cela semble un discours qui sous-tend qcq interventions ici.
j'ajoute une correction , la théorie de l'information ou plus généralement la physique statistique a eu bien sur un apport important dans les travaux sur la thermodynamique ( qui ne s'est pas arrêtée à Prigogine ) .
En fait je crois que la réponse à ma question est très bien résumée dans le post#6 de ThM55 !
Un mélange entre les travaux du physicien et certaines considération plus philosophiques.
Il y a un élément, qui je trouve, transparait des diverses interventions de Prigogine, c'est son ouverture pour les autres branches de la physique. Outre la physique statistique et la thermodynamique, il évoque très souvent la mécanique quantique et parfois également (comme dans la dernière vidéo) la cosmologie (tout en précisant qu'il ne s'y connait pas bien).
Fort de cela, j'ai recherché quelques dates clés.
Prigogine a obtenu ses deux diplômes (de Physique et de Chimie) en 1939 et son doctorat avec thèse en 1941. Il a également défendu une thèse d'agrégation (qui est le plus haut diplôme dans une discipline en Belgique et dont on dit qu'elle équivaut "en gros" à 3 doctorats) en 1945.
S'il a vraisemblablement réalisé son travail de fin d'étude sur "Contribution à l'étude spectroscopique dans l'infra-rouge proche de la liaison d'hydrogène et la structure des solutions. (Académie Royale de Belgique, Classe des sciences, Mémoires 20, 1943."
Sa thèse de doctorat portait sur "I. Prigogine, Étude Thermodynamique des Phénomènes Irréversibles, Ph.D.Thesis, presented in 1945 (published by Dunod, 1947)."
Source : users.auth.gr/~iantonio/MEMBERSIPCV.doc
Parallèlement, Shannon a élaboré sa théorie en 1948 au sein des laboratoires Bell. C'est John Von Neumann qui fera le lien entre les travaux de Shannon et le concept d'entropie et en 1957, Edwin Thompson James montrera qu'entropie macroscopique, microscopique et entropie de Shannon sont liés.
Source : https://fr.wikipedia.org/wiki/Entropie_de_Shannon
Donc, les questions que je me pose sont les suivantes :
1) A partir du moment où on accepte l'idée que Prigogine ne restait pas cantonné à son domaine, que déjà en 1945 il s'intéressait à la thermodynamique de non équilibre en général et à l'entropie en particulier, y a-t-il la moindre chance qu'il n'ait pas connu les travaux de Shannon dès lors que ceux-ci furent unifié à l'entropie "classique" ?
2) Si on postule donc qu'il connaissait cette théorie, la question suivante me parait assez évidente : où sont les écrits de Prigogine sur le lien entre sa démarche et celle de Shannon, sachant qu'il a eu 45 ans pour les établir (1957-2003) ?
3) A titre subsidiaire, je me demande également si le fait que dans aucun article / interview de Prigogine posté depuis le début de cette discussion, aucune référence n'y a fait (j'y inclus tout ce que j'ai lu de Prigogine), on ne peut pas inférer qu'à tout le moins cet angle d'attaque du problème n'est pas très fécond du point de vue de Prigogine ?
Difficile de répondre ( d'autant qu'il n'est plus là pour en parler lui-même )
connaissant sa curiosité intellectuelle, on peut fortement douter qu'il ait ignoré Shannon et ses travaux, et même qu'il s'en soit désintéressé.
ce qui est sur, c'est qu'il n'a ( à ma connaissance ) rien publié s'opposant à ces travaux.
Ce qui est un signe.
peut être qu'il les considérait simplement complémentaires au sien, lui même poussant son travail sur les phénomènes irréversibles et les structures dissipatives. ???
j'ai l'impression qu'on cherche à tout pris une opposition ou une contradiction , histoire de ….."causer".
Je le pense également.
Oui et non. Plusieurs intervenants font une référence explicite (ou implicite) à l'entropie de l'information dans la discussion. Jusqu'ici, aucun ne m'a convaincu du lien entre cette approche et la question initiale que j'ai posée.
Parmi les différentes hypothèses suggérées (mais il est vrai, jamais de manière très claire) par ces intervenants, j'ai lu (ou cru lire) deux arguments :
- une question d'antériorité (la théorie de Shannon serait plus récente)
- une méconnaissance supposée.
Et c'est justement ces deux approches que je soumets à la question afin de confirmer ou d'infirmer ma position actuelle sur cette approche.
Dans MODERN THERMODYNAMICS de Kondepudi, on ne trouve pas de références au mot «information», alors qu’une recherche sur «Prigogine» renvoie sur 60 occurrences.
Idem dans http://www.critiqueslibres.com/i.php/vcrit/45433 et dans http://www.ulb.ac.be/sciences/nlpc/pdf/09.nicolis.pdf aucun renvoi sur «information»