Entropie et information: même concept ? - Page 2
Répondre à la discussion
Page 2 sur 5 PremièrePremière 2 DernièreDernière
Affichage des résultats 31 à 60 sur 122

Entropie et information: même concept ?



  1. #31
    sunyata

    Re : Entropie et information: même concept ?


    ------

    Citation Envoyé par yvon l Voir le message
    L’énergie est quelque chose qui s’appréhende lorsqu’elle se manifeste par ce qu’on appelle des transferts entre systèmes
    Je souligne en gras le mot important de la définition . On n'a pu appréhender le concept d'énergie U à travers ses différences manifestations
    Par exemple en thermo delta U = Q+W se comprend ainsi. On connaît la variation d'énergie (interne) d'un système grâce à 2 transferts c'est un l'un mécanique (structuré) et un thermique déstructuré Il est impossible de connaitre U, mais seule sa variation à travers la mesure de tous les transferts que le système subit
    Si Q=0 et W=0 , U est constant, mais pas connu pour autant.
    L'énergie s'appréhende aussi dans son état potentiel : Lorsqu'on écrit E=MC² c'est fort heureusement une énergie potentielle dont on a conscience et qui ne se manifeste pas fort heureusement, il a fallu toute l'intelligence des chercheurs de l'atome pour en découvrir l'existence.L'entropie est une fonction d'état. Un état en lui-même constitue une information. Un bit d'information.
    Une pression dans un réservoir est une information sans transferts entre systèmes. C'est la valeur de la pression qui constitue un bit d'information, elle est la même partout. C'est une symétrie.

    Cela rejoint les notions de "champs" et de propriété "Émergente"

    c'est un l'un mécanique (structuré) et un thermique déstructuré
    Mécanisme destructuré : "Order frome Noise" ou information de nature statistique ( champ de pression ou de température)
    Mécanisme structuré : "Order from order" (Shrödinger : livre : "What is Life") ou information de type déterministe


    Pour moi, dans un cadre général, l'information est un truc (un mécanisme) protéiforme par lequel l'observateur et l'observé (locuteur- écouteur ), entrent en relation. Par exemple:
    A l'échelle cellulaire: comment une cellule entre en relation avec une autre cellule. A notre notre échelle: comment le moteur à vapeur va maintenir sa vitesse à l'aide du (grâce à sa relation avec le)
    régulateur de watt ( système bouclé )
    Effectivement il me semble que là tu touches du doigts un aspect important de ce qu'est une information :

    Une information permet d'établir un lien entre un système émetteur et un système récepteur (communication).
    Ce que Ilya Prigogine identifie comme corrélations longues distances (dans le domaine de la thermodynamiques des systèmes dissipatifs).
    Une information est information parce-qu'elle est capable de franchir la distance qui sépare sont point d'émission à son point de réception.Une pression est une information parcequ'elle est la même partout (symétrie). Toute les lieux de l'espace concerné, ont la même pression.
    Pareil pour le paramètre température. L'information est liée à des symétries. A ce titre les lois de la nature sont des informations, en tant que symétries. Elles se manifestent partout de la même manière.

    Une autre manière de transporter l'information est la réplication de l'information qui prend beaucoup d'importance dans le champ de la biologie.

    Dés qu'il y a des symétries, il a des redondances donc des possibilités de réduction/compressibilité de l'information (Kolmogorov), car la redondance si elle permet la transmission/communication n'apporte rien de nouveau.
    Du coup un autre aspect de l'information est sa valeur, qui peut être majorée du fait de sa non compressibilité (rareté).
    Une information improbable apporte beaucoup d'information au récepteur, de même que la non-redondance statistique.
    L'entreprise scientifique est comparable à une processus de réduction de l'information redondante de la nature. (On cherche les lois sous-jacentes, l'organisation)

    -----
    Dernière modification par sunyata ; 27/11/2018 à 04h34.

  2. #32
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    Une information permet d'établir un lien entre un système émetteur et un système récepteur (communication).
    Dans le cadre de la théorie de l'information formulé par Shannon ce qui permet d'établir un lien entre émetteur et récepteur c'est le canal de communication. Le concept d'information dans ce cadre est défini lui de manière non rhétorique et non ambigu I(X) ... formulation donnée mainte fois.

    Maintenant en dehors de tous cadre vous pouvez aller de vos délires et théories personnelles comme le fait remarqué Jean-Paul Delahaye :Nous n'évoquerons pas certains délires purement littéraires (quoi que pensent ceux qui les commettent) où le nombre d'apparitions du mot 'information' est inversement proportionnel à la rigueur adoptée pour manipuler le concept.

    Cordialement

  3. #33
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Dans le cadre de la théorie de l'information formulé par Shannon ce qui permet d'établir un lien entre émetteur et récepteur c'est le canal de communication. Le concept d'information dans ce cadre est défini lui de manière non rhétorique et non ambigu I(X) ... formulation donnée mainte fois.

    Maintenant en dehors de tous cadre vous pouvez aller de vos délires et théories personnelles comme le fait remarqué Jean-Paul Delahaye :Nous n'évoquerons pas certains délires purement littéraires (quoi que pensent ceux qui les commettent) où le nombre d'apparitions du mot 'information' est inversement proportionnel à la rigueur adoptée pour manipuler le concept.

    Cordialement
    Bonjour,
    Réponse typique (et pas très courtoise) du physicien lambda. Si tu t’intéresses aux sciences appliquées, tu verrais que le canal par lequel l'information transite est bien concret. En premier le champion toute catégorie la vie: Une cellule informe une autre cellule par un canal matérialisé par des liaisons non covalentes de molécules périphériques. A notre échelle, nous sommes en relation constantes par les canaux sensoriels à notre environnement. Si tu veux d'autres exemples aboutissant à de la mécanique appliquée, voir le lien ci-dessous.
    Par contre la définition proposée, comme tout concept abstrait protéiforme reste général. C'est pour cela que je l'ai mis en parallèle avec le concept d'énergie .
    Mais cela n'enlève rien au cadre conceptuel de la physique*: voir ton intervention constructive #30
    Images attachées Images attachées

  4. #34
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Réponse typique (et pas très courtoise) du physicien lambda. Si tu t’intéresses aux sciences appliquées, tu verrais que le canal par lequel l'information transite est bien concret.
    Cette réponse m'aide en tout les cas. Elle m'aide à voir ce qui est vrai (généralement admis par la communauté scientifique) et ce qui relève de la théorie personnelle.

    Et plus important, elle aide aussi d'autres lecteurs à faire le tri. Car dans ce dialogue de sourds, à ce stade, il faut surtout penser aux muets d'aujourd'hui et à ceux de demain qui liront cette discussion.

    Pour l'agacement, je peux aussi le comprendre. Paradigm est probablement l'un des seuls intervenants qui s'y connait en théorie de Shannon. Il a déjà maintes fois indiqué les erreurs, les omissions, les raccourcis à plusieurs intervenants mais alors que logiquement ces intervenants auraient du tenir compte des objections, ils continuent inlassablement à refaire les mêmes erreurs.

    Evidemment, face à cet entêtement qui risque à la longue d'induire d'autres personnes dans l'erreur, je pense qu'il est heureux qu'il y ait une veille.

    Enfin, que connaissez-vous de ses activités ? Ce n'est pas parce qu'on relève des incohérences théoriques qu'on a forcement un parcours théorique. Suggérer qu'il ne s'intéresse pas / s'y connait pas en sciences appliquées est une attaque gratuite.

  5. #35
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Cette réponse m'aide en tout les cas. Elle m'aide à voir ce qui est vrai (généralement admis par la communauté scientifique) et ce qui relève de la théorie personnelle.

    Et plus important, elle aide aussi d'autres lecteurs à faire le tri. Car dans ce dialogue de sourds, à ce stade, il faut surtout penser aux muets d'aujourd'hui et à ceux de demain qui liront cette discussion.

    Pour l'agacement, je peux aussi le comprendre. Paradigm est probablement l'un des seuls intervenants qui s'y connait en théorie de Shannon. Il a déjà maintes fois indiqué les erreurs, les omissions, les raccourcis à plusieurs intervenants mais alors que logiquement ces intervenants auraient du tenir compte des objections, ils continuent inlassablement à refaire les mêmes erreurs.
    (..)
    Bon, afin que tu puisses affiner ton jugement et mieux percevoir la réalité, je me dois de te signaler qu’en tant qu’ingénieur en électronique (1966), j’ai assuré un cours pendant de nombreuses années intitulé Théorie des systèmes logiques. Comme il était enseigné dans un cadre de sciences appliquées assez général (automatisation), je peux ajouter que la théorie de Shannon n’était qu’une entrée en matière pour expliquer bien d’autres problèmes que je ne détaillerai pas ici.
    Citation Envoyé par Sethy Voir le message
    (..)
    Suggérer qu'il ne s'intéresse pas / s'y connait pas en sciences appliquées est une attaque gratuite.
    Une simple remarque pour éviter de parler de délire, quand un intervenant non physicien présente son point de vue. Par contre pour être complet j’ai souligné l’intervention (de qualité ) #30

  6. #36
    sunyata

    Re : Entropie et information: même concept ?

    Cette réponse m'aide en tout les cas. Elle m'aide à voir ce qui est vrai (généralement admis par la communauté scientifique) et ce qui relève de la théorie personnelle.

    Et plus important, elle aide aussi d'autres lecteurs à faire le tri. Car dans ce dialogue de sourds, à ce stade, il faut surtout penser aux muets d'aujourd'hui et à ceux de demain qui liront cette discussion.

    Pour l'agacement, je peux aussi le comprendre. Paradigm est probablement l'un des seuls intervenants qui s'y connait en théorie de Shannon. Il a déjà maintes fois indiqué les erreurs, les omissions, les raccourcis à plusieurs intervenants mais alors que logiquement ces intervenants auraient du tenir compte des objections, ils continuent inlassablement à refaire les mêmes erreurs.
    Toute tentative de généralisation ne peut que déplaire à un spécialiste. Cette problématique revient constamment dans les fils de discussion, et se termine
    généralement en railleries de la part du spécialiste, sûr de son fait, et qui se positionne comme garant de l'orthodoxie.

    Les forums de Futura, c'est essentiellement ça. Une lutte permanente entre les spécialistes parfois arrogants (et fiers de leur connaissances chèrement acquises), et les généralistes parfois emportés par leurs intuitions (nourries au lait de la vulgarisation), avec au milieu des modérateurs plus ou moins tolérants pour compter les points. (Aprés tout Futura n'est-il pas un site de vulgarisation ?)

    La lutte du spécialiste qui voit des différences contre le généraliste qui voit des similitudes.

    Voilà la différence de potentiels énergétiques (1-0) génératrice d'Information, entre le spécialiste et le généraliste, qui génère des flux d'entropie (1-> 0), qui parfois tendent à s'auto-organiser ( 1-0)<->(1-0), pour produire du nouveau (1+1) à moins que la transition abrupte du modérateur ne mettent un terme à la discussion.(1-1=0)

    Cordialement
    Dernière modification par sunyata ; 28/11/2018 à 09h56.

  7. #37
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    Toute tentative de généralisation ne peut que déplaire à un spécialiste. Cette problématique revient constamment dans les fils de discussion, et se termine
    généralement en railleries de la part du spécialiste, sûr de son fait, et qui se positionne comme garant de l'orthodoxie.

    Les forums de Futura, c'est essentiellement ça. Une lutte permanente entre les spécialistes parfois arrogants (et fiers de leur connaissances chèrement acquises), et les généralistes parfois emportés par leurs intuitions (nourries au lait de la vulgarisation), avec au milieu des modérateurs plus ou moins tolérants pour compter les points. (Aprés tout Futura n'est-il pas un site de vulgarisation ?)

    La lutte du spécialiste qui voit des différences contre le généraliste qui voit des similitudes.
    Cordialement
    A nouveau, il y a un grand absent, c'est le lecteur. Celui qui vient simplement pour chercher une information.

    Quelle place a-t-il ? Que vaut-il mieux qu'il lise ?

    Le "spécialiste" qui lit quelque chose de faux, doit-il se taire ?

    Ou ne lui laissez-vous que le choix entre deux mauvaises options : se taire - ou - se faire critiquer pour son manque d'ouverture face aux intuitions qu'il sait fausse ?

    Et dans cette discussion, je suis d'autant plus à l'aise, qu'ici le lecteur, c'est moi.

  8. #38
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    A nouveau, il y a un grand absent, c'est le lecteur. Celui qui vient simplement pour chercher une information.
    Un lecteur sérieux va chercher de l'information sur un site universitaire.
    Une info sur un forum ne vaut que ce qu'elle vaut.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  9. #39
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Un lecteur sérieux va chercher de l'information sur un site universitaire.
    Une info sur un forum ne vaut que ce qu'elle vaut.
    Alors futura est inutile.

  10. #40
    stefjm

    Re : Entropie et information: même concept ?

    Oui.
    Futura ne sert pas à publier.
    Futura ne sert pas à remplacer l'université.

    Ce n'est pas un problème.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  11. #41
    yvon l

    Re : Entropie et information: même concept ?

    Pour recentrer le débat, et peut-être en guise de conclusion.

    1) Une définition générale qui pourrait convenir aux adeptes des sciences appliquées:
    l’information est quelque chose qui apparaît entre 2 systèmes, et qui permet à l’un de connaître (de renseigner) l’état de l’autre.
    2) En physique théorique un concept difficile à définir: conservation ou non, lien avec l’entropie (pour le moins troublant)…
    3) En physique appliquée, le lien entropie-information est utilisé pour développer des modèles explicatifs (maximalisation de l’entropie)et prédictifs (exemple en météo)(voir par exemple R Dewar).

  12. #42
    Paradigm

    Re : Entropie et information: même concept ?

    Bonsoir,

    4) Dans le cadre de la théorie d'information formulée par Shannon le concept d'information I(X), et sa "valeur moyenne" H(X) ne concerne que la source. Référence à l'appuie


    Citation Envoyé par 6. CHOICE, UNCERTAINTY AND ENTROPY
    « Pouvons-nous définir une quantité qui mesurera en un sens combien d’information est produit par une source d’information discrète ou mieux à quel rythme l’information est produite ? Supposons que nous ayons un ensemble d’événements dont les probabilités d’occurrence sont p1, p2, …, pn. Ces probabilités sont connues, mais c’est tout ce que nous savons […] Pouvons-nous trouver une mesure de la quantité de choix impliqué dans la sélection de l’événement ou du degré d’incertitude quant au résultat ?
    […] Théorème 2 : le seul H satisfaisant les trois postulats précédents est de la forme : H = K ∑ pi log pi où K est une constante positive. »

    Formule qui donne la mesure de l’information pour le cas discret, dès lors que l’on connaît les probabilités d’apparition des symboles composant le message.
    Cordialement,
    Dernière modification par Paradigm ; 29/11/2018 à 18h11.

  13. #43
    Paradigm

    Re : Entropie et information: même concept ?

    Le récepteur Y n’apparaît que dans les notions d'information mutuelle, Information mutuelle moyenne, L'entropie conditionnelle ...

    Cordialement

  14. #44
    stefjm

    Re : Entropie et information: même concept ?

    et quand les systèmes sont bouclés : à la fois récepteur et émetteur?
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  15. #45
    sunyata

    Néguentropie et information : même concept

    Citation Envoyé par yvon l Voir le message
    Pour recentrer le débat, et peut-être en guise de conclusion.

    1) Une définition générale qui pourrait convenir aux adeptes des sciences appliquées:
    l’information est quelque chose qui apparaît entre 2 systèmes, et qui permet à l’un de connaître (de renseigner) l’état de l’autre.
    2) En physique théorique un concept difficile à définir: conservation ou non, lien avec l’entropie (pour le moins troublant)…
    3) En physique appliquée, le lien entropie-information est utilisé pour développer des modèles explicatifs (maximalisation de l’entropie)et prédictifs (exemple en météo)(voir par exemple R Dewar).
    Bonsoir,

    Pour ce qui est du lien entre Entropie et Information,
    La similitude des concepts si elle existe, s'exprime plutôt entre la "négentropie", et l'information. (Schrödinger : What is life)

    L'entropie est énoncée, dans le second principe de la thermodynamique de Rudolf Clausius, comme spontanément croissante en système isolé. Sous cette condition, la notion de néguentropie est donc nécessairement limitée dans le temps ou l'espace ou ne peut s'appliquer qu'à un système ouvert.
    D'origine thermodynamique, la néguentropie est donc utilisée en systémique comme synonyme de la force de cohésion. Norbert Wiener la décrit ici socialement comme une traduction physique de l'information.
    On parle dans l'étude de système dynamique de dysentropie. Dans un tel système, une néguentropie partielle mène à un état d'auto-organisation de niveau supérieur par un phénomène de percolation.
    Bernard Stiegler4 et5 Michel Serres6, qui défendent la néguentropie, se réfèrent au livre de Sadi Carnot.
    Ce qui est dit ensuite dans le même article fait le lien avec le 3) de Yvon

    3) En physique appliquée, le lien entropie-information est utilisé pour développer des modèles explicatifs (maximalisation de l’entropie)et prédictifs (exemple en météo)(voir par exemple R Dewar).
    Interprétation en termes d'énergieEn prenant l'exemple d'une cellule, on peut voir la vie comme une forme de néguentropie. Elle tend à conserver sa néguentropie, c’est-à-dire une organisation, une structure, une forme, un fonctionnement, et cela grâce à la consommation d'énergie, venant de l'extérieur de la cellule. Une cellule morte n'entretient plus cette néguentropie, donc elle se désagrège.
    Interprétation en terme d'informationCe qui rend possible le maintien d'une structure « ordonnée » (capable de s'adapter en permanence à un environnement changeant) : ce sont les voies de communication sélectives entre le corps de la cellule et son environnement. Les membranes des cellules sont poreuses, mais seulement de façon sélective ; si une cellule perd cette capacité de sélection dans ses échanges avec son environnement, elle meurt rapidement, notamment sous l'effet de toxines dont elle ne peut plus se protéger.
    À une échelle beaucoup plus large, la planète Terre n'est pas un système isolé : elle reçoit de l'énergie, essentiellement solaire, réémet une partie vers l'univers, et, au passage, une partie est captée par les formes de vie sur Terre, contribuant à donner cette vision de néguentropie présentée par Schrödinger.
    La difficulté avec le concept d'information me semble provenir du fait que l'information revêt plusieurs aspects:

    - Discrets : l'information a besoin de "différences" d'états, suffisamment importantes pour pouvoir être décodées , pour que le signal (1) émerge du bruit (0)
    - Continus : Des flux d'énergies générés par des différences de potentiels produisent de nouvelles structures, pas auto-poïèse, auto-organisation.

    Cordialement

  16. #46
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    et quand les systèmes sont bouclés : à la fois récepteur et émetteur?
    Tu as toujours une rôle de source et un rôle de réception !

    Cordialement

  17. #47
    Paradigm

    Re : Néguentropie et information : même concept

    Citation Envoyé par sunyata Voir le message
    La similitude des concepts si elle existe, s'exprime plutôt entre la "négentropie", et l'information. (Schrödinger : What is life)
    Cela a été défini dans le cadre de la cybernétique par Léon Brillouin. Je cite le Wiki : "La néguentropie ou entropie négative, est un concept philosophique et n'a pas de base scientifique."

    Leurs objectif est de chercher « la signification en réalité » de la notion "d'information" et donc ils cherchent à passer d’un domaine de savoir à un autre, des sciences de l’ingénieur à la physique, de la physique au vivant. Cependant, au lieu de produire la représentation univoque et universellement transférable originellement escomptée, la cybernétique accouche d’une hydre épistémologique, d’un concept d’information à plusieurs têtes dont aucune ne consent à tourner dans le même sens.

    Référence : Information et entropie. Un double jeu avec les probabilités

    Cordialement,
    Dernière modification par Paradigm ; 29/11/2018 à 19h10.

  18. #48
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    et quand les systèmes sont bouclés : à la fois récepteur et émetteur?
    Ce qui un cas banal en science appliquée. Quand on étudie la stabilité d'un système dans un milieu particulier, on se retrouve pratiquement avec l'étude d'un système bouclé.
    Par exemple prenons un moteur électrique (le système) qui fait tourner une scie circulaire (le milieu).
    Sachant que les formules du moteur sont C=KI et w=(U-RI)/K (P=Cw=UI-RI²) (C= couple, w= vitesse angulaire de rotation).
    La boucle est la suivante: Si le couple résistant augmente (information venant du milieu) (on scie), I augmente , U-RI diminue, w du moteur diminue, ainsi que la vitesse délivré au milieu diminue (information).Comme la vitesse au niveau milieu diminue, le couple ici diminue ( le couple de sciage diminue la vitesse de sciage diminue), le moteur développera un couple plus bas ... etc ... la boucle est bouclée.
    La différence entre le couple moteur et résistant assure la dynamique (accélération/décélération) de l'ensemble.

  19. #49
    sunyata

    Re : Entropie et information: même concept ?

    Pour ce qui est du lien physique entre Entropie et Information il me semble qu'une avancée considérable a été réalisée par la résolution du paradoxe du Démon de Maxwell : C'est la clef de voute.

    https://fr.wikipedia.org/wiki/D%C3%A9mon_de_Maxwell

    Selon un point de vue largement majoritaire[réf. nécessaire], cette levée a été effectuée par le physicien Léon Brillouin.
    Le démon, pour prendre les décisions de laisser passer ou de renvoyer une particule, est obligé de l'observer, donc d'utiliser l'information dont il dispose. La quantité d'information que cela représente est minime, mais si on passe au niveau microscopique, avec 1023 fois plus de molécules, l'information ainsi utilisée par le démon de Maxwell, que l'on suppose non disponible par l'observateur macroscopique, est importante. La baisse d'entropie découlant de l'exploitation des informations accessibles au démon correspond alors exactement à la différence entre information accessible à l'observateur macroscopique et information accessible au démon.
    Il faut comprendre qu'il n'y a pas de repas gratuit, l'information acquise et mémorisée par le démon, se traduit pas une augmentation de l'entropie du gaz.

    Ilya Prigogine va dans le même sens, dans ses études des structures dissipatives, qui s'auto-organisent (donc produisent de l'information) pour maximiser la dissipation d'énergie.

    Dans son livre "Le hasard et la nécessité" Jacques Monod, évoque les "Démon de Maxwell" (enzymes) qui maintiennent l'ordre au sein du vivant
    dissipant l'énergie libérée par les potentiels chimiques.

    Avec les travaux de Prigogine émerge le concept d'auto-organisation, d'organisation productrice d'elle-même, c'est à dire comportant des rétro-actions qui maintiennent la structure.

    La rétro-action trouvent des développements considérables avec les travaux de Norman Wiener sur la cybernétique.

    La cybernétique désigne d'abord un moyen de connaissance, qui étudie l'information au sens de la physique, dans la définition qu'en donne Norbert Wiener: « De même que l'entropie est une mesure de désorganisation, l'information fournie par une série de messages est une mesure d'organisation »13. Dans cette acception première, la cybernétique est une approche phénoménologique qui étudie l'information, sa structure et sa fonction dans les interactions systémiques. Ce qui peut être traduit par la science générale de la régulation et des communications dans les systèmes naturels et artificiels.
    Le prix Nobel Henri Laborit (Biologie et structure) applique la cybernétique pour faire une analyse systémique de l'Homme dans sa relation à l'environnement (La nouvelle grille, la colombe assassinée).

    Une manière de dire, qu'à partir du moment où le lien entre entropie et information s'est effectué. Le concept d'information n'a cesser d'étendre son champ d'application
    à des domaines de connaissance de plus en plus vaste, allant de la physique moléculaire, la sociologie, l'économie politique, etc...

    Là où l'énergie se dissipe il y a production d'information. La dissipation d'énergie et l'information sont donc intiment liées.

    Ce lien entre énergie, entropie et information trouve une formulation précise avec les travaux de Rodrick Dewar : "Les structures dissipatives s'auto-organisent de façon
    à maximiser le flux d'énergie qui les traverse".

    François Rodier dans son ouvrage "Thermodynamique de l'évolution" fait une synthèse intéressante à partir du postulat de Dewar.

    https://www.youtube.com/watch?v=6lNz5vmKEFA

    Cordialement,
    Dernière modification par sunyata ; 29/11/2018 à 20h05.

  20. #50
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    (..)
    Quand j’ai abordé le problème information – entropie, c’est avec ma casquette d’automaticien des systèmes asservis. Ce qui fait que je suis séduit par l’approche que tu défends.
    Au vu des positions contradictoires qui apparaissent sur le fil, mes propres lectures (et ce que j’en comprends) et mes réflexions je tirerais les conclusions (provisoires) suivantes.
    Comme le démon de Maxwell, les études de shannon (celle qui intéresse les physiciens ici), de Prigogine etc) on n’a l’impression que les informations qui s’échangent entre les systèmes sont soit monodirectionnelles, soit si elles sont bidirectionnelles, elles sont indépendantes. Je veux dire par là que les échanges entre les systèmes A et B n’interfèrent pas sur les informations entre B et A. Ce qui est logique si on s’en tient au niveau du support de l’information proprement dite.
    Cet aspect masque en grande partie la dynamique à la fois des informations engendrées et ses répercussions sur le comportement des 2 systèmes.
    Quand on s’intéresse à la dynamique des flux d’énergie entre un système et son environnement, il est impératif de montrer l’aspect informationnel (qui pilote le processus) en plus que le transfert des flux proprement dit. C’est à partir de ce double aspect que, je pense, on peut montrer le lien fort entre information et entropie (en particulier l’augmentation de l’entropie de l’énergie qui traverse le système (donc énergie nécessaire) pour maintenir par exemple son intégrité, quand le milieu avec qui il échange se modifie)

  21. #51
    yvon l

    Re : Entropie et information: même concept ?

    Pour une illustration via la chimie.
    Les chimistes, on inventé la notion d’enthalpie libre (ou énergie de Gibbs) pour déterminer la spontanéité ou non d’une réaction à partir de l’entropie (standard), de la température et de l’enthalpie de formation (standard).
    Une autre démarche, serait d’envisager un bouclage informationnel/énergétique entre les réactifs qui entre en interaction et qui amènerait de façon générale à 4 possibilités.
    Soit une stabilité de la réaction, soit a pas de réaction, soit un emballement (explosion) soit encore à une réaction oscillante. L’automaticien ferait intervenir des éléments tel que temps morts , hystérésis, zone morte, constante de temps, amortissement… pour décrire le comportement de la réaction.

  22. #52
    sunyata

    Re : Entropie et information: même concept ?

    Bonsoir,

    Au sein des systèmes complexes tels que les organismes biologiques ou les organisations humaines, la dissipation de l'énergie est maximisée par la réplication de l'information.

    Du point de vue cybernétique, les processus de réplication sont des rétroactions positives qui permettent d'amplifier la dissipation d'énergie.
    Dans une cellule de Bénard, l'information qui est répliquée et transmise, est simplement la direction des flux dissipatifs.
    Dans un organisme complexe, l' ADN permet la réplication des gènes dans toutes les cellules du corps et la réplications/évolution des corps eux-mêmes via la reproduction.(autre forme de réplication)
    Si on passe à l'échelle de la société, on voit que le développement du corps social depuis la tribue jusqu'aux sociétés complexes d'aujourd'hui, a nécessité,
    l'élaboration de système d'information de plus en plus puissants et efficaces (Le langage, l'écriture, l'imprimerie, les photocopieurs, le réseau internet). La mondialisation de l'économie , et la croissance qui l'accompagnent vont de pair avec le développement
    du réseau internet, qui réplique l'information et la distribue partout dans le monde.
    Tout cela on le voit entraîne une amplification de la dissipation d'énergie telle que la biosphère subit les effets délétères d'une entropie de l'environnement qui augmente trop rapidement.
    Peut-être le début d'une rétroaction négative, qui va nous contraindre à des ajustements.

    Cordialement
    Dernière modification par sunyata ; 30/11/2018 à 22h56.

  23. #53
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Tu as toujours une rôle de source et un rôle de réception !
    Oui et dans le cas d'un système bouclé, la réception reçoit une partie de sa propre émission.
    Valable pour tous les systèmes présents dans la boucle.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  24. #54
    sunyata

    Re : Entropie et information: même concept ?

    Dans nos sociétés modernes l'innovation technique quasi permanente associée aux capacités illimitées de réplication de l'information des réseaux constituent des facteurs puissants de maximisation de la dissipation d'énergie.
    On parle aujourd'hui, de technologies disruptives pour évoquer le rapidité, voir la brutalité des bouleversement sociaux initiés par ces évolutions technologiques.
    L'augmentation du taux de CO² et ses conséquence climatiques sur le PIB me semblent constituer une rétroaction négative, la raréfaction de certaines ressources matérielles ou énergétiques pourraient en être une autre, si elle n'est pas compensée par des innovations.

    Voyez-vous d'autres rétro-actions négatives ?

    Cordialement

  25. #55
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Oui et dans le cas d'un système bouclé, la réception reçoit une partie de sa propre émission.
    A quel niveau du modèle OSI te situes tu ? En dessous du niveau physique/bit surement.

    Cordialement,

  26. #56
    stefjm

    Re : Entropie et information: même concept ?

    Couche 1, physique.
    Je n'imagine pas trop ce qu'il pourrait y avoir en dessous? La physique quantique?
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  27. #57
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Couche 1, physique.
    Je n'imagine pas trop ce qu'il pourrait y avoir en dessous? La physique quantique?
    bit --> symbole --> support physique (modulation de porteuse, ...) .. certain parle de niveau 0 hors cadre du modèle OSI.

    Recevoir les bits que tu émets quel en serait l'utilité ? Ce qui est visé dans les communications c'est la corrélation maximale p(x/y) = 1 et donc maximiser l'information mutuelle I(X, Y). C'est a dire transmettre des messages sans aucune erreur de transmission.

    Cordialement,

  28. #58
    stefjm

    Re : Entropie et information: même concept ?

    Dans un système asservi, le régulateur reçoit l'erreur, calculée à partir de ce qu'on veut et du résultat obtenu.

    https://fr.wikipedia.org/wiki/Automa...correcteur.JPG

    Ce régulateur (correcteur) calcule une commande qu'il envoie à l'actionneur.
    L'actionneur modifie le résultat obtenu, ce qui change l'erreur, ce qui change la commande, ce qui change le résultat, etc...
    L'objectif est d'obtenir une erreur la plus nulle possible quel que soit ce qu'on veut et quelles que soient les perturbations éventuelles.
    Il y a donc transmission récursive de message pour faire en sorte de minimiser l'erreur entre consigne et résultat obtenu.

    Exemple:
    Je veux me tenir debout vertical : consigne angle nul/verticale
    Je mesure ma verticalité avec mes sens.
    Je constate une erreur.
    Mon cerveau-régulateur envoie des commandes à mes membres.
    Ma position change, etc...

    Si tu me pousses pas trop méchamment, je ne tombe pas.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  29. #59
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message

    ....
    Dans ce contexte quel usage est fait la théorie mathématique des communications formulées par Shannon ?

    Cordialement,

  30. #60
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message

    Exemple:
    Je veux me tenir debout vertical : consigne angle nul/verticale
    Je mesure ma verticalité avec mes sens.
    Je constate une erreur.
    Mon cerveau-régulateur envoie des commandes à mes membres.
    Ma position change, etc...

    Si tu me pousses pas trop méchamment, je ne tombe pas.
    Ce ne sont pas les mêmes aires du cerveau qui réalisent les différentes fonctions commandes / prise en compte de la rétroaction / ...

    Cordialement,

Page 2 sur 5 PremièrePremière 2 DernièreDernière

Discussions similaires

  1. Entropie et information
    Par legyptien dans le forum Physique
    Réponses: 0
    Dernier message: 19/09/2015, 22h23
  2. Vie, entropie et information
    Par tic-tic dans le forum Biologie
    Réponses: 1
    Dernier message: 12/03/2015, 18h14
  3. Faire émerger la physique quantique d'un concept d'information
    Par invite6754323456711 dans le forum Actualités
    Réponses: 35
    Dernier message: 27/02/2014, 00h19
  4. Est-il normal que l'outil d'information soit plus valorisé que l'information elle même ?
    Par invite088bdfed dans le forum Discussions scientifiques
    Réponses: 3
    Dernier message: 04/02/2012, 21h57
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 12h04