Entropie et information: même concept ? - Page 4
Répondre à la discussion
Page 4 sur 5 PremièrePremière 4 DernièreDernière
Affichage des résultats 91 à 120 sur 122

Entropie et information: même concept ?



  1. #91
    yvon l

    Re : Entropie et information: même concept ?


    ------

    Citation Envoyé par Paradigm Voir le message
    Ce dont vous parlez alors c'est juste une communication bidirectionnelle. Pour faire simple : Émetteur A ---> récepteur B et Émetteur B ----> récepteur A. Il n'y a pas de boucle Emetteur <----> Emetteur.

    Cordialement,
    Suivant L'information que je t'envois , tu me répondras par une information issue du traitement de l'information que tu auras reçue...que je retraiterai à mon tour, et ainsi de suite... Pour moi c'est la caractéristique la plus simple de bouclage pour un automaticien.

    1) A envoi à B le message "X est trop haut (ou trop bas)" via le canal 1
    2) B réagit à l'information en diminuant X
    3)X est mesuré puis via un canal 2 le message "X= la mesure" est envoyé à A
    4) on boucle en 1)

    résultat ici X oscille autour de la valeur que désire A.

    -----

  2. #92
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Suivant L'information que je t'envois , tu me répondras par une information issue du traitement de l'information que tu auras reçue...que je retraiterai à mon tour, et ainsi de suite... Pour moi c'est la caractéristique la plus simple de bouclage pour un automaticien.
    Ce n'est pas cette notion d'information qui a été défini par Shannon. L'information ne porte pas sur la sémantique. Un message signifiant ne possède pas nécessairement une quantité d’information plus grande qu’un message dénué de sens.

    Citation Envoyé par yvon l Voir le message
    1) A envoi à B le message "X est trop haut (ou trop bas)" via le canal 1
    2) B réagit à l'information en diminuant X
    3)X est mesuré puis via un canal 2 le message "X= la mesure" est envoyé à A
    4) on boucle en 1)

    résultat ici X oscille autour de la valeur que désire A.
    Stefjm parlait d’émetteur confondu avec le récepteur.

    Cordialement,

  3. #93
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Ce n'est pas cette notion d'information qui a été défini par Shannon. L'information ne porte pas sur la sémantique. Un message signifiant ne possède pas nécessairement une quantité d’information plus grande qu’un message dénué de sens. (..)
    Cordialement,
    Sauf que l'information prend sens pour les interlocuteurs en se mettant d'accord sur sa formulation. Si ce n'est pas le cas, le concept d'information n'a pas de sens .
    Au départ Shannon, avait pour soucis de trouver des techniques de faire passer le plus rapidement possible un maximum d'informations dans un canal ayant une bande passante donnée.
    A l'époque on était confronté en téléphonie à une bande passante basse fréquence de quelques kilohertz. Quand les câbles utilisés par la téléphonie ont étés utilisés pour des informations codées sous forme binaire, le besoin s'est fortement fait sentir pour exploiter au mieux ces câbles . Idem avec les bandes passantes étroites attribuées dans les transmissions radio. Pendant mes études j'avais suivi un cours de téléphonie (72 heures) où on abordait ces problèmes.

  4. #94
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    J'aimerais poser une question de Béotien.

    Pour moi, ce qui est clé dans le concept d'entropie, c'est qu'il donne un sens au temps pour le système étudié. Dans les deux acceptations du mot "sens" d'ailleurs.

    Si je prends la théorie de l'information, appliquée au domaine de l'information uniquement, où ces deux acceptations du "sens au temps" apparaissent-elles ?

    Quand je parle du domaine de l'information, je parle bien du vivier initial dans lequel cette théorie est apparue et en excluant les éventuels prolongements physiques.

    Je vois qu'il est question de chaine de caractères par exemple, si on s'en tient à cet exemple. Où se situe le temps et en quoi l'entropie d'un tel système évolue-t-elle pour donner une direction à l'écoulement du temps.

    P.S. : Les explications à base de système de rétro-actions qu'ils soient conceptuels, chimiques, mécaniques ou électriques me sont connues et ne m'aideront pas à répondre à la question que je pose.
    En fait, je crois que je viens de comprendre.

    S'il y a bien une équivalence entre l'entropie de Shannon et celle de Boltzman, il ne faut y voir qu'une correspondance entre l'entropie d'un état donné du système physique et celle d'un signal.

    Par essence, le signal (exemple : la suite de caractère d'un message chiffré) est fixé. Son entropie l'est donc également.

    Dans le même ordre d'idée, si on prend un état du système physique, son entropie va elle aussi être fixée. Ce qui est équivalent entre les deux théories, c'est que le calcul donne le même résultat entre les deux (pour peu que le système physique soit le frère jumeaux de la chaine cryptée).

    Mais ça s'arrête la.

    Car le système physique, lui, peut évoluer vers un autre système ayant une entropie plus forte. Evolution qui sera spontanée et qui donnera "sens au temps", ce que la théorie de Shannon est totalement incapable de faire car il n'y a pas de lien au temps.

    Le même message crypté à l'aide de deux algorithmes différents aurait une entropie différente, mais il n'y a aucune raison que le système "spontanément" vers un autre état de cryptage.

    Donc si j'ai bien compris : deux photos, l'une d'un message crypté, l'autre d'un système physique "équivalent" peuvent avoir la même entropie. Mais pour le système physique, si on enlève la pause de l'appareil photo, on verra le film se dérouler. Alors que pour le message crypté ... rien ne permettra de savoir si l'appareil est en pause ou pas.

  5. #95
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Stefjm parlait d’émetteur confondu avec le récepteur.
    Dans une boucle de rétroaction, tous les signaux de la boucle sont à la fois cause et conséquence.
    Exemple pour l'erreur d'un système asservi : Elle dépend d'une consigne et du résultat. C'est une conséquence des actions passées.
    Cette même erreur provoque une commande pour essayer de converger vers ce qu'on veut. C'est donc aussi une cause des actions futures.
    Et le tout est bouclé...

    Citation Envoyé par Sethy Voir le message
    Dans le même ordre d'idée, si on prend un état du système physique, son entropie va elle aussi être fixée. Ce qui est équivalent entre les deux théories, c'est que le calcul donne le même résultat entre les deux (pour peu que le système physique soit le frère jumeaux de la chaine cryptée).
    En théorie des systèmes, on identifie un système physique par et à sa réponse impulsionnelle.

    Citation Envoyé par Sethy Voir le message
    Mais ça s'arrête la.

    Car le système physique, lui, peut évoluer vers un autre système ayant une entropie plus forte. Evolution qui sera spontanée et qui donnera "sens au temps", ce que la théorie de Shannon est totalement incapable de faire car il n'y a pas de lien au temps.

    Le même message crypté à l'aide de deux algorithmes différents aurait une entropie différente, mais il n'y a aucune raison que le système "spontanément" vers un autre état de cryptage.
    Donc si j'ai bien compris : deux photos, l'une d'un message crypté, l'autre d'un système physique "équivalent" peuvent avoir la même entropie. Mais pour le système physique, si on enlève la pause de l'appareil photo, on verra le film se dérouler. Alors que pour le message crypté ... rien ne permettra de savoir si l'appareil est en pause ou pas.
    Ça dépend de ce qu'on met derrière "spontané" et aussi de la notion bizarre de "pause".
    Pas facile de donner un sens au temps sur ce type de vidéo : https://www.youtube.com/watch?v=B6vr1x6KDaY
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  6. #96
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Dans une boucle de rétroaction, tous les signaux de la boucle sont à la fois cause et conséquence.
    Je confirme
    Citation Envoyé par stefjm Voir le message

    En théorie des systèmes, on identifie un système physique par et à sa réponse impulsionnelle.
    Oui mais aussi par son comportement fréquentiel avant bouclage (courbes de baude et de nyquist)

    Mais pour moi, le plus important est d’attirer l’attention sur la boucle information qui pilote le comportement dynamique de 2 sous-systèmes qui dialogue. Cette boucle qui dissipe très peu d’énergie, pilote des flux matière/énergie qui peuvent être très important.
    Autrement dit à une petite erreur dans la boucle informationnelle peut entraîner un comportement catastrophique pour les flux contrôlés. (choix entre stabilité, oscillations (relaxation), amplification jusqu’à saturation ou arrêt du flux). Même avec une information correcte, s’il elle arrive avec un certain retard (à contretemps), peut provoquer l’instabilité du flux contrôlé.
    Voir exemple https://forums.futura-sciences.com/p...ml#post6267604

  7. #97
    Sethy

    Re : Entropie et information: même concept ?

    S'il est pour moi évident (et bien avant cette discussion d'ailleurs) qu'il y a un parallèle entre des systèmes oscillants comme l'horloge chimique et le montage "flip-flop" (bascule) en électronique, ce que je ne vois toujours pas, c'est le lien avec la théorie de l'information de Shannon.

    J'ai bien vu que Shannon avait théorisé un certain nombre de choses en théorie du signal et en a découverte d'autres comme l'approche "entropique" du codage des messages.

    Mais je me demande si la confusion ne vient pas justement, que ce soit la même personne qui ait découvert une chose et modélisé une autre.

    Einstein par exemple a contribué à la physique statistiques (exemple : statistique de Bose-Einstein), à la mécanique quantique (exemple: effet photoélectrique qui lui a valu le prix Nobel) et à la relativité (restreinte et générale). Cependant ce n'est pas parce que c'est la même personne qu'il faut mélanger ces apports bien distincts.

    Cette conviction de cette confusion me vient du fait qu'à chaque question "théorie de l'information", je reçois une réponse "théorie du signal".
    Dernière modification par Sethy ; 05/12/2018 à 12h48.

  8. #98
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    J'ai bien vu que Shannon avait théorisé un certain nombre de choses en théorie du signal et en a découverte d'autres comme l'approche "entropique" du codage des messages.

    Mais je me demande si la confusion ne vient pas justement, que ce soit la même personne qui ait découvert une chose et modélisé une autre.
    Je comprends tes interrogations vues sous l’angle présenté dans les livres par les physiciens ( en partant des formules de la théorie du signal et de l’entropie) . De mon coté, je regarde cela du coté des sciences appliquées. Quand on se place par exemple à l’échelle cellulaire, et qu’on observe un virus, on voit que celui-ci porte à sa surface une structure qui va lui permettre d’échanger de l’information avec le milieu dans lequel il baigne. C’est cette structuration, correspondant à une entropie basse qui est porteuse d’informations. Un tel être, quand il meurt , voit son entropie augmenter et les informations qu’il porte disparaître

  9. #99
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Je comprends tes interrogations vues sous l’angle présenté dans les livres par les physiciens ( en partant des formules de la théorie du signal et de l’entropie) . De mon coté, je regarde cela du coté des sciences appliquées. Quand on se place par exemple à l’échelle cellulaire, et qu’on observe un virus, on voit que celui-ci porte à sa surface une structure qui va lui permettre d’échanger de l’information avec le milieu dans lequel il baigne. C’est cette structuration, correspondant à une entropie basse qui est porteuse d’informations. Un tel être, quand il meurt , voit son entropie augmenter et les informations qu’il porte disparaître
    Un virus est (à mon avis) un très mauvais exemple, car justement il est à la limite du monde minéral. Il peut même être cristallisé (= agrégation de virus entre eux pour former un solide) et conservé sous cette forme. De plus, il n'y a aucun échange entre le monde extérieur et l'intérieur du virus.

    Mais bon, c'est un détail. Enfin, sauf évidemment que parler d'échange entre le virus et le milieu extérieur parait compliqué puisqu'inévitablement se pose la question de la source d'énergie. Et comme le virus n'est pas le siège d'un métabolisme, c'est problématique.

    Le plus important est que je peux retirer le mot "information" de ton message sans que celui-ci perde son sens.

    Oui, le virus est une structure. Et oui quand il "meurt" cette structure disparait. Et donc oui, il y a bien augmentation de l'entropie. Voilà, en résumé et sans le mot information.

    Et c'est bien ça qui me dérange, c'est que l'information apparait comme un concept superflu. Je voudrais bien la voir apparaitre comme un élément fondamental. Surtout s'il est question que l'entropie lui cède la préséance.
    Dernière modification par Sethy ; 05/12/2018 à 17h06.

  10. #100
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Un virus est (à mon avis) un très mauvais exemple, car justement il est à la limite du monde minéral. Il peut même être cristallisé (= agrégation de virus entre eux pour former un solide) et conservé sous cette forme. De plus, il n'y a aucun échange entre le monde extérieur et l'intérieur du virus.

    Mais bon, c'est un détail. Enfin, sauf évidemment que parler d'échange entre le virus et le milieu extérieur parait compliqué puisqu'inévitablement se pose la question de la source d'énergie. Et comme le virus n'est pas le siège d'un métabolisme, c'est problématique.(..)
    Ben, justement c’est pour cela que j’ai pris l’exemple du virus.
    La notion d’entropie n’est pas seulement liée à l’énergie mais aussi à la matière (ou est piégée l’énergie). Quand le virus est inactif, il contient déjà de l’énergie de structure, mais n’est le siège d’aucun transfert à son niveau (c’est d’ailleurs pour cela qu’ont peut définir une entropie).
    Citation Envoyé par Sethy Voir le message
    Le plus important est que je peux retirer le mot "information" de ton message sans que celui-ci perde son sens.

    Oui, le virus est une structure. Et oui quand il "meurt" cette structure disparait. Et donc oui, il y a bien augmentation de l'entropie. Voilà, en résumé et sans le mot information.

    Et c'est bien ça qui me dérange, c'est que l'information apparait comme un concept superflu. Je voudrais bien la voir apparaitre comme un élément fondamental. Surtout s'il est question que l'entropie lui cède la préséance.
    Voilà ma vision (dis-moi si je me trompe)
    Le virus entre en interaction avec son milieu, en modifiant des liaisons chimiques non covalentes avec l’objet qu’il infecte . Il y a de petit transfert au niveau énergétique entre le virus et l’objet infecté (l’énergie globale de l’ensemble reste inchangée). Maintenant libre à toi de parler ou non d’information pour décrire le phénomène. Pour ma part c’est le concept d’entropie qui deviendrait superflu.

  11. #101
    sunyata

    Re : Entropie et information: même concept ?

    "Se poser la question de 'est-ce qu'un virus est vivant ou non ?' revient à de demander la chose suivante : Une plante est vivante, mais est-ce qu'une graine de plante est vivante ?" résume Jean-Michel Claverie.

  12. #102
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Ben, justement c’est pour cela que j’ai pris l’exemple du virus.
    La notion d’entropie n’est pas seulement liée à l’énergie mais aussi à la matière (ou est piégée l’énergie). Quand le virus est inactif, il contient déjà de l’énergie de structure, mais n’est le siège d’aucun transfert à son niveau (c’est d’ailleurs pour cela qu’ont peut définir une entropie).

    Voilà ma vision (dis-moi si je me trompe)
    Le virus entre en interaction avec son milieu, en modifiant des liaisons chimiques non covalentes avec l’objet qu’il infecte . Il y a de petit transfert au niveau énergétique entre le virus et l’objet infecté (l’énergie globale de l’ensemble reste inchangée). Maintenant libre à toi de parler ou non d’information pour décrire le phénomène. Pour ma part c’est le concept d’entropie qui deviendrait superflu.
    Ce n'est que de l'énergie potentielle sous une forme particulière, ici chimique. C'est exactement la même chose avec le rocher qui se détache de la montagne et qui dévale la pente(sauf que c'est bien plus simple à comprendre).

    La route sur laquelle tombe le rocher en contrebas reçoit aussi de l'énergie. Encore une fois, qu'est ce que le point de vue de l'information apporte ?

  13. #103
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Ce n'est que de l'énergie potentielle sous une forme particulière, ici chimique. C'est exactement la même chose avec le rocher qui se détache de la montagne et qui dévale la pente(sauf que c'est bien plus simple à comprendre).

    La route sur laquelle tombe le rocher en contrebas reçoit aussi de l'énergie. Encore une fois, qu'est ce que le point de vue de l'information apporte ?
    C'est quand même un peu plus compliqué. Je te propose de regarder : https://www.youtube.com/watch?v=BbNT2NgO9Xw
    ou entre la 42e minute et la 45e minute le professeur JM Lehn nous parle de liaisons non covalentes et d'information.

  14. #104
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    "Se poser la question de 'est-ce qu'un virus est vivant ou non ?' revient à de demander la chose suivante : Une plante est vivante, mais est-ce qu'une graine de plante est vivante ?" résume Jean-Michel Claverie.
    Rien ne dit que le métabolisme dans la graine est totalement arrêté. Ensuite, il suffit d'un peu d'eau (= du minéral) pour que celui-ci se réactive.

    Alors que dans le cas du virus, il faut la "bonne" cellule hôte (= du vivant) pour qu'il puisse y pénétrer et que son matériel génétique ne force celle-ci à le répliquer.

  15. #105
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    C'est quand même un peu plus compliqué. Je te propose de regarder : https://www.youtube.com/watch?v=BbNT2NgO9Xw
    ou entre la 42e minute et la 45e minute le professeur JM Lehn nous parle de liaisons non covalentes et d'information.
    Pas vraiment en fait. Soit le processus est "passif" et il repose alors uniquement sur une énergie potentielle chimique et dans ce cas le parallèle avec la pierre qui chute est parfait.

    Soit le processus nécessite l'apport d'énergie (sous forme par exemple d'un "ATP") et dans ce cas, c'est comme s'il y avait un petit moteur connecté à une petite batterie pour faire le travail. Evidemment qui dit moteur, dit forcément que l'entropie de son fonctionnement est payée ailleurs. L'énergie potentielle chimique étant contenue de la liaison pyrophosphate de l'ATP.

  16. #106
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Pas facile de donner un sens au temps sur ce type de vidéo : https://www.youtube.com/watch?v=B6vr1x6KDaY
    Ici, il y a une source d'énergie qui pilote le système. Donc le sens au temps vient du fait qu'à un moment donné, la pile sera plate.

  17. #107
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Pas vraiment en fait. Soit le processus est "passif" et il repose alors uniquement sur une énergie potentielle chimique et dans ce cas le parallèle avec la pierre qui chute est parfait.(..)
    Je te laisse à tes certitudes

  18. #108
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Sauf que l'information prend sens pour les interlocuteurs en se mettant d'accord sur sa formulation. Si ce n'est pas le cas, le concept d'information n'a pas de sens .
    Bien sur que si que le concept d'information défini par Shannon fait sens, mais pas le sens que vous lui prêtez en portant l'accent sur la sémantique des messages.

    La Théorie Mathématique de l’Information (TMI) formulé par Shannon porte essentiellement dans une approche quantitative de l’information afin de répondre à deux problèmes fondamentaux : la détermination du niveau maximal de compression des données et du taux maximal de leur transmission.

    En quelque sorte la TMI s’occupe de ce qui porte l’information, les symboles, les signaux et non pas l’information par elle-même dans sa dimension sémantique. Cette notion d’information est ce par quoi se mesure la liberté de choix quand on sélectionne un message. L’information se définit comme l’opération par laquelle est sélectionné un symbole parmi un ensemble possible de symboles.

    La TMI n’est pas une théorie de l’information au sens commun du terme. La TMI est une théorie de l’information qui ne cherche pas à éclairer ce que signifie le message. Elle est en quelque sorte une branche des probabilités.

    Cordialement,
    Dernière modification par Paradigm ; 06/12/2018 à 04h38.

  19. #109
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Pas vraiment en fait. Soit le processus est "passif" et il repose alors uniquement sur une énergie potentielle chimique et dans ce cas le parallèle avec la pierre qui chute est parfait.

    Soit le processus nécessite l'apport d'énergie (sous forme par exemple d'un "ATP") et dans ce cas, c'est comme s'il y avait un petit moteur connecté à une petite batterie pour faire le travail. Evidemment qui dit moteur, dit forcément que l'entropie de son fonctionnement est payée ailleurs. L'énergie potentielle chimique étant contenue de la liaison pyrophosphate de l'ATP.
    Pour moi.
    Oui, en ce qui concerne l’énergie potentielle chimique et non avec la nécessité d’une source d’énergie externe (pile).
    Les molécules qui constituent le virus sont agencées dans une configuration spatiale qui fait apparaître des îlots de potentiels différents . A ces ilots correspond de l’énergie potentielle c’est-à-dire organisée. Quand le virus meurt la structure se désintègre, et les ilots disparaissent ainsi que l’énergie organisée qu’ ils portent . Le virus voit alors sont entropie atteindre celle du milieu qui l’environne (l’image énergétique est confondue avec celle du milieu ) L’entropie du virus mort est maximum.
    Par contre, le virus vivant, avec ses îlots de potentiel va interférer avec le milieu de l’objet en organisant la matière qu’il infecte. Les champs qui émanent des potentiels des ilots vont provoquer des forces sur la nature électromagnétique des molécules de l’objet . Ces forces vont modifier le positionnement des masses moléculaire qui les subissent. Cette réorganisation est accompagnée d’un travail (flux d’énergie mécanique) ce flux de type travail W n’est pas dissipatif. C’est pour cela que l’infection ne nécessite pas nécessairement l’apport extérieur d’énergie. Pour plus de détails, quand une molécule, sous l’action du champs se déplace, son énergie cinétique (1/2MV²) est prise (accélération) puis restituée au champ (décélération) .
    Dans ces explications on voit bien que l’organisation et le comportement du virus sont un phénomène qui peut s’étudier avec le concept entropie et/ou le concept information

  20. #110
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Bien sur que si que le concept d'information défini par Shannon fait sens, mais pas le sens que vous lui prêtez en portant l'accent sur la sémantique des messages.
    Je commence à mieux comprendre. Et ceci me conforte encore dans l'idée que la confusion nait car Shannon a travaillé sur plusieurs aspects.

    Citation Envoyé par Paradigm Voir le message
    La Théorie Mathématique de l’Information (TMI) formulé par Shannon porte essentiellement dans une approche quantitative de l’information afin de répondre à deux problèmes fondamentaux : la détermination du niveau maximal de compression des données et du taux maximal de leur transmission.

    En quelque sorte la TMI s’occupe de ce qui porte l’information, les symboles, les signaux et non pas l’information par elle-même dans sa dimension sémantique. Cette notion d’information est ce par quoi se mesure la liberté de choix quand on sélectionne un message. L’information se définit comme l’opération par laquelle est sélectionné un symbole parmi un ensemble possible de symboles.
    Après un début de carrière dans la chimie, mon parcours a progressivement évolué vers l'informatique. Et effectivement quand j'ai lu ces histoires de codage sur n-bit, cela m'a tout de suite fait penser aux bases de données.

    Citation Envoyé par Paradigm Voir le message
    La TMI n’est pas une théorie de l’information au sens commun du terme. La TMI est une théorie de l’information qui ne cherche pas à éclairer ce que signifie le message. Elle est en quelque sorte une branche des probabilités.
    La aussi, ça me conforte dans l'idée que l'équivalence avec l'entropie classique (équivalence, que je ne remets pas en cause) a une portée bien moins grande que ce qui est sous-entendu dans cette discussion.

    L'équivalence porte sur des états bien précis. Mais contrairement à l'entropie classique, la dimension temporelle est (à moins que quelqu'un m'apporte la preuve du contraire) absente.

  21. #111
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Pour moi.
    Oui, en ce qui concerne l’énergie potentielle chimique et non avec la nécessité d’une source d’énergie externe (pile).
    Si tu écoutes bien la vidéo que tu m'as signalée, tu verras que le conférencier y parle de molécules présentes à la surface de la cellule hôte. Ce sont ces molécules qui vont "à la pêche" dans le milieu extérieur. C'est cette "pêche" qui nécessite de l'énergie.

    A priori ces molécules ne vont pas à la pêche au virus bien sûr mais à des aliments par exemple.

    En quelques sortes, c'est un peu comme le portier d'une discothèque qui d'une part harangue la foule pour qu'elle entre mais qui en même temps doit faire le tri pour ne laisser entrer que les personnes majeures. Mais le virus, lui il a falsifié sa carte d'identité et le portier n'y voit que du feu et le laisse malgré tout entrer.

    Citation Envoyé par yvon l Voir le message
    Les molécules qui constituent le virus sont agencées dans une configuration spatiale qui fait apparaître des îlots de potentiels différents . A ces ilots correspond de l’énergie potentielle c’est-à-dire organisée. Quand le virus meurt la structure se désintègre, et les ilots disparaissent ainsi que l’énergie organisée qu’ ils portent . Le virus voit alors sont entropie atteindre celle du milieu qui l’environne (l’image énergétique est confondue avec celle du milieu ) L’entropie du virus mort est maximum.
    Ce n'est pas faux, mais c'est comme la pierre sur la montagne. La montagne est une forme de structure organisée.

    Citation Envoyé par yvon l Voir le message
    Par contre, le virus vivant, avec ses îlots de potentiel va interférer avec le milieu de l’objet en organisant la matière qu’il infecte. Les champs qui émanent des potentiels des ilots vont provoquer des forces sur la nature électromagnétique des molécules de l’objet . Ces forces vont modifier le positionnement des masses moléculaire qui les subissent. Cette réorganisation est accompagnée d’un travail (flux d’énergie mécanique) ce flux de type travail W n’est pas dissipatif. C’est pour cela que l’infection ne nécessite pas nécessairement l’apport extérieur d’énergie. Pour plus de détails, quand une molécule, sous l’action du champs se déplace, son énergie cinétique (1/2MV²) est prise (accélération) puis restituée au champ (décélération) .
    Dans ces explications on voit bien que l’organisation et le comportement du virus sont un phénomène qui peut s’étudier avec le concept entropie et/ou le concept information
    Ici, c'est faux. Le virus n'est pas vivant. En gros le virus est une carte perforée qui se glisse dans la pile et qui une fois "processée" par la machine produit de nombreuses copies de la carte perforée. Il n'est pas vivant. Il a besoin d'une machine (la cellule hôte).

    Alors oui, il y a des interactions entre la carte perforée et la zone de lecture (de nature électromagnétique et potentielle) tout comme dans le cas du virus entre sa structure et les protéines membranaires, mais le virus (tout comme la carte perforée) ne peut transformer aucune énergie.
    Dernière modification par Sethy ; 06/12/2018 à 10h21.

  22. #112
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Bien sur que si que le concept d'information défini par Shannon fait sens, mais pas le sens que vous lui prêtez en portant l'accent sur la sémantique des messages.

    La Théorie Mathématique de l’Information (TMI) formulé par Shannon porte essentiellement dans une approche quantitative de l’information afin de répondre à deux problèmes fondamentaux : la détermination du niveau maximal de compression des données et du taux maximal de leur transmission.(..)
    Mes propos n’ont sans doute pas toujours été clairs, car je suis complètement d’accord avec ton point de vue.
    Une autre approche pour faire comprendre est la technologie qu’utilisent les informaticiens (J’ai eu dans mon parcourt, le plaisir d’enseigner l’informatique industrielle).
    Voir:https://forums.futura-sciences.com/d...rdinateur.html

  23. #113
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Si tu écoutes bien la vidéo que tu m'as signalée, tu verras que le conférencier y parle de molécules présentes à la surface de la cellule hôte. Ce sont ces molécules qui vont "à la pêche" dans le milieu extérieur. C'est cette "pêche" qui nécessite de l'énergie.(..)
    Plus exactement, cette pêche est accompagnée de transfert d’énergie de type mécanique non dissipative ( échange potentiel-cinétique sans perte) donc avec un bilan global énergétique nul
    Un peu comme si tu fais osciller un pendule en fer dans le champs magnétique de plusieurs aimants

    Citation Envoyé par Sethy Voir le message
    (..)
    Ce n'est pas faux, mais c'est comme la pierre sur la montagne. La montagne est une forme de structure organisée)
    Bien sûr la pierre sur la montagne ou un lac à une certaine hauteur est porteur d’une information simple associée à sa hauteur et à son volume (énergie potentielle). C’est du moins vu comme cela dans certaines sciences appliquées. Par exemple dans les sciences météo et climatologie les modèles étudient comment ces informations agissent.
    Citation Envoyé par Sethy Voir le message
    (..)
    Ici, c'est faux. Le virus n'est pas vivant. En gros le virus est une carte perforée qui se glisse dans la pile et qui une fois "processée" par la machine produit de nombreuses copies de la carte perforée. Il n'est pas vivant. Il a besoin d'une machine (la cellule hôte).
    Là, ce n’est pas très correct de qualifier comme faux tout un argumentaire:
    Citation Envoyé par yvon l Voir le message
    Par contre, le virus vivant, avec ses îlots de potentiel va interférer avec le milieu de l’objet en organisant la matière qu’il infecte. Les champs qui émanent des potentiels des ilots vont provoquer des forces sur la nature électromagnétique des molécules de l’objet . Ces forces vont modifier le positionnement des masses moléculaire qui les subissent. Cette réorganisation est accompagnée d’un travail (flux d’énergie mécanique) ce flux de type travail W n’est pas dissipatif. C’est pour cela que l’infection ne nécessite pas nécessairement l’apport extérieur d’énergie. Pour plus de détails, quand une molécule, sous l’action du champs se déplace, son énergie cinétique (1/2MV²) est prise (accélération) puis restituée au champ (décélération) .
    Dans ces explications on voit bien que l’organisation et le comportement du virus sont un phénomène qui peut s’étudier avec le concept entropie et/ou le concept information
    Alors que ce qui est peut-être faux est la nature vivante ou non du virus... Et que cela n’a aucune incidence pour moi dans le déroulement de l’argumentation.

  24. #114
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Plus exactement, cette pêche est accompagnée de transfert d’énergie de type mécanique non dissipative ( échange potentiel-cinétique sans perte) donc avec un bilan global énergétique nul
    Un peu comme si tu fais osciller un pendule en fer dans le champs magnétique de plusieurs aimants
    Bah on en revient au dilemme que j'expliquais. Soit c'est juste de l'énergie potentielle et l'exemple de la montagne est pertinent, soit il faut bien actionner le bras qui va à la pêche et pour ça, il faut de l'énergie.

    Citation Envoyé par yvon l Voir le message
    Bien sûr la pierre sur la montagne ou un lac à une certaine hauteur est porteur d’une information simple associée à sa hauteur et à son volume (énergie potentielle). C’est du moins vu comme cela dans certaines sciences appliquées. Par exemple dans les sciences météo et climatologie les modèles étudient comment ces informations agissent.
    A nouveau, l'information me semble rajoutée "à la main". Tout s'explique sans faire appel à cette notion.

    Citation Envoyé par yvon l Voir le message
    Alors que ce qui est peut-être faux est la nature vivante ou non du virus... Et que cela n’a aucune incidence pour moi dans le déroulement de l’argumentation.
    Bah oui, c'est faux car tu sous-entends que tout se fait "par magie". Evidemment qu'une balle qui se trouve au dessus de l'escalier à toutes les chances de le dévaler. Mais ça ne suffit pas pour expliquer toute l'activité virale. Ce processus de reproduction des virus demande pas mal d'énergie.

    A nouveau, tu noies le problème sous des couches de problématiques bien plus complexe, qu'en plus tu ne maitrises pas du tout.

    Ce qui amène à devoir discuter à de nombreux niveaux en même temps. Te montrer en quoi tes exemples sont au mieux incomplets pour ne pas dire totalement faux et surtout attaquer le problème sous-jacent qui se retrouve diffus.

  25. #115
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Bah on en revient au dilemme que j'expliquais. Soit c'est juste de l'énergie potentielle et l'exemple de la montagne est pertinent, soit il faut bien actionner le bras qui va à la pêche et pour ça, il faut de l'énergie.
    tu n’a toujours pas compris . OUI si le système est dissipatif. Ce qui n’est pas nécessairement toujours le cas à petite échelle (si pas de frottement).
    Citation Envoyé par Sethy Voir le message
    A nouveau, l'information me semble rajoutée "à la main". Tout s'explique sans faire appel à cette notion.
    Va faire un tour ici:
    https://www.semanticscholar.org/auth...Dewar/39965285
    cela pourra peut être nuancer ton point de vue


    Citation Envoyé par Sethy Voir le message
    Bah oui, c'est faux car tu sous-entends que tout se fait "par magie". Evidemment qu'une balle qui se trouve au dessus de l'escalier à toutes les chances de le dévaler. Mais ça ne suffit pas pour expliquer toute l'activité virale. Ce processus de reproduction des virus demande pas mal d'énergie.

    A nouveau, tu noies le problème sous des couches de problématiques bien plus complexe, qu'en plus tu ne maitrises pas du tout.

    Ce qui amène à devoir discuter à de nombreux niveaux en même temps. Te montrer en quoi tes exemples sont au mieux incomplets pour ne pas dire totalement faux et surtout attaquer le problème sous-jacent qui se retrouve diffus.
    Ai-je prétendu (ou sous-entendu) expliquer l’activité virale ?
    Au départ une explication de comment se présente l’information dans la nature à toutes les échelles en tant que propriété émergente.
    Cette explication se fait à partir des transferts d’énergie dans le support informationnel.
    Le virus en vie ( pardons en activité) est un simple exemple.
    A partir de la tu dévies du problème posé dans le fil par l’affirmation : cela demande beaucoup d’énergie. Et vlan, nous voila entrain de discuter si le système virus est un système dissipatif ?
    Donc je suis obligé de te répondre: si le système est dissipatif, c’est donc qu’il est traversé par un flux dont l’entropie de sortie est plus grande que l’entropie d’entrée. Bref que le virus doit faire comme toi et moi, à savoir qu’il mange (et respire) et rejette les déchets… Et en avant on est complètement hors sujet.
    Enfin, peux-tu signaler précisément une phrase fausse dans l’argumentaire. Je me ferais un plaisir de la corriger (Pas du genre ce n’est pas faux mais...)

  26. #116
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Ai-je prétendu (ou sous-entendu) expliquer l’activité virale ?
    Au départ une explication de comment se présente l’information dans la nature à toutes les échelles en tant que propriété émergente.
    Cette explication se fait à partir des transferts d’énergie dans le support informationnel.
    Le virus en vie ( pardons en activité) est un simple exemple.
    A partir de la tu dévies du problème posé dans le fil par l’affirmation : cela demande beaucoup d’énergie. Et vlan, nous voila entrain de discuter si le système virus est un système dissipatif ?
    Donc je suis obligé de te répondre: si le système est dissipatif, c’est donc qu’il est traversé par un flux dont l’entropie de sortie est plus grande que l’entropie d’entrée. Bref que le virus doit faire comme toi et moi, à savoir qu’il mange (et respire) et rejette les déchets… Et en avant on est complètement hors sujet.
    Enfin, peux-tu signaler précisément une phrase fausse dans l’argumentaire. Je me ferais un plaisir de la corriger (Pas du genre ce n’est pas faux mais...)
    Je te le répète, le virus n'a pas de métabolisme. C'est comme t'intéresser à la page qui est reproduite par la photocopieuse. C'est la photocopieuse qui nécessite de l'énergie pour fonctionner, pas la page. Mais bon, tu peux disserter à l'envi sur la page ... ça n'y changera rien. Sauf que moi, je ne peux pas raisonner à partir d'un exemple bancal.

  27. #117
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Je te le répète, le virus n'a pas de métabolisme. C'est comme t'intéresser à la page qui est reproduite par la photocopieuse. C'est la photocopieuse qui nécessite de l'énergie pour fonctionner, pas la page. Mais bon, tu peux disserter à l'envi sur la page ... ça n'y changera rien. Sauf que moi, je ne peux pas raisonner à partir d'un exemple bancal.
    Ce que je veux te faire comprendre c'est que cela n'avoir rien à voir avec le métabolisme. Quand un système quelconque est dissipatif, il a besoin pour maintenir un équilibre du point de vue thermodynamique d'un flux énergétique d'entrée pour compenser le flux dissipatif. Le métabolisme est un cas particulier, celui que le vivant utilise pour maintenir son équilibre ( toujours dans le cadre de la thermodynamique). Vivant ou non, c'est une loi de la thermodynamique qui s'applique à tous les systèmes dissipatifs qui maintiennent leur équilibre. C'est quand même très simple à comprendre. Bon on est à nouveau HS. Si tu pouvais rester sur le sujet information et entropie ...

  28. #118
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Ce que je veux te faire comprendre c'est que cela n'avoir rien à voir avec le métabolisme. Quand un système quelconque est dissipatif, il a besoin pour maintenir un équilibre du point de vue thermodynamique d'un flux énergétique d'entrée pour compenser le flux dissipatif. Le métabolisme est un cas particulier, celui que le vivant utilise pour maintenir son équilibre ( toujours dans le cadre de la thermodynamique). Vivant ou non, c'est une loi de la thermodynamique qui s'applique à tous les systèmes dissipatifs qui maintiennent leur équilibre. C'est quand même très simple à comprendre. Bon on est à nouveau HS. Si tu pouvais rester sur le sujet information et entropie ...
    Heu ... le premier qui a parlé de virus ... c'est toi dans le post 98 ...

    Un morceau de sucre a-t-il besoin d'un flux de quoi que ce soit pour se maintenir ? Si tu réponds par la négative, c'est pareil pour un virus qui peut, je le rappelle, lui aussi être cristallisé.

    Un virus sous forme virus est inerte. Il n'a besoin d'aucun flux de quelque nature que ce soit.
    Dernière modification par Sethy ; 06/12/2018 à 20h46.

  29. #119
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Heu ... le premier qui a parlé de virus ... c'est toi dans le post 98 ...

    Un morceau de sucre a-t-il besoin d'un flux de quoi que ce soit pour se maintenir ? Si tu réponds par la négative, c'est pareil pour un virus qui peut, je le rappelle, lui aussi être cristallisé.

    Un virus sous forme virus est inerte. Il n'a besoin d'aucun flux de quelque nature que ce soit.

    Un virus sous forme virus est inerte. Il n'a besoin d'aucun flux de quelque nature que ce soit.
    Ben oui, j'ai parlé de virus pour parler d'information et d'entropie.
    Pour le morceau de sucre, rien à voir car tu parles d'un système à l'équilibre. Moi je t'ai parlé de système dissipatif qui doit garder son équilibre cad qui dissipe de l'énergie (du moins quand tu m'as signalé que le virus avait besoin d'énergie pour infecter )

  30. #120
    azizovsky

    Re : Entropie et information: même concept ?

    Un machin ou truc est vivant tant qu'il est capable d'exécuter la tâche qu 'il lui est assignée, la porte est vivante tant qu elle sépare deux espaces ou peut l'être .(philo )

Page 4 sur 5 PremièrePremière 4 DernièreDernière

Discussions similaires

  1. Entropie et information
    Par legyptien dans le forum Physique
    Réponses: 0
    Dernier message: 19/09/2015, 22h23
  2. Vie, entropie et information
    Par tic-tic dans le forum Biologie
    Réponses: 1
    Dernier message: 12/03/2015, 18h14
  3. Faire émerger la physique quantique d'un concept d'information
    Par invite6754323456711 dans le forum Actualités
    Réponses: 35
    Dernier message: 27/02/2014, 00h19
  4. Est-il normal que l'outil d'information soit plus valorisé que l'information elle même ?
    Par invite088bdfed dans le forum Discussions scientifiques
    Réponses: 3
    Dernier message: 04/02/2012, 21h57
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 12h04