Entropie et information: même concept ? - Page 3
Répondre à la discussion
Page 3 sur 5 PremièrePremière 3 DernièreDernière
Affichage des résultats 61 à 90 sur 122

Entropie et information: même concept ?



  1. #61
    stefjm

    Re : Entropie et information: même concept ?


    ------

    Je devine plein de lien, plus ou moins évident pour moi.

    Un papier sur le sujet :
    Information theoretic aspects of feedback control systems
    John L.Barnes
    https://www.sciencedirect.com/scienc...05109868900125

    Pour l'exemple humain, on peut prendre un robot si on préfère éviter la complexité humaine (ou le régulateur de vitesse d'une voiture).

    -----
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  2. #62
    sunyata

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    Dans ce contexte quel usage est fait la théorie mathématique des communications formulées par Shannon ?

    Cordialement,
    A mon sens,

    Les chaines de régulation relèvent plutôt de la cybernétique.
    L'outil mathématique est le calcul des fonctions de transferts.
    L'outil technique type est le régulateur PID
    (Proportionnel-Dérivée-Intégral)

    Yvon doit en savoir long sur le sujet...

    Cordialement

  3. #63
    Sethy

    Re : Entropie et information: même concept ?

    J'aimerais poser une question de Béotien.

    Pour moi, ce qui est clé dans le concept d'entropie, c'est qu'il donne un sens au temps pour le système étudié. Dans les deux acceptations du mot "sens" d'ailleurs.

    Si je prends la théorie de l'information, appliquée au domaine de l'information uniquement, où ces deux acceptations du "sens au temps" apparaissent-elles ?

    Quand je parle du domaine de l'information, je parle bien du vivier initial dans lequel cette théorie est apparue et en excluant les éventuels prolongements physiques.

    Je vois qu'il est question de chaine de caractères par exemple, si on s'en tient à cet exemple. Où se situe le temps et en quoi l'entropie d'un tel système évolue-t-elle pour donner une direction à l'écoulement du temps.

    P.S. : Les explications à base de système de rétro-actions qu'ils soient conceptuels, chimiques, mécaniques ou électriques me sont connues et ne m'aideront pas à répondre à la question que je pose.
    Dernière modification par Sethy ; 01/12/2018 à 14h44.

  4. #64
    Sethy

    Re : Entropie et information: même concept ?

    P.P.S : A moins bien sûr que les rétroactions soient nécessaires à la compréhension pour le cas des chaines de caractères bien sûr.

  5. #65
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Pour moi, ce qui est clé dans le concept d'entropie, c'est qu'il donne un sens au temps pour le système étudié. Dans les deux acceptations du mot "sens" d'ailleurs.
    [...]
    P.S. : Les explications à base de système de rétro-actions qu'ils soient conceptuels, chimiques, mécaniques ou électriques me sont connues et ne m'aideront pas à répondre à la question que je pose.
    Et pourtant...
    La boucle fermée A/(1+AB) réalise l'opération 1/B en régime permanent s'il y a une intégration dans A (approximativement si gain statique grand).
    Si B est causal, 1/B ne l'est pas mais on l'obtient quand grâce à la BF.

    La boucle Fermée inverse le sens normal de fonctionnement des systèmes en boucle ouverte.

    Grâce à cela, une réaction impossible dans un sens, devient possible.

    Évidemment, cela n'est gratuit ni en énergie, ni en entropie.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  6. #66
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Pour l'exemple humain, on peut prendre un robot si on préfère éviter la complexité humaine (ou le régulateur de vitesse d'une voiture).
    Je suis preneur d'un exemple simple présentant les concepts car l'article est plutôt "hermétique" pour un premier contact. On perçoit qu'il est fait usage de choix de message parmi N.

    To supply the information-theoretic foundation for servo theory a basic choice information theory is first developed from concepts of waves, counting states and cells associated with waves, and wave theory in the form of Laplace-Fourier transformations. The related bandwidth principle, i.e., the uncertainty principle, is derived mathematically from wave properties; and then combined with the relativistic principle to constitute the prime set of constraints on advanced servo performance and measurement.

    The elements of any serve system translate into choice information components as follows:

    1. All wanted system input functions, represented by wave sets, contain choice information, hence are information generators so far as the isolated system is concerned. These and other input functions, also represented by wave sets, introduce noise.

    2. The wave sets of physical phenomena transport choice information from one location in time-space to another. Such communication components may be called information transporters.

    3. The wave sets of physical phenomena which store choice information over an interval of time at a location in space are called information storers or memories.

    4. The wave sets of physical phenomena which change the form of the choice carrying functions represented by wave sets, or which in some way combine such functions, are called information processors.

    5. The wave sets of physical phenomena which convert choice information carrying wave sets into physical action are actuators or information sinks.
    Cordialement,
    Dernière modification par Paradigm ; 01/12/2018 à 15h53.

  7. #67
    stefjm

    Re : Entropie et information: même concept ?

    Peut être http://fluidsengineering.asmedigital...icleid=1430404

    Je suis débutant en théorie de l'information, mais je sais quand même qu'on retrouve les mêmes noms célèbres qui ont travaillé sur les asservissement, échantillonnage et information.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  8. #68
    azizovsky

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message

    Pour moi, ce qui est clé dans le concept d'entropie, c'est qu'il donne un sens au temps pour le système étudié. Dans les deux acceptations du mot "sens" d'ailleurs.
    .
    Déjà l'entropie caractérise des propriétés moyennes dans un intervalle de temps delta t différent de 0, pour des intervalles de temps delta t trop petits, la notion d'entropie perd tous son sens (pas de valeurs instantanées de l'entropie) , je ne vois pas comment le temps émerge de l'entropie !

  9. #69
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par azizovsky Voir le message
    Déjà l'entropie caractérise des propriétés moyennes dans un intervalle de temps delta t différent de 0, pour des intervalles de temps delta t trop petits, la notion d'entropie perd tous son sens (pas de valeurs instantanées de l'entropie) , je ne vois pas comment le temps émerge de l'entropie !
    Je me souviens d'avoir vu une démonstration de Prigogine où le temps émergeait comme une conséquence des déséquilibres. Malheureusement, je n'ai jamais pu remettre la main sur cette vidéo ou cet article.

    Mais mettons même que dans cette acceptation du "sens du temps", l'entropie ne soit pas pertinente. Qu'en est-il de la flèche du temps que tant l'entropie classique que l'approche statistiques induit, je parle bien sûr dans le cas des chaines de caractères.

  10. #70
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Et pourtant...
    La boucle fermée A/(1+AB) réalise l'opération 1/B en régime permanent s'il y a une intégration dans A (approximativement si gain statique grand).
    Si B est causal, 1/B ne l'est pas mais on l'obtient quand grâce à la BF.

    La boucle Fermée inverse le sens normal de fonctionnement des systèmes en boucle ouverte.

    Grâce à cela, une réaction impossible dans un sens, devient possible.

    Évidemment, cela n'est gratuit ni en énergie, ni en entropie.
    Je suis désolé, mais je ne vois pas le lien avec la théorie de l'information.

    Pourriez-vous prendre un exemple concret tiré de de domaine ?

  11. #71
    azizovsky

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Je suis désolé, mais je ne vois pas le lien avec la théorie de l'information.

    Pourriez-vous prendre un exemple concret tiré de de domaine ?
    Pour un béotien comme moi dans ce domaine, de quelle sorte d'entropie s'agit 'il ?, car pour des variables aléatoire continue, il y'a l'entropie différentielle https://fr.wikipedia.org/wiki/Entrop...C3%A9rentielle

  12. #72
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Je suis désolé, mais je ne vois pas le lien avec la théorie de l'information.

    Pourriez-vous prendre un exemple concret tiré de de domaine ?
    J'avais donné l'exemple de la BF car cela permet de faire marcher à reverse temps et inverse fonction de transfert.

    Pour rétroaction et th info : http://www.sietmanagement.fr/theorie...-p-watzlavick/
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  13. #73
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Dans un système asservi, le régulateur reçoit l'erreur, calculée à partir de ce qu'on veut et du résultat obtenu.

    https://fr.wikipedia.org/wiki/Automa...correcteur.JPG

    Exemple:
    Je veux me tenir debout vertical : consigne angle nul/verticale
    Je mesure ma verticalité avec mes sens.
    Je constate une erreur.
    Mon cerveau-régulateur envoie des commandes à mes membres.
    Ma position change, etc...

    Si tu me pousses pas trop méchamment, je ne tombe pas.
    Et que ce passe t-il si tu es bourré. La boucle est perturbée au niveau traitement par un retard ou un temps mort qui amène à une oscillation autour de la verticale. Si le gain de boucle est supérieur à un (bien bourré) à la fréquence de l’oscillation, celle-ci s’accroît de plus en plus jusqu’au déséquilibre final.
    Pour plus de détails sur ce problème voir: Le lévrier et le lapin.pdf
    Comparaison avec la régulation d'un axe d'une fraiseuse
    Dernière modification par yvon l ; 01/12/2018 à 20h02.

  14. #74
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    J'avais donné l'exemple de la BF car cela permet de faire marcher à reverse temps et inverse fonction de transfert.

    Pour rétroaction et th info : http://www.sietmanagement.fr/theorie...-p-watzlavick/
    J'avais plutôt demandé "sans" rétroaction.

    Je prends un exemple "physique".

    Imaginons une solution de départ au les X représentent une molécule de colorant et le O une molécule d'eau :

    Si je pars de ce mélange et que je laisse la diffusion opérer :

    XXXXOOOO
    XXXXOOOO
    XXXXOOOO
    XXXXOOOO

    Il existe 4 chances sur 601080390 pour que le mélange soit à nouveau totalement séparé. On "voit" ici un sens au temps qui va de la situation ordonnée à la situation moins ordonnée.

    Est-ce qu'il y a moyen de prendre un exemple concret avec une suite de caractère pour me montrer où se situe la flèche du temps en théorie de l'information ?
    Dernière modification par Sethy ; 01/12/2018 à 21h52.

  15. #75
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Peut être http://fluidsengineering.asmedigital...icleid=1430404

    Je suis débutant en théorie de l'information, mais je sais quand même qu'on retrouve les mêmes noms célèbres qui ont travaillé sur les asservissement, échantillonnage et information.
    La je le comprend comme une voie retour qui peut être exploitée pour gérer les pertes sur la voie aller. Il y a des techniques de code à effacement qui exploitent une voie retour comme par exemple la solution Tetrys de l'école ISAE-SUPAERO.

    Cordialement,
    Dernière modification par Paradigm ; 01/12/2018 à 23h42.

  16. #76
    sunyata

    Re : Entropie et information: même concept ?

    Citation Envoyé par azizovsky Voir le message
    Déjà l'entropie caractérise des propriétés moyennes dans un intervalle de temps delta t différent de 0, pour des intervalles de temps delta t trop petits, la notion d'entropie perd tous son sens (pas de valeurs instantanées de l'entropie) , je ne vois pas comment le temps émerge de l'entropie !
    Bonjour,

    Dites moi si je me trompe, mais ce que j'ai compris c'est que ce n'est pas le temps qui émerge de l'entropie mais la flèche Du temps qui est son sens d'écoulement. Ceci parce que l'entropie d'aprés le (second principe) est croissante.

    Cordialement
    Dernière modification par sunyata ; 02/12/2018 à 06h43.

  17. #77
    azizovsky

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    Bonjour,

    Dites moi si je me trompe, mais ce que j'ai compris c'est que ce n'est pas le temps qui émerge de l'entropie mais la flèche Du temps qui est son sens d'écoulement. Ceci parce que l'entropie d'aprés le (second principe) est croissante.

    Cordialement
    Je ne sais pas, un exemple pour la chute d'un corps, le travail : w=k[1/r(2)-1/r(1)] , pour l'entropie de deux corps ds=dQ[1/T(1)-1/T(2)]>0, l'énergie est transférée du corps chaud vers le corps froid, c'est la même chose que le corps tombe s'il est libre...., est ce que le temps a pris une direction dans ce cas ? (les équations de la dynamique sont réversibles, mais la chute à un seule sens ...)

  18. #78
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par Paradigm Voir le message
    (..)
    Recevoir les bits que tu émets quel en serait l'utilité ? Ce qui est visé dans les communications c'est la corrélation maximale p(x/y) = 1 et donc maximiser l'information mutuelle I(X, Y). C'est a dire transmettre des messages sans aucune erreur de transmission.

    Cordialement,
    Bon, je crois ici qu’on s’écarte du débat. La boucle est utilisée ici pour améliorer la validité de l’information transférée. Pour faire simple, le récepteur demande au locuteur de répéter ou confirmer son message (locuteur → récepteur → locuteur → récepteur )= boucle

  19. #79
    stefjm

    Re : Entropie et information: même concept ?

    Citation Envoyé par Sethy Voir le message
    Si je pars de ce mélange et que je laisse la diffusion opérer :

    XXXXOOOO
    XXXXOOOO
    XXXXOOOO
    XXXXOOOO

    Il existe 4 chances sur 601080390 pour que le mélange soit à nouveau totalement séparé. On "voit" ici un sens au temps qui va de la situation ordonnée à la situation moins ordonnée.
    Dans cet exemple, je ne vois pas le temps.
    et quel est la relation d'ordre?
    La cas le plus désordonné est-il?
    OXOXOXOX
    XOXOXOXO
    OXOXOXOX
    XOXOXOXO

    C'est tout aussi bien rangé qu'au départ....
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  20. #80
    yvon l

    Re : Entropie et information: même concept ?

    Exemple pour expliquer dans les sciences appliquées de nombreux problèmes liés au couple information-entropie.

    Préambule .Pour les matheux je me réfère au théorème de*Green-Ostrogradski, ( voire wiki https://fr.wikipedia.org/wiki/Th%C3%...lux-divergence
    Pour les autres, traduction: l’intégrale triple correspond à un volume contenant de la matière et ou de l’énergie. Ce contenu est connu à une constante près (opérateur nabla)
    L’intégrale double correspond à la surface totale du volume par lequel des flux matière/énergie passent pour modifier le contenu du volume. Ceci correspond au transfert des matières/énergie.

    Exemple de la montre.
    Considérons une montre équipée de
    -Un balancier (volant d’inertie+ressort): le système
    -Une source d’énergie, par exemple une pile
    -Un environnement dans lequel les pertes se dissipent.
    -Un flux de basse entropie entre la pile et le balancier. Ce flux est contrôlé par un petit démon mécanique qui pilote ce flux.
    -Un flux entre le balancier et l’environnement correspondant à la chaleur qui va se dissiper dans ce dernier.
    Le balancier est l’organe principal, c’est le système étudier (volume) dont une partie de l’énergie interne est de l’énergie mécanique constante quand l’amplitude du balancement est constante . Cette énergie est la somme de 2 énergies en transfert permanent, une cinétique (volant) et l’autre potentiel (ressort). Cette énergie W a une entropie nulle du fait d'un système avec transfert mécanique bien localisé .
    En fonctionnement, le balancier est sujet à des pertes par frottement, c’est-à-dire à un flux sortant de forte entropie sous forme de chaleur qui se dissipe dans l’environnement.
    Pour maintenir son énergie W de faible entropie le balancier a besoin d’un flux d’énergie de faible entropie. C’est ce flux provenant de la pile que le démon fournit au balancier pour compenser le flux sortant. Quand le flux entrant (basse entropie ) égal au flux sortant (chaleur =forte entropie) l’énergie dans le balancier (le système étudié) reste constant (balancement d’amplitude constante).
    Pour pouvoir contrôler l’énergie entrante, le démon utilise une information simple qui est contenue dans l’amplitude du mouvement. Si le démon constate que l’information correspond à une amplitude trop grande il réduit le flux entrant (mais on pourrait aussi jouer sur le flux sortant: freinage). On voit dans l’exemple que l’information est dans le mouvement structuré du balancier.
    Cette information dans l’exemple est de type mémoire inertielle. En effet si par exemple le flux d’entrée disparaît, le mécanisme continue temps que l’énergie n’est pas complètement évacuée par le flux de sortie.
    Ici, la précision du système dépend essentiellement de la qualité de la mesure et du traitement de l’information. Dans l’exemple le démon est un mécanisme artificiel ainsi que l’expression de l’information à traiter.
    Bref, le système est traversé par un flux dont l’entropie augmente pour maintenir l’entropie basse du système. Le tout contrôlé par une information provenant d’un système de faible entropie

  21. #81
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Dans cet exemple, je ne vois pas le temps.
    et quel est la relation d'ordre?
    La cas le plus désordonné est-il?
    OXOXOXOX
    XOXOXOXO
    OXOXOXOX
    XOXOXOXO

    C'est tout aussi bien rangé qu'au départ....
    Cette configuration est équiprobable à toutes les autres en ce compris les 4 "initiales". Maintenant que nous en avons identifié 6 "ordonnées", il n'en reste plus que 601.080.384 autres toutes aussi équiprobables. Et qui sont elles, bien moins ordonnées.

    P.S. : Une suggestion, il faut jouer le ballon et pas le joueur. Si tu ne fais pas ça, tu perds toujours.
    Dernière modification par Sethy ; 02/12/2018 à 15h41.

  22. #82
    sunyata

    Unhappy Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Bon, je crois ici qu’on s’écarte du débat. La boucle est utilisée ici pour améliorer la validité de l’information transférée. Pour faire simple, le récepteur demande au locuteur de répéter ou confirmer son message (locuteur → récepteur → locuteur → récepteur )= boucle
    Bonsoir,

    Pour ce qui est de l'histoire du concept d'information on peut voir un certain clivage entre l'approche de Shannon qui conceptualise l'information comme code, et l'approche cybernétique de Norman Wienner qui conceptualise l'information en tant que signal. C'est aussi un jeu d'opposition entre le discret et le continu...

    Cordialement
    Dernière modification par sunyata ; 02/12/2018 à 19h04.

  23. #83
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par sunyata Voir le message
    Bonsoir,

    Pour ce qui est du concept d'information on peut voir un certain clivage entre l'approche de Shannon qui conceptualise l'information comme code, et l'approche cybernétique de Norman Wienner qui conceptualise l'information en tant que signal. C'est aussi un jeu d'opposition entre le discret et le continu...

    Cordialement
    Pas une opposition, l'information est aussi un concept analogique. Songe à nos sens qui nous permettent de communiquer. En électronique, avant l’avènement du digital, les études théoriques portaient sur des modèles purement analogiques (basés surtout sur des signaux sinusoïdaux) (bande passante, modulation décomposition de fourrier d'un signal analogique ...). (microsillon avant CD)
    Dernière modification par yvon l ; 02/12/2018 à 19h23.

  24. #84
    stefjm

    Re : Entropie et information: même concept ?

    D'autant que le théorème d'échantillonnage de Shannon donne les conditions pour qu'il y ait équivalence entre continu et discret.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  25. #85
    chaverondier

    Re : Entropie et information: même concept ?

    Citation Envoyé par stefjm Voir le message
    Dans cet exemple, je ne vois pas le temps. Et quel est la relation d'ordre?
    Le cas le plus désordonné est-il?
    OXOXOXOX
    XOXOXOXO

    C'est tout aussi bien rangé qu'au départ...
    En fait, c'est toute la discussion sur le paradoxe de l'écoulement irréversible du temps (entre autres, le caractère subjectif de cette notion d'ordre, cf. le phénomène d'écho de spin ou un désordre apparent masque un ordre caché, R. Balian explique ça très bien).

    L'écoulement irréversible du temps émerge facilement quand on fait intervenir la myopie de l'observateur macroscopique. Les états d'un système perçus comme identiques du point de vue des grandeurs macroscopiques le caractérisant à l'échelle d'observation macroscopique ne sont pas du tout équiprobables.

    Des états macroscopiques distincts (notion d'état macroscopique n'ayant pas de sens dans un système comportant seulement 8 particules) regroupent des états microscopiques en nombre gigantesquement différents. L'évolution s'effectue donc naturellement (selon la grille de lecture de l'observateur macroscopique) en direction des états macroscopiques les plus probables et tout retour en arrière est hautement improbable (1).

    Dans ce contexte, quand on caractérise ces états successifs par les seules grandeurs macroscopiques pertinentes à une échelle d'observation macroscopique, l'information qui manque à cet observateur macroscopique pour caractériser complètement l'état du système observé c'est l'entropie, S = log(N) (à une constante multiplicative près correspondant au choix de l'unité de température) où N désigne le nombre d'états microscopiques regroupés dans un même état macroscopique (2).

    Quand on fait tomber une goutte d'encre dans un verre d'eau par exemple, puis qu'on la laisse diffuser et que l'on prend des photos successives de cette évolution, on n'a pas de mal, si on mélange les photos, à savoir dans quel ordre on doit les reclasser pour restaurer l'ordre chronologique selon lequel ces photos ont été prises.

    A cause du caractère (en théorie) isentropique de l'évolution des systèmes isolés (cf. Le théorème de Liouville), l'émergence de l'écoulement irréversible du temps est interprété (du moins selon le courant de pensée qui me semble être majoritaire), comme une émergence thermodynamique statistique. cf.
    Ce n'est toutefois pas le point de vue de l'école de Bruxelles-Austin (les Prigogine, Petrosky, Bohm, Gadella, De la Madrid, Résibois, Antoniou) mettant en avant des phénomènes de diffusion persistante et tous les systèmes modélisables en tant que grands systèmes non intégrables de Poincaré.
    Cf. The extension of classical dynamics for unstable Hamiltonian systems par exemple.

    Selon ce point de vue, il y aurait bien fuite définitive d'information hors de portée de tout observateur à toutes les échelles d'observation. La création d'entropie caractéristique de l'écoulement irréversible du temps, autrement dit la fuite d'information hors de portée de l'observateur aurait donc, selon ce point de vue minoritaire me semble-t-il, un caractère de "fait de nature" par opposition au caractère subjectif défendu par le courant de pensée qui me semble majoritaire.

    (1) Cf. Les urnes de Ehrenfest. Avec 100 billes dans une urne et aucune dans l'autre au départ et un tirage aléatoire de changement d'urne par seconde, le temps de relaxation (temps pour atteindre l'état d'équilibre, état où on a 50 billes de chaque côté) est de l'ordre de 150 tirages aléatoires. Le temps de récurrence quant à lui (nombre de tirages aléatoires pour revenir à l'état initial) est de l'ordre de 3000 milliards de fois l'age de l'univers.

    (2) Certains préfèreront parler de mesure de Shannon de l'information et réserver la désignation d'entropie à la valeur de cette mesure quand le système considéré a atteint un état d'équilibre. Pour ma part, j'ai simplement tendance à voir ça comme une question sémantique.

  26. #86
    sunyata

    Re : Entropie et information: même concept ?

    En effet , mais il y a bien 2 type d'informations
    L'info-code et l'info-signal.
    Ce qu'on retrouve d'ailleurs dans la physique :
    L'energie potentielle, et l'energie cinétique, c'est a dire circulante (flux)
    Cela irrigue toute la physique y compris l'équation de Shrödinger...

    Cordialement

  27. #87
    yvon l

    Re : Entropie et information: même concept ?

    Citation Envoyé par chaverondier Voir le message
    (..)
    A cause du caractère (en théorie) isentropique de l'évolution des systèmes isolés (cf. Le théorème de Liouville), l'émergence de l'écoulement irréversible du temps est interprété (du moins selon le courant de pensée qui me semble être majoritaire), comme une émergence thermodynamique statistique. cf. (..)
    Cela en partant des interactions simples que l’on trouve au niveau microscopique.
    Plus généralement, l’observateur, à une certaine échelle, peut voir apparaître localement des flux (traversant) de matière /énergie, qui sont catalogués propriétés émergentes. L’une d’elles est la diminution (ou la conservation) d’une entropie locale basse(réfléchir sur l’exemple #80 de maintien d’une basse entropie grâce à un flux d’énergie «traversant» subissant une augmentation d’entropie générale).
    Je pense que cela complique les deux visions proposées.

  28. #88
    yvon l

    Re : Entropie et information: même concept ?

    Ma vision (simpliste) du temps (avant même de parler de sa flèche).
    Comme je le comprends, dans un monde isentropique à toutes les échelles, le temps n’existe pas. L’énergie/matière d’un tel monde ne subit aucun transfert observable d’énergie matière , c’est-à-dire pas de flux . Hors pour moi le temps est lié au flux (on parle de puissance du flux), pas directement à la matière et à l’énergie.
    Par contre on pourrait discuter à partir de quelle échelle d’observation on se situe pour voir apparaître les flux. (donc pour moi le temps). Idem pour discuter de la flèche du temps

  29. #89
    Sethy

    Re : Entropie et information: même concept ?

    Citation Envoyé par chaverondier Voir le message
    L'écoulement irréversible du temps émerge facilement quand on fait intervenir la myopie de l'observateur macroscopique. Les états d'un système perçus comme identiques du point de vue des grandeurs macroscopiques le caractérisant à l'échelle d'observation macroscopique ne sont pas du tout équiprobables.

    Des états macroscopiques distincts (notion d'état macroscopique n'ayant pas de sens dans un système comportant seulement 8 particules) regroupent des états microscopiques en nombre gigantesquement différents. L'évolution s'effectue donc naturellement (selon la grille de lecture de l'observateur macroscopique) en direction des états macroscopiques les plus probables et tout retour en arrière est hautement improbable (1).
    Même avec 8 particules (4+4), il y a déjà 70 combinaisons possibles dont une seule est strictement identique à la configuration de départ.

  30. #90
    Paradigm

    Re : Entropie et information: même concept ?

    Citation Envoyé par yvon l Voir le message
    Bon, je crois ici qu’on s’écarte du débat. La boucle est utilisée ici pour améliorer la validité de l’information transférée. Pour faire simple, le récepteur demande au locuteur de répéter ou confirmer son message (locuteur → récepteur → locuteur → récepteur )= boucle
    Ce dont vous parlez alors c'est juste une communication bidirectionnelle. Pour faire simple : Émetteur A ---> récepteur B et Émetteur B ----> récepteur A. Il n'y a pas de boucle Emetteur <----> Emetteur.

    Cordialement,

Page 3 sur 5 PremièrePremière 3 DernièreDernière

Discussions similaires

  1. Entropie et information
    Par legyptien dans le forum Physique
    Réponses: 0
    Dernier message: 19/09/2015, 23h23
  2. Vie, entropie et information
    Par tic-tic dans le forum Biologie
    Réponses: 1
    Dernier message: 12/03/2015, 19h14
  3. Faire émerger la physique quantique d'un concept d'information
    Par invite6754323456711 dans le forum Actualités
    Réponses: 35
    Dernier message: 27/02/2014, 01h19
  4. Est-il normal que l'outil d'information soit plus valorisé que l'information elle même ?
    Par invite088bdfed dans le forum Discussions scientifiques
    Réponses: 3
    Dernier message: 04/02/2012, 22h57
  5. capacité information et entropie
    Par invitea86d6f62 dans le forum Physique
    Réponses: 2
    Dernier message: 15/03/2009, 13h04