Interprétation concrète de l'entropie - Page 2
Répondre à la discussion
Page 2 sur 2 PremièrePremière 2
Affichage des résultats 31 à 46 sur 46

Interprétation concrète de l'entropie



  1. #31
    invite962bb108

    Re : Interprétation concrète de l'entropie


    ------

    Bonjour,

    1) C'est simplement pour vérifier :
    *Pour une transformation réversible : DELTA(S)=0=Se car pas d'entropie créée
    *Sinon : DELTA(S)>0 : Sc>0 et Se non nul

    *Pour une transformation adiabatique réversible :
    DELTA(S)=0, avec Se=0 et Sc=0

    *Pour une transformation adiabatique irréversible :
    DELTA(S)=Sc>0 et Se=0

    2) Sinon, de manière générale, pour un système, lorsqu'on a DELTA(S)>0 ; on en déduit que la transformation est irréversible.

    Merci.

    -----

  2. #32
    mariposa

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par alphons Voir le message
    Bonjour,

    1) C'est simplement pour vérifier :
    *Pour une transformation réversible : DELTA(S)=0=Se car pas d'entropie créée
    *Sinon : DELTA(S)>0 : Sc>0 et Se non nul

    *Pour une transformation adiabatique réversible :
    DELTA(S)=0, avec Se=0 et Sc=0

    *Pour une transformation adiabatique irréversible :
    DELTA(S)=Sc>0 et Se=0

    2) Sinon, de manière générale, pour un système, lorsqu'on a DELTA(S)>0 ; on en déduit que la transformation est irréversible.

    Merci.
    .
    Bonjour,

    c'est juste à condition de préciser qu'il s'agit de transformation cyclique dans ce cas.

  3. #33
    invite962bb108

    Re : Interprétation concrète de l'entropie

    D'accord, merci.

  4. #34
    EspritTordu

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par Michel (mmy) Voir le message
    Qu'est-ce que veut dire "utile"? Qu'est-ce que veut dire "connaître"?

    Ce ne sont pas des termes de physique!

    Décrire l'entropie comme lié à l'information nécessaire pour le décrire pose immédiatement une question non physique qui est "qu'est ce qu'une description d'un système?"
    Je veux dire par utile, l'information minimale nécessaire pour reproduire à l'identique le système que décrit la dite information. Pour exemple, j' écris justement ce nombre décimal 01,100 mais l'information utile dans mon étude est seulement 1,1. (le tout est de limiter le cadre d'étude de manière subjective à un moment donné je crois...)

    Vous arrivez à une question fondamentale, voire philosophique! Pour moi, aujourd'hui (je ne suis pas physicien...), la physique est une activité qui se résume par tenter de décrire les phénomènes naturels, les systèmes naturels(le terme système est d'ailleurs je crois une réduction d'étude). C'est-à-dire, au début on observe, avec des expériences, les phénomènes, et on en tire des règles pour l'anticiper ; on cherche l'information, et on trouve la règle pour l'anticiper, non? Connaître un système, c'est savoir les informations de départ et puis savoir continuement comment se trouve ce dernier. Peut-on alors dire que la physique, ce n'est au fond que de l'info?


    Le sens, la signification. La capacité de Shannon parle de capacité d'information, pas de sens.

    Dans ma profession, les élèves sont toujours étonnés quand on leur dit qu'un signal tiré au hasard, ou du bruit blanc, contient le maximum d'information au sens de Shannon. Qu'une photo avec tous les pixels tirés au hasard contienne bien plus d'information que la photo d'un paysage choque, usuellement, le sens commun. Parce que, pour le sens commun, le mot information est lié à la signification, à la sémantique du message/texte/photo, ...
    J'avoue n'avoir qu'entendu parler de Shannon...
    C'est vrai que votre exemple d'image est choquant. Mais après réflexion, cela ne me semble pas si déplacé que cela : en effet, l'information au sens de la signification n'est elle pas une manière grossière de décrire la dite image? Je veux dire que si vous montrez un pont au dessus d'une vallée, demandez alors de représenter à une population d'individu cette image en leur disant qu'il s'agit d'un pont et d'une vallée, vous vous retrouverez avec des exemples différents mais similaires nécessairement : je veux dire que c'est reproductible. Maintenant une image avec des pixels piochés au hasard, il semble vraiment difficile de décrire une telle image pour qu'elle puisse être transmise.... un amalgame de pixels colorés alors? les différences vont être si nombreuses que l'image de départ ne pourra plus être comparée à celle de fin; l'info de départ va se perdre.


    Au sens propre, c'est exactement la même: l'infini. Coder la position d'une particule (la "connaissance" peut se mesurer par la capacité nécessaire pour transmettre cette connaissance à quelqu'un d'autre) demande un nombre de bits infini, l'espace étant continu.
    ....C'est exact, la physique classique suppose un espace continu et non pas un espace échantillonné comme peuvent l'être les espaces créés par informatique (ou la physique quantique??)...
    L'espace est continu, et cela suppose une précision infinitésimal effectivement, mais les limites du groupe d'étude des particules n'impose-il pas une information plus importante si le volume augmente : Si on a un carré de 10 on va avoir un nombre de position compris (pour chaque coordonnée) entre 0 et 10 et avoir une précision décimale infinitésimale. Si on a alors un carré de 100, on conserve la même unité de longueur, on doit alors s'attendre à une position codée entre 1 et 100 tout en conservant l'infinité pour la précision décimale.... d'où plus d'information quoi qu'il en soit, même à l'infini, non?

  5. #35
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Bonjour,

    Citation Envoyé par EspritTordu Voir le message
    Je veux dire par utile, l'information minimale nécessaire pour reproduire à l'identique le système que décrit la dite information. Pour exemple, j' écris justement ce nombre décimal 01,100 mais l'information utile dans mon étude est seulement 1,1. (le tout est de limiter le cadre d'étude de manière subjective à un moment donné je crois...)
    Je ne comprends pas. Si c'est "reproduire à l'identique", il faut l'infinité des décimales. L'écriture 1,1 est juste un codage particulier du reste des décimales (des valeurs implicites, qui sont fixées par le défaut d'information qui leur donnerait explicitement une valeur). C'est une convention d'écriture, un choix d'encodage, une compression de l'information dans une représentation particulière.

    C'est un exemple complexe que tu donnes là, parce qu'il n'y a pas moyen simple de quantifier l'information que constitue la donnée d'un élément pris dans un ensemble infini. La capacité shannonienne se définit pour les ensembles finis par log(n), n étant le cardinal de l'ensemble, le choix implicite étant l'équirépartition (mais d'autres choix restent possibles, et donne une capacité d'information différente!). Pour un ensemble infini, il n'y a rien d'aussi simple; il faut toujours expliciter une répartition, et, même comme cela on ne peut quantifier l'information que pour des sous-ensembles de mesure non nulle. Par exemple, si l'ensemble (le singleton) {1,1} est de mesure 1/10 selon la répartition, alors indiquer {1,1} donne une information de 0,1 log(10) + 0,9 log(10/9). La mesure de l'information "utile" est donc conditionnelle à une donnée indépendante, qui est la répartition.


    Vous arrivez à une question fondamentale, voire philosophique!
    Oui. Mais sans réponse à cette question, toute une partie de la discussion est caduque, sans objet.

    Peut-on alors dire que la physique, ce n'est au fond que de l'info?
    Si on prend pas en compte la dimension "info" de la physique, comment traiter avec rigueur une notion comme "une description d'un système"?

    C'est vrai que votre exemple d'image est choquant. Mais après réflexion, cela ne me semble pas si déplacé que cela : en effet, l'information au sens de la signification n'est elle pas une manière grossière de décrire la dite image? Je veux dire que si vous montrez un pont au dessus d'une vallée, demandez alors de représenter à une population d'individu cette image en leur disant qu'il s'agit d'un pont et d'une vallée, vous vous retrouverez avec des exemples différents mais similaires nécessairement : je veux dire que c'est reproductible. Maintenant une image avec des pixels piochés au hasard, il semble vraiment difficile de décrire une telle image pour qu'elle puisse être transmise.... un amalgame de pixels colorés alors? les différences vont être si nombreuses que l'image de départ ne pourra plus être comparée à celle de fin; l'info de départ va se perdre.
    C'est un peu cela, la sémantique, effectivement. C'est une sorte de codage qui fait sens pour nous. Le langage est tel que ce qui fait sens aux humains s'exprime de manière courte; alors que l'information "sans signification" est impossible à transmettre autrement que de manière longue, et essentiellement obtenue par réduction: on va décrire l'image comme une liste de trucs qui font sens, ici, une liste de points et leur couleur: la position d'un point et la couleur d'un point a un sens.

    Pour la quantité d'information au sens de Shannon (somme pondérée des logs de taille de sous-ensembles formant une partition) cela démontre qu'il y a plus d'information dans une image aléatoire, puisque la moyenne (sur les images possibles) de la longueur des textes pour décrire une image aléatoire est maximum.

    ....C'est exact, la physique classique suppose un espace continu et non pas un espace échantillonné comme peuvent l'être les espaces créés par informatique (ou la physique quantique??)...
    La physique quantique actuelle ne quantifie pas l'espace. Et c'est bien le fond du problème pour une interprétation informationnelle de l'entropie!

    L'espace est continu, et cela suppose une précision infinitésimal effectivement, mais les limites du groupe d'étude des particules n'impose-il pas une information plus importante si le volume augmente
    Non. La limite, bien visible dans l'équation de l'entropie d'un gaz parfait une fois réécrite, est liée à l'indétermination de Heisenberg, et porte non pas sur le volume (une longueur au cube), mais sur le produit d'une longueur par une quantité de mouvement. Parce que, si la physique quantique ne quantifie pas les volumes, elle quantifie bien les produits longueur x quantité de mouvement!

    L'image d'un volume est parlante, mais limitée, et donc, d'une certaine manière fausse. Elle permet de comparer à masse de particule et à température égales (ce qui revient à fixer la quantité de mouvement), mais ne se généralise pas à autre chose. L'image longueur x quantité de mouvement n'est pas parlante, mais plus générale. Pour moi, quelque chose de généralisable fait toujours plus de sens qu'une vision limitée à quelques cas.

    Si on a un carré de 10 on va avoir un nombre de position compris (pour chaque coordonnée) entre 0 et 10 et avoir une précision décimale infinitésimale. Si on a alors un carré de 100, on conserve la même unité de longueur, on doit alors s'attendre à une position codée entre 1 et 100 tout en conservant l'infinité pour la précision décimale.... d'où plus d'information quoi qu'il en soit, même à l'infini, non?
    Oui et non. Dès que l'infini intervient, des paradoxes interviennent. C'est l'hôtel de Hilbert qui est adapté ici. On prend deux hôtels infinis pleins, et on désire en évacuer un tout en logeant tout le monde. Pas de problème avec des hôtels infinis, on peut effectivement loger tout les clients du second hôtel dans le premier hôtel, sans virer un quelconque client du premier hôtel. Alors, est-ce que deux hôtels ont la même capacité qu'un seul hôtel, ou le double de capacité? Les deux...

    Le seul moyen de se tirer de l'ornière qu'est l'infini est bien de quantifier, de revenir au fini. Et, une fois de plus, le volume ne s'y prête pas (dans les théories actuelles...).

    Cordialement,
    Dernière modification par invité576543 ; 24/03/2008 à 06h43.

  6. #36
    EspritTordu

    Re : Interprétation concrète de l'entropie

    Je ne comprends pas. Si c'est "reproduire à l'identique", il faut l'infinité des décimales. L'écriture 1,1 est juste un codage particulier du reste des décimales (des valeurs implicites, qui sont fixées par le défaut d'information qui leur donnerait explicitement une valeur). C'est une convention d'écriture, un choix d'encodage, une compression de l'information dans une représentation particulière.
    Ce qu'on reproduit, ce n'est le système exactement, mais la connaissance de celui-ci, d'où le nombre de décimales limitées... C'est subjectif et plus il y a de décimale plus il ya de précision et d'objectivite

    C'est un exemple complexe que tu donnes là, parce qu'il n'y a pas moyen simple de quantifier l'information que constitue la donnée d'un élément pris dans un ensemble infini. La capacité shannonienne se définit pour les ensembles finis par log(n), n étant le cardinal de l'ensemble, le choix implicite étant l'équirépartition (mais d'autres choix restent possibles, et donne une capacité d'information différente!). Pour un ensemble infini, il n'y a rien d'aussi simple; il faut toujours expliciter une répartition, et, même comme cela on ne peut quantifier l'information que pour des sous-ensembles de mesure non nulle. Par exemple, si l'ensemble (le singleton) {1,1} est de mesure 1/10 selon la répartition, alors indiquer {1,1} donne une information de 0,1 log(10) + 0,9 log(10/9). La mesure de l'information "utile" est donc conditionnelle à une donnée indépendante, qui est la répartition.
    Je ne suis pas très bien, mais l'info "utile" est bien liée à une question de répartition : si j'aligne mes briques sur une ligne, je ne vais pas répéter la localisation de chacune des briques, mais simplement dire que chacune d'elles sont décalées de la longueur de la brique précédente.
    (Cette approche de définir un objet non pas par une liste d'élément constitutifs et leur paramètres, mais par des règles, mime un peu le principe fractal, non?)

    C'est un peu cela, la sémantique, effectivement. C'est une sorte de codage qui fait sens pour nous. Le langage est tel que ce qui fait sens aux humains s'exprime de manière courte; alors que l'information "sans signification" est impossible à transmettre autrement que de manière longue, et essentiellement obtenue par réduction: on va décrire l'image comme une liste de trucs qui font sens, ici, une liste de points et leur couleur: la position d'un point et la couleur d'un point a un sens
    La notion sémantique, signifie que l'on fait référence à des notions complexe totalement indépendantes de l'image mais communes aux individus? Alors comment totalement exclure que les distances, les couleurs de pixels ne sont pas aussi dans le même lot? Je m'y perds!


    Citation:
    Si on a un carré de 10 on va avoir un nombre de position compris (pour chaque coordonnée) entre 0 et 10 et avoir une précision décimale infinitésimale. Si on a alors un carré de 100, on conserve la même unité de longueur, on doit alors s'attendre à une position codée entre 1 et 100 tout en conservant l'infinité pour la précision décimale.... d'où plus d'information quoi qu'il en soit, même à l'infini, non?

    Oui et non. Dès que l'infini intervient, des paradoxes interviennent. C'est l'hôtel de Hilbert qui est adapté ici. On prend deux hôtels infinis pleins, et on désire en évacuer un tout en logeant tout le monde. Pas de problème avec des hôtels infinis, on peut effectivement loger tout les clients du second hôtel dans le premier hôtel, sans virer un quelconque client du premier hôtel. Alors, est-ce que deux hôtels ont la même capacité qu'un seul hôtel, ou le double de capacité? Les deux...

    Le seul moyen de se tirer de l'ornière qu'est l'infini est bien de quantifier, de revenir au fini. Et, une fois de plus, le volume ne s'y prête pas (dans les théories actuelles...).
    Peut-être en prenant de plus grand nombre, cela est plus frappant : il tout de même plus difficile de parler de million que d'une dizaine tout de même? Dans les deux cas on dit implicitement que l'on a considéré un million d'objets indépendants contre une dizaine (la distance paraît être aussi une notion de groupe).

    l'hôtel de Hilbert qui est adapté ici. On prend deux hôtels infinis pleins
    N'y-a-t-il pas une contraction dans ce paradoxe d'Hilbert : on considère des hôtels infinis (c'est donc sans fin au sens stricte) avec une notion antynomique de "finie", dans la mesure que pour quelque chose soit plein, il faut lui déterminer une limite, une fin...?


    Je me disais que considérer seulement le volume d'un groupe est peut-être une simplification qui exclut la dimension temporelle qu'induit la masse et la vitesse (la quantité de mouvement) effectivement.
    Dernière modification par EspritTordu ; 24/03/2008 à 10h55.

  7. #37
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par EspritTordu Voir le message
    La notion sémantique, signifie que l'on fait référence à des notions complexe totalement indépendantes de l'image mais communes aux individus? Alors comment totalement exclure que les distances, les couleurs de pixels ne sont pas aussi dans le même lot?
    Je ne l'exclus pas. Au contraire, relis le texte. Je dis juste que pour une image aléatoire c'est tout ce qui reste comme "sens", et donc oblige une description par une liste très très longue de position/couleur.

    Cordialement,

  8. #38
    invite54165721

    Re : Interprétation concrète de l'entropie

    Bonjour,

    Une question à propos d'images et d'entropie.

    Quand j'ai une image avec autant de pixels, autant de millions de couleurs possibles etc, le nb de possibilités d'images est fixé et on peut calculer la quantité d'information contenue dans une information (le même ordinateur qui affiche l'image pourrait afficher à la demande l'entropie de l'image).

    Qu'en est il pour une photo argentique, ou encore mieux pour ce que je vois par ma fenetre? qu'en diraient deux ordinateurs munis de capteurs de générations différentes. Des valeurs proches pour l'entropie?
    Dernière modification par alovesupreme ; 24/03/2008 à 14h40.

  9. #39
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par alovesupreme Voir le message
    Une question à propos d'images et d'entropie.

    Quand j'ai une image avec autant de pixels, autant de millions de couleurs possibles etc, le nb de possibilités d'images est fixé et on peut calculer la quantité d'information contenue dans une information (le même ordinateur qui affiche l'image pourrait afficher à la demande l'entropie de l'image).
    Avant de répondre à la question du message, j'arrête là, pour en poser une autre: c'est quoi pour toi l'entropie d'une image pixélisée? Que proposerais-tu comme algorithme pour la calculer?

    Cordialement,

  10. #40
    invite54165721

    Re : Interprétation concrète de l'entropie

    J'ai trouvé cette définition qui me semble possible
    http://villemin.gerard.free.fr/Wwwgv...s/Entropie.htm
    L'image étant codée en bit et N0 le nb de 0, N1 le nb de
    Entropie = - N0 log(N0/N) - N1 log (N1/N) (N=N0+N1)

  11. #41
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par alovesupreme Voir le message
    J'ai trouvé cette définition qui me semble possible
    http://villemin.gerard.free.fr/Wwwgv...s/Entropie.htm
    L'image étant codée en bit et N0 le nb de 0, N1 le nb de
    Entropie = - N0 log(N0/N) - N1 log (N1/N) (N=N0+N1)
    Pourquoi pas, mais ça n'a aucun sens pratique. Cette fonction n'est pas stable pour des transcodages élémentaires, par exemple.

    C'est une "sous-fonction" d'une plus générale (mais quand même discutable) qui est le taux de redondance.

    En effet, si une suite de n bits est telle que -N0log(N0/N)-N1log(N/N1) n'est pas égale à N bits, la différence montre qu'il est facile de comprimer (=ôter la redondance) du taux correspondant (si elle vaut N/2 bits -ce qui correspond à N0 ou N1 égal proche de 1/8-, alors il existe un moyen de comprimer sans perte le fichier par 2).

    Mais il y a bien d'autres formes de redondance que le non équilibre entre l'usage du 0 et l'usage du 1.

    Il existe donc une mesure (non définissable sur une seule image, il faut un ensemble d'images; mais la notion est stable pour tout transcodage une fois préciser l'ensemble) qui est le taux de redondance, autrement dit le rapport entre le nombre de bits utilisés et la taille la plus comprimée possible pour passer l'information. C'est en fait très simple, puisque si les images de l'ensemble sont équiprobables, c'est juste le log de la taille de l'ensemble... (Mais en pratique on ne sait pas définir précisément l'ensemble...)

    Cordialement,

  12. #42
    invite54165721

    Re : Interprétation concrète de l'entropie

    En fait mon intérêt ne se porte pas beaucoup sur le côté codage de l'information.
    Je me demandais surtout si l'utilisation de l'informatique pourrait nous fournir des données chiffrées sur l'entropie physique d'un système.
    Par exemple un système planaire macroscopique d'atomes. Quel rapport entre son entropie et l'entropie au sens informatique des informations captables.

  13. #43
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Bonsoir,

    J'ai du mal à voir la cohérence entre:

    Citation Envoyé par alovesupreme Voir le message
    En fait mon intérêt ne se porte pas beaucoup sur le côté codage de l'information.
    et

    Par exemple un système planaire macroscopique d'atomes. Quel rapport entre son entropie et l'entropie au sens informatique des informations captables.
    La notion d'entropie "au sens informatique", je ne connais qu'en rapport avec le codage de l'information.

    La seule application du mot entropie (utilisation que je trouve impropre, et amenant à des amalgames qui ne font pas sens pour moi) en "informatique", est "la capacité minimale nécessaire pour encoder l'information consistant en un élément d'un ensemble fini E, étant donné une fonction de partition de 1 par les éléments de E, c'est à dire une fonction p:E --> [0,1] telle que la somme des p(x), x parcourant E, est égale à 1"

    cette fonction est . Si le log est en base 2, la capacité est alors exprimé en bits, le bit étant une unité de capacité d'information (ou mieux, de capacité de transfert d'information, en incluant dans transfert aussi bien la transmission que la mémorisation, cette dernière étant vue comme un transfert dans le temps).

    Ce théorème porte bien sur l'encodage: il donne une borne inférieure à la capacité de transfert nécessaire tel qu'il existe un encodage (une représentation) de l'information compatible avec cette capacité. Il n'est pas constructif, il n'indique pas cet encodage. (Pour le cas binaire, le codage de Huffmann est un exemple constructif d'un encodage optimal.)

    Le cas élémentaire d'application est une information consistant en un élément pris dans un ensemble de deux éléments {a, b}, avec équidistribution, c-à-d p(a)=p(b)=1/2. Alors la capacité minimale est 1 bit, comme on pourra aisément le calculer, ce qui veut dire qu'il existe un encodage minimal pour un transfert à base de symboles binaires, par exemple polarité N/S --> a, polarité S/N --> b si le transfert est une mémorisation sur une mémoire magnétique bistable.

    ---

    Je comprends très bien qu'on ne soit pas intéressé sur le codage de l'information. Mais dans ce cas, faut chercher ailleurs une interprétation concrète de l'entropie!

    Cordialement,

  14. #44
    invite54165721

    Re : Interprétation concrète de l'entropie

    Bonsoir,

    Par rapport à ta dernière phrase il me semblait que ce fil se rapportait à l'interprétation concrète de l'entropie pour des ensembles de molécules. (Se reporter au post N° 1 de Alphons).

    Quand on voit que dans des livres on définit un état comme étant à l'équilibre thermique si son entropie est maximale, la température comme définie à l'aide de la dérivée de l'entropie par rapport à l'énergie il devient effectivement urgent de voir de quoi l'on parle concrètement.

    Si l'étude des codages de l'information peut apporter une meilleure interprétation de l'entropie tant mieux. Et je te lirai, bien sur avec la plus grande attention.





    Si

  15. #45
    invité576543
    Invité

    Re : Interprétation concrète de l'entropie

    Bonsoir,

    Citation Envoyé par alovesupreme Voir le message
    Si l'étude des codages de l'information peut apporter une meilleure interprétation de l'entropie tant mieux. Et je te lirai, bien sur avec la plus grande attention.
    Je ne sais pas si j'ai été clair. Je précise donc que si je développe en détail la théorie de l'information appliquée concrètement à l'informatique et télécom, c'est parce que je ne pense pas qu'elle puisse apporter directement et simplement une meilleure interprétation de l'entropie en physique.

    Mais comment le montrer si les détails techniques de cette théorie appliquée ne sont pas connus?

    Cordialement,

  16. #46
    invite54165721

    Re : Interprétation concrète de l'entropie

    Citation Envoyé par Michel (mmy) Voir le message
    Avant de répondre à la question du message, j'arrête là, pour en poser une autre: c'est quoi pour toi l'entropie d'une image pixélisée? Que proposerais-tu comme algorithme pour la calculer?

    Cordialement,
    Je vais essayer d'une autre façon.

    L'écran est noir et blanc (nostalgie...) N pixel sont allumés sur H*L possibles.
    Par la pensée on coupe l'écran en deux parties égales et on appele n le nb de pixels allumés à gauche. Ca peut représenter des molécules.
    On peut dénombrer le nombre de configurations avec n pixels à gauche, N-n à droite. En se fixant un intervalle n, n+dn on a un nombre de configurations équivalentes.
    Il y a une entropie partielle pour cet intervalle définie Par
    Si l'on considère que c'est l'image d'un système donné, n n+dn correspond à une partie des états accesibles pour ce système d'entropie totale S.
    On doit avoir S((n,dn) < S
    Là je citerai mon bouquin de stat:
    Si dn est fixé S(n,dn) est une variable S(n) qui est maximale pour n = N/2. Pour les grands systèmes S(N/2) équivaut à S.

    Une image pixélisée d'un système isolé au départ pourrait ainsi nous fournir en principe une évaluation de l'entropie (quitte à la modifier complètement)
    Je me posais donc la question de savoir ce que çà donnerait avec une pixélisation beaucoup plus fine.

    Je n'exclus pas du tout avoir mal compris les entropies partielles dans mon livre.

    Dans ce cas merci à ceux qui peuvent rectifier ma prose.

Page 2 sur 2 PremièrePremière 2

Discussions similaires

  1. Explication concrete effet gyroscopique
    Par invite40f82214 dans le forum Physique
    Réponses: 40
    Dernier message: 03/01/2011, 10h34
  2. Différence concrète entre Q,U,et H
    Par vince3001 dans le forum Chimie
    Réponses: 4
    Dernier message: 12/12/2007, 18h45
  3. Application concrète équation différentielle.
    Par hekla dans le forum Physique
    Réponses: 26
    Dernier message: 18/08/2006, 20h39
  4. existe t-il une theorie de la motivation avec des base concrete
    Par invite254b64c2 dans le forum Psychologies (archives)
    Réponses: 9
    Dernier message: 27/01/2006, 17h36
  5. définiton concrète de la variance
    Par invite58081e51 dans le forum Mathématiques du supérieur
    Réponses: 5
    Dernier message: 16/06/2005, 07h43