Qu'est ce qui peut venir invalider cette hypothese à l'heure actuelle :
Information = Energie = Masse
-----
Qu'est ce qui peut venir invalider cette hypothese à l'heure actuelle :
Information = Energie = Masse
(Re: Principe holographique) Argument typique du genre: On a un truc pas net, qu'on ne sait pas justifier rigoureusement, alors on le remplace par un truc un million de fois plus compliqué, qu'on ne saurait même pas expliquer dans un forum (et encore moins discuter), et basta.
Rhétorique qui ne devrait convaincre personne.
La science ne marche pas comme ça. On ne peut pas accepter la rhétorique consistant à demander aux autres d'invalider une affirmation construite gratuitement.Qu'est ce qui peut venir invalider cette hypothese à l'heure actuelle :
Information = Energie = Masse
C'est le contraire: faut défendre ce qu'on affirme. Et le défendre par des observations, des prédictions, etc. Pas par de la rhétorique et des rideaux de fumée. On laisse cela aux politiciens, aux publicistes et autres propagandistes.
Dernière modification par Amanuensis ; 08/11/2018 à 14h29.
Pour toute question, il y a une réponse simple, évidente, et fausse.
gratuit,...? sans fondements ,.. ?
""le modèle de principe holographique, concrétisé par la correspondance AdS/CFT de Juan Maldacena, une solution à ce paradoxe qui montre que les lois de la mécanique quantique restent valables, et que l'information ne disparait donc pas suite à l'évaporation d'un trou noir. Cette solution emporte l'adhésion de beaucoup de physiciens""
Salut,
"Beaucoup" ne veut pas dire "juste".
Et d'ailleurs, ce principe ne fonctionne qu'avec certaine variétés espace-temps : trous noirs, et si ma mémoire est bonne anti-Dessiter.
Or l'espace-temps global est plutôt proche de Friedmann pour lequel le principe holographique tombe à l'eau.
Et ça aussi beaucoup de physiciens l'ont fait remarquer !
AmonPath, essaie d'être plus précis dans tes explications et éventuellement essaie de sourcer. Car là ça fait un peu dialogue de sourd à coup de petites phrases.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
gratuit,...?
Il existe de nombreux types d'entropie thermodynamique, principalement micro canoniques (Boltzmann), canoniques (Gibbs) et grand-canoniques. Tous peuvent être obtenus à l'aide de la formule d'entropie de Shannon en définissant les contraintes appropriées.
L'entropie de Boltzmann est un cas particulier de l'entropie de Gibbs-Shannon, qui est la formule de l'entropie de Shannon appliquée aux états microscopiques d'un système physique.
ern effet ,..mais tout dépend des bases utilisées...
le principe holographique stipule que l'entropie de masse ordinaire (pas uniquement les trous noirs) est également proportionnelle à la surface et non au volume;
Une caractéristique importante d'un espace anti de Sitter est sa frontière (qui ressemble à un cylindre dans le cas d'un espace tridimensionnel).
L'une des propriétés de cette frontière est que, localement autour de chaque point, elle ressemble à un espace de Minkowski, le modèle d'espace-temps utilisé en physique non-gravitationnelle
Je ne sais pas si a déjà été dit, mais entropie et énergie ne sont pas de même nature, donc on ne voit pas comment l'information (sorte d'opposé de l'entropie) pourrait être "=" à l'énergie. Par ailleurs, il existe des systèmes qui pour la même énergie peuvent être dans des états d'entropie très différents. Analogie simpliste, c'est un peu comme la différence entre un amas de planches et un bateau de même masse...
m@ch3
Never feed the troll after midnight!
AmonPath,
Dès qu'il y a une objection, tu ignores celle-ci et tu tournes en boucle.
En plus d'être franchement énervant, ça commence à faire dialogue de sourd.
Si ça continue et vu que c'était un "mini-déterrage" (cinq mois), il va falloir fermer.
Une discussion ça ne se fait pas à sens unique.
Merci de faire attention,
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
re bonjour @m@ch3,...
pour ce qui concerne l'information qui est selon votre message une sorte d'opposé de l'entropie
pourtant ...
Dans les anecdotes, l'anecdote de Neumann-Shannon, ou "anecdote de Shannon-Neumann", est une conversation célèbre, ou "histoire largement diffusée", comme le décrit Philip Mirowski (2002), qui s'est déroulée de l'automne 1940 au printemps 1941. discussion entre l'ingénieur électricien et mathématicien américain Claude Shannon et l'ingénieur chimiste et mathématicien américain d'origine hongroise John Neumann, lors de son stage de recherche postdoctorale à l'Institute for Advanced Study de Princeton, dans le New Jersey, où Neumann a été l'un des principaux où Shannon hésitait sur le fait d'appeler ou non sa nouvelle formulation statistique logarithmique de données en transmission de signal sous le nom d '' information '(de type Hartley) ou' d'incertitude '(de type Heisenberg), question que Neumann avait suggéré que Shannon n’utilise aucun nom, mais utilise plutôt le nom «entropie» de la thermodynamique, car: (a) la version en mécanique statistique des équations d’entropie a le même isomorphisme mathématique et (b) personne ne sait vraiment ce qu'est vraiment l'entropie, il aura donc l'avantage de gagner tous les arguments qui pourraient surgir
""Ma plus grande préoccupation était de savoir comment l'appeler. J'ai pensé l'appeler 'information', mais le mot a été trop utilisé, alors j'ai décidé de l'appeler 'incertitude'. Lorsque j'en ai discuté avec John von Neumann, il avait une meilleure idée. Von Neumann m'a dit: «Vous devriez appeler cela de l'entropie, pour deux raisons. En premier lieu, votre fonction d’incertitude a été utilisée en mécanique statistique sous ce nom; elle a donc déjà un nom. En second lieu, et plus important encore, personne ne sait ce qu'est vraiment l'entropie, alors dans un débat, vous aurez toujours l'avantage. .""
http://www.eoht.info/page/Neumann-Shannon+anecdote
https://en.wikiquote.org/wiki/Claude_Elwood_Shannon
voici ce qu'en pensent shannon and Von Neuman,...
Redéfinition du SI en 2018 pour plus cohérent
La nouvelle définition de la température, via la constante de boltzmann, permettrait de passer de la définition macroscopique de la température à une définition microscopique. On part alors d’un multiple de l’énergie moyenne J contenue dans un degré de liberté pour définir K
On se débarrasse ainsi de l’énergie et de la température dans la définition de l’entropie.
Pour ceux qui ont une heure à perdre (façon de parler) ... voici une vidéo de Cédric Villani dans laquelle il évoque les travaux de mathématique de John Nash (justement pas ceux ayant conduit à son Nobel d'économie).
Je la trouve intéressante car l'entropie y joue un rôle a priori secondaire, mais en fin de compte pas tant que ça. Mais il faut voir la vidéo sans sa totalité pour le comprendre.
Mais le plus intéressant, c'est que j'interprète la manière de présenter l'entropie par Villani non pas comme une chose unique ayant plusieurs facettes équivalentes, mais bien comme un moyen d'approcher des choses différentes d'une manière semblable.
Si je propose cette vidéo, c'est parce que justement quand von Neumann dit "Vous devriez appeler cela de l'entropie, pour deux raisons. En premier lieu, votre fonction d’incertitude a été utilisée en mécanique statistique sous ce nom; elle a donc déjà un nom.(...)" dans l'anecdote précédemment relatée, cela me conforte dans cette idée d'analogie.
Une analogie n'est pas une équivalence.
A un moment donné Villani dit (à propos d'autre chose, mais justement c'est un élément de plus) : "il a trouvé une entropie à ce problème et a trouvé comment l'appliquer (...)". Encore une fois, il parle d'"une entropie" et pas "l'entropie" ou "d'une formule équivalent aux autres entropies".
Lien vers la vidéo : https://www.youtube.com/watch?v=F7wSqLetdGM
bonjour à vous,...
"""
La nouvelle définition du kelvin
présenterait l’avantage majeur de ne plus faire référence à un corps particulier, contrairement à la définition
actuelle, ce qui permettrait un pas de plus vers l’unification des unités du système international
de même qu’en fixant c on a rapporté les mesures de longueur à des mesures de temps,
en fixant la valeur de kB, on relierait les mesures de température à des mesures d’énergie
""
http://www.cnrs.fr/publications/imag...e_Boltmann.pdf
Bonjour à vous,..
Si je propose cette vidéo, c'est parce que justement quand von Neumann dit "Vous devriez appeler cela de l'entropie, pour deux raisons. En premier lieu, votre fonction d’incertitude a été utilisée en mécanique statistique sous ce nom; elle a donc déjà un nom.(...)" dans l'anecdote précédemment relatée, cela me conforte dans cette idée d'analogie.
Une analogie n'est pas une équivalence.
le terme ""analogie"" m'accroche,..
''analogie simpliste" dans un commentaire de m@ch3 est la seule apparition de ce mot sur cette page avant votre intervention..
Nous pouvons lire en effet ici https://en.wikipedia.org/wiki/Entrop...mation_theory)
"""L'entropie fait référence au désordre ou à l'incertitude, et la définition de l'entropie utilisée dans la théorie de l'information est directement analogue à celle utilisée en thermodynamique statistique."""
pour une analogie : on repère ici la similitude entre deux choses de type différent.
analogue signifie : comparable, semblable, similaire
nous pouvons donc lire que : définition de l'entropie utilisée dans la théorie de l'information est directement similaire, semblable à celle utilisée en thermodynamique statistique.
De plus
ici les types impliqués ne sont pas différents...
en effet il s'agit d'une Incertitude,.....
Une fois de plus, une discussion sur l'entropie dans ce forum est une suite de textes littéraires, citations d'autorité, suites de mots, etc. Sans maths, et au fond, sans physique. Et c'est pire dès qu'il est question d'information.
Cela a toutes les propriétés des discussions de philo de comptoir.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Je ne désespère pas que quelqu'un regarde la vidéo (puisqu'il s'agit d'un papier sur un problème de physique étudié par des mathématiciens, certes, mais de physique) et qu'il réponde sur le fond. Oui ... je sais ...Une fois de plus, une discussion sur l'entropie dans ce forum est une suite de textes littéraires, citations d'autorité, suites de mots, etc. Sans maths, et au fond, sans physique. Et c'est pire dès qu'il est question d'information.
Cela a toutes les propriétés des discussions de philo de comptoir.
Il est vrai que parfois, c'est un peu dommage que seul le détail d'une intervention soit critiquée (comme la question de l'analogie ici) mais dans un autre sens, cela déforce l'opposition.
De même dans l'autre discussion en cours, je pense qu'on est quand même parvenu à recentrer le débat sur quelques points : une expérience, une démonstration et l'absence de "blabla". Peut être ici, en sera-t-il de même.
Bonsoir,
Désolé, pour moi grosse erreur qui fausse le raisonnement*:(..)
Et si on regarde plus précisément, c'est encore pire. En notant V0 l'unité de volume, on a comme valeur normalisée k ln (V/V0) = kln(V) - kln(V0). le signe dépend de la constante. Autrement la soi-disant «information manquante» due à l'incertitude de position peut être aussi bien positive que négative? Cela est en totale contradiction avec (..)
Vous ne pouvez pas écrire k ln (V/V0) = kln(V) – kln(V0)
le logarithme d’un nombre concerne uniquement les nombres sans dimensions .
Seul l’expression k ln(V/V0) a un sens.
conversion information en energie
La possession d'informations pouvant en principe avoir des conséquences thermodynamiques a été établie en 1929 par Leó Szilárd, dans un raffinement du scénario du célèbre démon de Maxwell.
actuellement,
En utilisant un microscope à contraste de phase équipé d'une caméra haute vitesse connectée à un ordinateur, en tant que démon,le principe a été démontré.
Dans cette expérience,
la conversion de l'information en énergie est effectuée sur une particule brownienne au moyen d'un contrôle à rétroaction;
la deuxième loi de la thermodynamique est valable lorsque nous considérons le système dans son ensemble, y compris le démon et le système.
Cependant, lorsque nous nous concentrons sur le système microscopique, il apparaît que les informations sont converties en énergie libre.
article : converting information to energy by feedback control, https://arxiv.org/pdf/1009.5287.pdf
Si si, on peut. Il y a le même problème en chimie avec les constantes d'équilibre qui font intervenir des pressions. Ce qu'on fait, mais sans le dire, c'est de diviser par une constante qui vaut 1 et qui a les bonnes dimensions, une sorte de facteur d'"adimensionnement".
analogue signifie : comparable, semblable, similaire
similaire
adjectif
Qui est à peu près semblable.
synonymes : analogue, équivalent
Qui est de même nature.
https://en.wikipedia.org/wiki/Sackur...trode_equationEnvoyé par AmanuensusL'entropie liée au volume, présentée comme «information manquante» est indiquée comme kN ln(V), k étant la constante de Boltzman et N le nombre de particules. L'entropie par particule (l'information manquante étant la position de cette particule) est alors kln(V).
Du point de vue physique, plusieurs points intriguent dont le fait qu'on prend le ln d'une quantité dimensionnée.
Le texte indique ensuite, répondant à la question que cela soulève: «Les termes individuels d'entropie ne sont pas absolus, mais dépendent du système d'unités, et diffèreront par une constante additive selon avec des unités différentes». [Mais la somme, l'entropie physique du système, est, elle, indépendante du système d'unités, ouf!]
il a posé une question plus profonde ....
Dernière modification par azizovsky ; 09/11/2018 à 19h49.
Vous comprendrez mon scepticisme. Juste pour avoir une idée, quelles sont les "dimensions" de l'information dans cette théorie.conversion information en energie
La possession d'informations pouvant en principe avoir des conséquences thermodynamiques a été établie en 1929 par Leó Szilárd, dans un raffinement du scénario du célèbre démon de Maxwell.
actuellement,
En utilisant un microscope à contraste de phase équipé d'une caméra haute vitesse connectée à un ordinateur, en tant que démon,le principe a été démontré.
Dans cette expérience,
la conversion de l'information en énergie est effectuée sur une particule brownienne au moyen d'un contrôle à rétroaction;
la deuxième loi de la thermodynamique est valable lorsque nous considérons le système dans son ensemble, y compris le démon et le système.
Cependant, lorsque nous nous concentrons sur le système microscopique, il apparaît que les informations sont converties en énergie libre.
article : converting information to energy by feedback control, https://arxiv.org/pdf/1009.5287.pdf
Une énergie comme un Travail, les dimensions sont en M.L2T-2 et l'entropie est en M.L2T-2K-1
Dernière modification par Sethy ; 09/11/2018 à 20h21.
Egalement dans les machines thermodynamiques.
Mais on ne peut pas développer ou contredire une théorie sur une telle erreur pour tirer des conclusions correctes . Faut être très prudent, la physique a ses contraintes que les mathématiques n'ont pas . On parle bien ici de volume pour établir un raisonnement.
Note: Le développement ln (V)= (V-1) - (V-1)²/2 + (V-1)³/3 ... , montre bien le problème.
...
je peux comprendre le scepticisme de certain concernant cet article : converting information to energy by feedback control, https://arxiv.org/pdf/1009.5287.pdf
....alors qu'en est t il de celui ci datant du 1 novembre 2018, https://arxiv.org/pdf/1302.3011.pdf
dans lequel le travail peut être extrait d'un moteur thermique en utilisant des informations purement quantiques.
le moteur peut être piloté par des informations purement quantiques
et pour le confirmer; à titre d'exemple physique, nous présentons le moteur Szilard contenant une molécule diatomique à paroi semi-perméable.
Y a des prix Nobel qui se perdent ... Heu, sinon, les dimensions de l'information ?
P.S. : J'ai jeté un oeil à l'article et je suis content d'une chose ... je comprends tous les symboles mathématiques utilisés.
Pour essayer de comprendre.
Lorsqu'on utilise l'énergie potentielle gravifique d'un mobile en hauteur qui descend (par exemple un contre-poids) afin de lui faire faire un travail (monter un autre poids), on fait "travailler" une force.
Si on s'intéresse aux dimensions, on remarque qu'une force (F=ma) à les dimensions M.L1T-2, ce qui est logique puisque m est une masse(M) et a, l'accélération est une distance(L) divisée par un temps(T) au carré (dérivée seconde de la distance par rapport au temps). Si on fait travailler cette force (= se déplacer mais pas à 90°), cela revient à la multiplier par une longueur(L) , et on obtient les dimensions d'un Travail M.L2T-2 qui sont aussi celles d'une énergie.
La physique, ce n'est pas que de l'équation aux dimensions, il faut plutôt le voir comme une sorte de "preuve par 9", mais les dimensions d'une grandeur sont néanmoins essentielles dans la caractérisation de celle-ci. En gros, ce sont les unités dans lesquelles cette grandeur est exprimée.
C'est pour ça que je demande les unités de l'information.
..ok...
tout d'abord, pour essayer de comprendre la notion d'entropie de l'information,
celle ci est généralement mesurée en bits (alternativement appelés "shannons") ou parfois en "unités naturelles" (nats) ou en chiffres décimaux (appelés "dits", "bans" ou "hartleys").
L'unité de mesure dépend de la base du logarithme utilisé pour définir l'entropie.
Le logarithme de la distribution de probabilité est utile comme mesure de l'entropie car il est additif pour les sources indépendantes.
log2 (n) bits sont nécessaires pour représenter une variable pouvant prendre l'une des n valeurs si n est une puissance de 2. Si ces valeurs sont également probables, l'entropie (en bits) est égale à ce nombre.
L'entropie fournit une limite absolue à la longueur moyenne la plus courte possible d'un codage par compression sans perte des données produites par une source. Si l'entropie de la source est inférieure à la capacité de canal du canal de communication, les données générées par la source peuvent être communiqué de manière fiable au destinataire
L'entropie est considérée comme une information moyenne reçue de données non uniformément réparties est toujours inférieure ou égale à log2 (n).
L’entropie ne prend en compte que la probabilité d’observer un événement spécifique.
...Ensuite,...
Au départ selon Shannon, la formulation statistique logarithmique de données en transmission de signal pouvait porter le nom d '' information '(de type Hartley) ou' d'incertitude '(de type Heisenberg),....
Le dernier article cité parle de l'information quantique, développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication.
Nous arrivons donc pour l'information à une notion de type ""'incertitude d' Heisenberg""" qui reflète une limite à l'application des concepts classiques pour la décrire