Oui j'ai aussi du mal à lier le mot "virtuel" avec "observer".On les nomme virtuelles car il s'agit d'un artifice mathématique et qu'elles n'ont pas d'existence physique.
-----
Oui j'ai aussi du mal à lier le mot "virtuel" avec "observer".On les nomme virtuelles car il s'agit d'un artifice mathématique et qu'elles n'ont pas d'existence physique.
Je crois que le "hasard" du sujet de ce topic est plus fondamental que le hasard qui à créé les premiers édifice vivants. Pour cette élaboration des molécules prébiotiques je me souviens d'un petit texte qui m'avait marqué. En gros il disait que si l'on jette des cailloux en l'air, la probabilité qu'ils construisent une voute est nulle ; par contre, s'il existe un petit monticule de terre, les pierres peuvent s'y accumuler et quand l'érosion aura enlevé la terre, la probabilité d'avoir une voute stable devient grande ...
Bonjour,Dire qu'il y a déterminisme, c'est dire qu'il y a des "variables cachées" (l'expression étant prise ici dans sons sens le plus général). Les expériences d'Alain Aspect (ainsi que d'autres par la suite) sur le phénomène EPR ont démontré que si variables cachées il y a, elles sont non-locales. Par conséquent, s'il y a déterminisme, ce pourrait à la limite être l'univers dans sa totalité qui détermine où la particule sera captée sur l'écran.
tout à fait d'accord avec vous : le déterminisme nécessite un univers interconnecté aux échelles quantiques. D’ailleurs cette interconnexion quantique a été proposée par les plus grands noms de la physique quantique (Cf. citations ci-dessous).
Le phénomène EPR dont vous parlez, mais également le fait que notre univers provienne d’une soupe primordiale homogène, sont des arguments en faveur d’un univers interconnecté.
Dans le cas d’un univers interconnecté le principe d’incertitude signifie simplement qu’une particule est un système par nature incomplet et donc non entièrement définissable.
Pourquoi ce fameux principe d’incertitude est-il bien plus connu que la possibilité d’une interconnexion quantique ?
Bien sur parce que le principe d’incertitude a pu être vérifié expérimentalement, ce qui est impossible avec l’interconnexion quantique de l’univers.
Mais aussi (et surtout ?) parce que la vision réductionniste du principe d’incertitude a servi de justification scientifique à l'existence du hasard, et par là même à l'existence de « la liberté », chose difficilement définissable mais qui semble si chère aux hommes.
Gilles
PS1 : désolé si ce point de vue a déjà été évoqué, je n’ai pas pu lire les 14 pages de la discussion.
PS2 : les citations.
« Des particules matérielles isolées sont des abstractions, leurs propriétés n'étant définissables et observables qu'à travers leur interaction avec les autres systèmes. »
Niels Bohr "La physique atomique et la description de la nature" p. 57
« Le monde apparaît donc comme un tissu complexe d'événements, dans lequel les relations de diverses sortes alternent, se superposent ou se combinent, déterminant par-là la trame de l'ensemble. »
W. Heisenberg "Physique et philosophie" p. 107
« Nous dirons plutôt que l'interconnexion quantique de l'univers dans son ensemble est la réalité fondamentale et que les parties fonctionnant de façon relativement interdépendante sont simplement des formes particulières et fortuites à l'intérieur de cet ensemble. »
D. Bohm et B. Hiley "La compréhension intuitive de la non-localisation telle qu'elle est impliquée par la théorie quantique" Foundations of Physics, vol. V p.96, 102
Surement parceque parler d'interconnexion quantique n'explique encore pas de manière satisfaisante les phénomènes observés.Pourquoi ce fameux principe d’incertitude est-il bien plus connu que la possibilité d’une interconnexion quantique ?
Il me semble que les photons "virtuels" autour d'un électron ont un effet réel et mesurable, faible en raison de de la petitesse du couplage. En particulier celui qu'on appelle le décalage de Lamb. Il est dû à la perturbation apportée par le noyau, chargé électriquement,au nuage de photons virtuels qui entourent l'électron, perturbation qui change un peu (trés peu mais mesurable) l'énergie de l'électron.
Anton
Il me semble que les photons "virtuels" autour d'un électron ont un effet réel et mesurable, faible en raison de de la petitesse du couplage. En particulier celui qu'on appelle le décalage de Lamb. Il est dû à la perturbation apportée par le noyau, chargé électriquement,au nuage de photons virtuels qui entourent l'électron, perturbation qui change un peu (trés peu mais mesurable) l'énergie de l'électron.
Anton
J'aurais plutot dit que le lamb shift est dû aux fluctuations du vide, mais il me semble que c'est équivalent de parler de fluctuations du vide ou de particules virtuelles.
Une autre manifestation tangible dans ce cas est la force de Casimir.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Bonjour,
Je me demande si le terme "interconnecté" est approprié dans ce cas. Qui dit interconnexion présuppose l'existence de 2 choses (ou plus) qui sont reliées par quelque chose. Or, lorsqu'on dit qu'il n'existe pas de variable cachée locale, il me semble qu'on fait plutôt allusion à l'existence d'1 seule chose qui n'a pas de localisation. Conceptuellement, c'est un peu différent, non ?
Enfin, en tout cas, c'est comme ça que je comprends les choses.
Cordialement,
Argyre
Salut,
Si je comprends bien, c'est ça qu'on appelle l'"indéterminisme quantique" ? Bon, donc c'est pas de l'indéterminé réellement, et c'est ce qui me paraît important de souligner. Non mais y'en a à qui ça tourne la tête cette histoire d'in-déterminisme C'est dingue de voir à quel point l'homme aime se faire peur
Petite précision sur ce que j'appelle le "déterminisme des grands nombres" :Envoyé par titanicEn tout cas, on voit que quand on considère un grand nombre d'événements (lancers d'une pièce de monnaie, naissances H/F, mouvements des molécules en thermodynamique etc etc...) il apparaît clairement que la notion de "hasard" au sens de "phénomène exceptionnel" devient complètement caduque ...> d'où une espèce de "loi des grands nombres bis", et aussi par la même occasion une espèce de "déterminisme des grands nombres" qui se peuvent raisonnablement concevoir (inductivement)
Mettons que la famille Dutruc n'ait par hasard que des descendants mâles pendant mettons 50 générations d'affilées. Comme y'a autour un grand nombre de familles "honnêtes" qui ont des descendances "normales" (alternances de filles et de garçons), le cas de la famille Dutruc apparaîtra comme une goutte d'eau dans l'ocean, il n'aura pas d'incidences notables sur l'évolution de la population globale. Bon, là c'est une distribution binomiale ... Enfin pour les ravages guerriers, je crois que ça peut s'expliquer assez facilement. Exemple la guerre de 1914-1918 a fait en France 1,3 millions de morts. Sur les 45 millions d'habitants de l'époque, c'est assez minime comme pourcentage ... et en plus maintenant y'a pas à s'en faire vu que de nos jours les guerres (au moins en Europe, mais c'est pas encore le cas partout et même on réquisissionne parfois même des enfants malheureusement) sont faites par des professionnels
Les darwiniens, qui ont l'imagination fertile comme on sait, verrons dans l'équilibre naturel des populations, un occulte principe de survie qu'ils auront bien du mal à justifier. Le "déterminisme des grands nombres" que je propose me paraît un tantinet plus ... scientifique !
Mais si ca reste l'indéterminisme, c'est fou comme l'Homme n'aime pas voir la réalité en face .Bon, donc c'est pas de l'indéterminé réellement
Il me semble que tu es juste en train de dire que si un événement à une probabilité p, alors si le nombre N d'essais indépendants est très grand devant 1/p, alors la probabilité que l'événement se produise au moins une fois est proche de 1.
Certes.
Cordialement,
Pour revenir au principe d'incertitude, je reste dubitatif sur l'idée que cela implique un système incomplet.
Je crois déjà l'avoir dit, mais en théorie du signal, si un signal a un spectre très étroit (précision en fréquence) alors sa position dans le temps ne peut pas être bien définie (précision en temps). Il n'y a aucune incomplétude ni hasard là-dedans, c'est juste une propriété de la notion de "fréquence d'un signal" (et phase...).
A la base, le signal pris comme fonction du temps est dual du signal pris comme fonction complexe de la fréquence, par la transformée de Fourier.
La méca Q affirme le même type de dualité entre temps et énergie, et entre position et quantité de mouvement. C'est très déroutant de penser ces variables comme duales par la transformée de Fourier, mais une fois qu'on l'admet, l'incertitude n'implique pas plus un système incomplet que dans le cas d'un signal.
Cordialement,
...certes, en tout cas ici c'est une distribution binomiale, mais je crois qu'on peut généraliser, avec des TRES GRANDS nombres (d'événements aléatoires).
Mais je soupçonne aussi un tantinet qu'à bien y regarder, là-dessus Monsieur de La Palisse y retrouverait ses petits
La question reste de savoir ce qu'on appelle un "grand" nombre ! Est-ce que 60 millions c'est un grand nombre, et selon quels critères ? C'est étonnant la régularité qu'on a dans les pyramides des âges, indépendamment des pays. Aux EU il y a près de dix fois plus d'habitants qu'en France, mais ça ne change rien du tout aux statistiques des populations ... et il y a des pays très peu peuplés où ça marche pareil ...
Je comprends pas ce que vous voulez dire, peut-être quelque chose m'échappe.C'est étonnant la régularité qu'on a dans les pyramides des âges, indépendamment des pays.
Prenons un autre exemple : la moyenne du nombre de membres supérieurs (soit les bras) est une donnée à priori partagée par tous les humains et ce quelque soit le pays et les continents. Et?
Je ne suis pas tout à fait d'accord avec toi, dans la résolution du problème des trois corps, en principe, les conditions initiales sont connues, pourtant le développement de cette étude débouche sur la notion de chaos...
Anton
Dernière modification par JPL ; 09/01/2007 à 18h45. Motif: Correction de balise
La distribution binomiale est une conséquence de l'hypothèse d'indépendance. Mais si on fait sauter l'hypothèse d'indépendance, alors ta loi ne marche pas. Facile de trouver des contrexemples. On n'est pas très loin d'un principe Shadok: nous n'avons qu'une chance sur 1 million que la fusée décolle, dépêchons-nous de faire des 999999 premiers essais...
Cordialement,
Vous oubliez les "bras-cassés"
Là ça dérive vers n'importe quoi !
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
... une suggestion qui n'engage que moi : peut-être que ce fil a assez duré ...
Allez, bonne soirée à tous
Bonne soirée .Allez, bonne soirée à tous
Tu as raison. J'aurais du dire "Je suis d'accord avec toi" effectivement un système complet peut déboucher sur l'incertitude. Exemple, le problème des trois corps.
Anton.
Il est vraiment temps de clore ce sujet effectivement .
Cependant,
mais il n'y a pas indéterminisme non plus, contrairement à la physique quantique.Il n'y a aucune incomplétude ni hasard là-dedans, c'est juste une propriété de la notion de "fréquence d'un signal" (et phase...).
Tout à fait vrai. Il ne faut pas oublier que l'onde quantique est une onde d'amplitude de probabilité. Dire que la MQ est déterministe car ses équations sont en apparence déterministes, cela est du trompe-l'oeil car ses équations ont comme terme principal un objet qui a la signification d'une amplitude de probabilité.
Autrement dit, le monde de la MQ est indéterministe mais non parfaitement chaotique : il y a des distributions de probabilité qui elles sont bien déterminées et bien décrites par la MQ.
De deux choses l'une:
1) Soit l'indéterminisme de la méca Q dont tu parles est indépendant de la relation d'incertitude, et mon point amène à dire que quand on parle de hasard en méca Q, ce n'est pas du côté du principe d'incertitude qu'il faut le chercher.
2) Soit l'indéterminisme de la méca Q et le principe d'incertitude sont intimement liés.
Perso, l'indéterminisme est lié à la réduction du paquet d'onde, alors que le principe d'incertitude est lié à la forme de la fonction d'onde dans l'espace des phases. Il me semble que le principe d'incertitude n'a aucun besoin de la réduction du paquet d'onde.
J'ai donc tendance à pencher pour 1), mais une argumentation de 2) m'intéresse!
Si on accepte 1) alors parler du principe d'incertitude quand on parle de hasard dans la méca Q est introduire de la confusion.
Cordialement,
Encore une fois, c'est une interprétation de la méca Q. L'interprétation d'Everett ne donne pas cette vision. Elle amène à voir l'onde comme une statistique et non une probabilité.Tout à fait vrai. Il ne faut pas oublier que l'onde quantique est une onde d'amplitude de probabilité. Dire que la MQ est déterministe car ses équations sont en apparence déterministes, cela est du trompe-l'oeil car ses équations ont comme terme principal un objet qui a la signification d'une amplitude de probabilité.
La différence est essentielle. Si on fait une statistique, par exemple des nombres multiples de 5 entre 1 et 1000, on peut en tirer une loi de probabilité pour un tirage "au hasard" uniforme dans la population. Mais le "hasard" n'est pas dans la statistique, il est importé de l'extérieur. La statistique, elle, ne peut pas être traité de "hasard", en particulier dans le cas choisi! Elle n'est pas par elle-même une loi de probabilité, elle le devient via un autre processus.
Si on accepte l'amplitude de l'onde comme une statistique, et que la mesure est tirée "au hasard", ce hasard doit venir "de l'extérieur", il n'est pas directement lié à la statistique. L'interprétation usuelle est celle de la réduction du paquet d'onde, c'est à dire justement d'un tirage au hasard, qui considère la statistique postulée comme une loi de probabilité. Mais l'interprétation d'Everett amène à se contenter de la vision statistique: il n'y a pas de tirage, donc pas besoin de hasard extérieur, et l'amplitude n'est pas une loi de probabilité.
Cordialement,
.Il me semble que les photons "virtuels" autour d'un électron ont un effet réel et mesurable, faible en raison de de la petitesse du couplage. En particulier celui qu'on appelle le décalage de Lamb. Il est dû à la perturbation apportée par le noyau, chargé électriquement,au nuage de photons virtuels qui entourent l'électron, perturbation qui change un peu (trés peu mais mesurable) l'énergie de l'électron.
Anton
Je vais redire ce que tu dis plus simplement en mettant au second plan les "particules virtuelles" qui obscursissent la compréhension.
.
La première idée est que le vide est presque un "matériau" comme les autres. En particulier il est polarisable, cad déformable, comme les autres.
.
Lorsque l'on met une charge positive dans un diélectrique classique, il y a une polarisation de celui-ci qui écrante la charge et réduit son potentiel a longue distance.
.
De même que lorsque l'on met une charge positive dans le vide, celui-ci se polarise de sorte à écranter la charge positive et réduire également son potentiel à longue distance.
.
-------------------------------------------------------------------------------------------
La représentation mathématique de la polarisation et donc de déplacement de charges du vide se fait en termes de paires de particules électrons-positrons dites virtuelles (et non photons) car les éléments de matrices qui servent à cette représentation sont les mêmes que ceux qui décrivent la création d'une paire électrons-positons réels.
--------------------------------------------------------------------------------------------
le décalage de lamb.
En négligeant la polarisation du vide on trouve que les états 2P1/2 et 2S1/2 sont dégénérés en énergie. Cela est du à la situation exceptionnelle de l'atome d'hydrogéne pour lequel le potentientiel est en 1/r.
.
Si maintenant on tiend compte de la polarisation du vide le potentiel est écranté et le potentiel n'est plus en 1/r et la dégénérescence est levée. Bien entendu cette levée de dégénerescence faible ( 27 Mhz) est à l'image de la faible polarisabilité du vide.
.Tout à fait vrai. Il ne faut pas oublier que l'onde quantique est une onde d'amplitude de probabilité. Dire que la MQ est déterministe car ses équations sont en apparence déterministes, cela est du trompe-l'oeil car ses équations ont comme terme principal un objet qui a la signification d'une amplitude de probabilité.
Autrement dit, le monde de la MQ est indéterministe mais non parfaitement chaotique : il y a des distributions de probabilité qui elles sont bien déterminées et bien décrites par la MQ.
Pas du tout du tout d'accord.
.
1- Les états quantiques sont des vecteurs d'un espace de Hilbert, les kets: > indépendamment de toute représentation
.
2- L'équation d'évolution de ces états est strictement déterministe.
.
3- lorsque l'on effectue une "mesure quantique" cad lorsque l'on interagit avec un système macroscopique particulier on projette les états de Hilbert sur la base des étas propres associée à cet appareil de mesure. La valeur numérique de ces projections sont des probabilités (plus excatement des amplitudes de probabilité).
.
--------------------------------------------------------------------------------------------
Remarque: Il ne faut pas confondre un tenseur qui est un vecteur avec sa représentation en composantes dans une base particulière. Le tenseur est unique mais le nombre de représentations est infini.
.
De même il ne faut pas confondre un état de l'espace de Hilbert qui est un vecteur avec sa représentation en composantes dans une base particulière. Le vecteur de Hilbert est unique mais le nombre de représentations est infini.
.
Pour cette raison en MQ on travaille le plus souvent en manipulant les états de Hilbert indépendamment de toute representation.
---------------------------------------------------------------------------------------
L'équation de Shrodinger est une représentation particulière (la représentation "x") qui represente l'équation d'évolution des composantes et non du vecteur de Hilbert lui-même.
Bonjour,
Pour corser un peu le tout, je pense qu'il est également possible de n'y voir ni probabilité, ni statistique, mais simplement une distribution, ce qui, conceptuellement, est encore différent.
Exemple :
La distribution de la masse d'une pyramide dans le plan de sa base est assez évidente. Cette masse est maximale au centre et décroît vers l'extérieur. Si par un outil quelconque on tente de détecter la présence de la pyramide en 1 point (en la détruisant) et que cet outil a d'autant plus de chance de faire cette détection que le point d'application est massique, on peut parler de probabilité d'interaction.
Quoi qu'il en soit, avec cette vision des choses, il n'est pas juste de parler de probabilité de présence, et il n'y a pas d'interminisme sur la présence, il y a seulement indéterminisme sur la détection. C'est important, car à ce niveau, l'indéterminisme peut à nouveau être levé par une variable cachée qui est liée à l'interaction et non liée à la localisation (d'où le fait qu'elle ne soit pas locale).
Mais ce n'est que ma façon de voir les choses.
Cordialement,
Argyre