J'aimerais discuter des propriétés particulières de la mécanique quantique que sont la non-localité et le non-déterminisme (qui conduisent à la non-ontologie).
Voici des bribes de conversation extraites du sujet Connexions causale "à distance".
Il y avait déjà un sujet où j'avais abordé cela [*], mais maintenant, je vois les choses de façon plus claire. Je vais supposer que la mécanique quantique ne pose aucun problème de déterminisme ou de localité, et défendre le point de vue d'Einstein du "Dieu qui ne joue pas aux dés". Comme si c'était de la mécanique classique, en somme.
C'est très simple : la mécanique quantique postule que la mesure d'une grandeur physique agit sur le système mesuré de façon instantanée, c'est-à-dire non locale, car la mesure en un point du système agit instantanément à distance sur tout le système, et de façon indéterminée, sinon, on pourrait transmettre des messages à une vitesse supérieure à celle de la lumière.
Supposons donc que la mesure n'agit pas de façon instantanée, mais respecte la vitesse limite qu'est la vitesse de la lumière dans le vide, et que le résultat des mesures n'est aléatoire qu'en apparence, mais dépend en réalité de l'état quantique de toutes les particules des appareils de mesure et de leur environnement immédiat. C'est ce qu'on appelle une interprétation à variables cachées locales.
L'objection est bien connue : la violation de l'inégalité de Bell montre que ce n'est pas le cas. Alors je pose la question : comment sait-on que l'expérience a été menée en respectant les conditions EPR ?
Je m'explique : pour tester l'inégalité de Bell, on réalise deux mesures, A et B, dans des régions d'espace-temps spatialement séparées, c'est-à-dire simultanément et assez loin l'une de l'autre pour qu'aucune influence n'ait le temps de se propager de l'une à l'autre avant la fin de la mesure. Or d'après notre hypothèse de travail, l'acte de mesure portant sur un système qui s'étend d'un appareil de mesure à l'autre, le mécanisme de mesure (dit de "réduction du paquet d'onde") va prendre un certain temps, car la mesure n'agit pas de façon instantanée. Ce mécanisme agissant sur tout le système, il va prendre un temps au moins égal au temps que met la lumière pour traverser le système pour faire son effet. Par conséquent, les deux mesures ne seront achevées que lorsque les cônes de lumière issus de A et de B auront rejoint les emplacements de B et A respectivement, c'est-à-dire lorsqu'il sera trop tard pour garantir que rien de ce qui a été fait en A n'a eu d'influence en B et réciproquement. Cette condition n'étant pas remplie, nous ne sommes pas dans le cas EPR, et l'inégalité de Bell n'a pas besoin d'être respectée, puisque A agit sur B et B agit sur A, ce que l'on s'interdit au départ dans le théorème de Bell.
La question cruciale est donc "les mesures A et B se sont-elles bien achevées avant qu'une influence n'ait pu se propager de l'une à lautre ?".
Etant donné que l'écartement des détecteurs est telle que le temps qu'est supposée prendre la mesure est supérieur au temps que met un photon pour pénetrer dans le détecteur et déclencher une série d'avalanches électroniques (les détecteurs dans l'expérience d'Aspect sont des photomultiplicateurs), j'avais introduit la notion de "Tigre de Schrödinger".
Comme chez Everett, la superposition d'états quantique se propage aux détecteurs et aux observateurs avant que toute réduction du paquet d'onde n'ait lieu, et comme chez Everett, cela n'est pas détectable. La différence, c'est qu'ensuite, une fois le temps nécessaire écoulé, il y aurait bien réduction du paquet d'onde. Durant ce laps de temps où une superposition d'états existe de façon macroscopique, je parlais de Tigre de Schrödinger.
Cela permet d'expliquer pourquoi l'inégalité de Bell est violée dans le cadre d'une interprétation à variables cachées locales : on n'est pas dans les conditions EPR. Le résultat de A dépend de ce qui est fait en B, et le résultat en B dépend de ce qui est fait en A, puisque ces résultats ne sont déterminés qu'après un temps assez long. Notre hypothèse de travail rend donc physiquement impossible tout type d'expérience EPR à proprement parler. Ce qui est une façon radicale d'évacuer le problème.
Notez que cela diffère radicalement de l'interprétation d'Everett où la décohérence dure un temps extrêmement bref. Dans ce cadre, la violation de l'inégalité de Bell implique l'action instantanée à distance de "quelque chose" (de non observable), car il y a "variables cachées" et le théorème de Bell exclut la combinaison variable cachée et localité. Les variables cachées sont ici les causes de la décohérence, qui conduisent à la séparation en branches d'univers distinctes.
Lévesque a alors émis une remarque pertinente [*] : les photons se déplacent à la vitesse de la lumière. Comment une mesure, si son effet agit à une vitesse inférieure ou égale à celle de la lumière, peut-être agir sur eux, puisque son effet ne les "rattrape" jamais ?
En effet, une mesure ne pourra jamais agir à distance sur un photon ! Il faut donc partir du principe que les photons n'interagissent avec les autres particules que "par contact" (dans la limite où la dispersion de leur position Delta-x, Delta-y et Delta-z leur confère une probabilité non nulle de se trouver en un point x-y-z donné).
Cette interaction par contact est illustrée par la propagation d'un photon dans un milieu transparent comme le verre. Il s'y déplace à une vitesse inférieure à celle de la lumière dans le vide : 200 000 km/s seulement. Microscopiquement, on peut dire qu'il interagit avec les molécules du verre et que cela ralentit sa propagation.
Si on veut généraliser ce phénomène à l'expérience d'Aspect, la vitesse de propagation des photons y sera très limitée. Dans notre hypothèse de travail, l'échange d'informations entre les emplacements des deux détecteurs dure au moins le temps pour se déplacer de l'un à l'autre à la vitesse c. En ajoutant le temps pour les photons d'aller de la source aux détecteurs, on aboutit à une vitesse apparente de propagation de la source vers les détecteurs égale à un tiers de c au plus.
Cela peut s'interpréter de diverses façons. Par exemple comme le fait qu'un dispositif EPR représente pour des photons intriqués un milieu d'indice de réfraction supérieur ou égal à 3. Ou alors comme une désintégration des photons en paires de particules virtuelle transportant l'information entre A et B pour finir par une recréation de photons après le temps nécessaire. Ou encore par un processus inconnu relevant essentiellement des supercordes... On abandonne du coup la notion de tigre, qui n'est plus nécessaire.
Dans tous les cas, l'effet serait observable : si on masque la source de photons dans l'expérience d'Apsect, les detecteurs continueraient d'enregistrer des coïncidences pendant une durée anormalement élevée. Ou alors, si le masque détruit l'intrication, par une absence de violation de l'inégalité de Bell par les coïncidences enregistrées après l'insersion du masque, et une augmentation statistique du flux de photons entre l'insersion du masque et l'enregistrement du dernier impact.
Si ces effets sont réellement observés, alors il n'y a pas besoin de s'encombrer l'esprit avec la moindre bizarrerie quantique : les conditions EPR ne sont pas respectées, et tout peut s'expliquer dans le cadre d'une mécanique déterministe, ontologique, et locale au sens de la relativité restreinte.
-----