Bonjour à tous,
regardant le concept du paquet d'ondes pour expliquer le photon en tant qu'onde EM localisé dans l'espace, je me trouve confronté au pb suivant:
soit une onde plane simple se déplaçant suivant x avec un vecteur E orienté suivant y.
Son champs est :
Ey(x,t) = Ey.exp(jwt+jkx).
comme Ey(x,t) ne dépend que de x, sa divergence est nulle conformément au concept de propagation dans le vide qui veut qu'en l'absence de charge divE=0.
Le photon en tant que superposition d'ondes planes se définit comme un paquet d'ondes dont le champs E est limité dans l'espace. Dans notre cas:
Ey(x,t) = Somme(Eyi.exp(jw(t-t0i)+jk(x-x0i)))
comme divEy = somme(divEyi), on a toujours théoriquement divEyi=0.
Ouf jusque là tout va bien...
Cependant, la localisation de Ey dans l'espace implique que Ey décroissent suivant y dès que l'on s'éloigne du centre du photon. En effet, au delà de la marge imposée par l'incertitude d'Heisenberg, on peut supposer que Ey # 0. Mais alors comment Ey pourrait décroitre alors que divE = 0 m'impose que Ey ne dépend pas de y????
Je suppose que cette question est éludée depuis longtemps et vous remercie de m'en donner l'explication.
Merci.
-----