Bon, je dois y aller A+
-----
Oui, et j'ai une maîtrise en physique
Non, et j'ai une maîtrise en physique
Oui, et j'ai une maîtrise en sciences (mais pas en physique)
Non, et j'ai une maîtrise en sciences (mais pas en physique)
Oui, et je n'ai pas ces diplômes (ou pas encore)
Non, et je n'ai pas ces diplômes (ou pas encore)
Bon, je dois y aller A+
“I'm smart enough to know that I'm dumb.” Richard Feynman
oui, mais non . Même la facon dont tu mesures la vitesse et les quantités dynamiques des particules matérielles sont déterminées par un cadre de l'espace temps déterminé par les trajectoires des rayons lumineux !
avec Atlas et CMS, les chambres à fils ? les courants d'électrons dans les capteurs ?
Je crois que j'ai trouvé une métaphore pour la discussion.
tu me dis "Tu es bien d'accord que la propagation de cette onde électromagnétique dans ce cristal est anisotrope ?"
"oui'
"Donc il y a violation de la théorie de l'électromagnétisme dans le vide ?"
"Oui, mais ce n'est pas une violation de la théorie de l'électromagnétisme"
“I'm smart enough to know that I'm dumb.” Richard Feynman
il est possible que je n'ai pas une conception "standard" de ça, mais je considère que l'invariance relativiste n'a de sens que dans la mesure où elle peut être comparée à des expériences concrètes (par exemple des vérifications concrètes de l'invariance de c dans l'experience de Morley Michelson ou du principe d'équivalence par l'absence de gravité résiduelle dans un référentiel en chute libre). Je ne vois pas trop l'interêt d'une théorie qui aurait cette invariance dans un espace non accessible à la mesure, et la briserait dans un espace accessible à la mesure - à part précisément si il s'agit d'expliquer une brisure de cette invariance qui aurait été mise en évidence dans les expériences ! mais en tout état de cause, la physique actuelle dit le contraire - toutes les expériences ont justement vérifié cette invariance à toute la précision accessible. Pour moi l'invariance relativiste n'a pas de sens en dehors d'un cadre spatio temporel justement fixé par les mesures concrètes qu'on fait dedans....oui, mais une invariance relativiste effective sur la brane, pas fondamentale. De ce que je comprends, le modèle de Grojean c'est juste Einstein en 5D avec une métrique cosmologique exotique et donc je ne trouve pas correct de dire que ça viole la théorie de la relativité de façon fondamentale. Cela semble le faire, mais en réalité, ce n'est pas le cas.
mais bien sûr ! ces appareils sont calibrés par des mesures de longueurs et de temps qui reposent in fine sur des étalons dont la définition est faite à partir de la vitesse de la lumière ! comment est défini le mètre, déjà ???
il n'y a pas de problème, si la physique montre effectivement la violation des principes d'équivalence dans le vide (encore une fois, pourquoi pas, et on les teste effectivement ! ) , il faudra bien faire avec. Mais à mon avis, il n'y a aucune raison alors de l'imposer sur des espaces plus abstraits ... Quand il s'est avéré que la gravité classique donnait des écarts avec l'expérience, on n'a pas résolu le problème en faisant de la gravité classique dans un espace plus compliqué .tu me dis "Tu es bien d'accord que la propagation de cette onde électromagnétique dans ce cristal est anisotrope ?"
"oui'
"Donc il y a violation de la théorie de l'électromagnétisme dans le vide ?"
"Oui, mais ce n'est pas une violation de la théorie de l'électromagnétisme"
Mais pour en revenir à OPERA : je maintiens que des neutrinos superluminiques tels qu'ils sont produits et détectés dans l'expérience violeraient l'invariance relativiste telle qu'elle est définie, c'est à dire dans notre monde - et que cette violation n'a pour le moment été montré par rien d'autre.
Bonjours !
Peut t'on dire qu'un polariton qui est une quasiparticule du au couplage de photons avec une onde de champ magnétique, ce qui lui donne une pôlarisation. (Exitation particulair du au charges oposé, états de spin inclus)
En résumé au lieu d'écrire 10 page avec mon français exécrable et difficile a comprendre : Tout ce qui s'exprime dans E = Mc2 même un photon a obligatoirement une masse.
Est ce que cela veut dire qu'une particule ne peut aller au dela de la vitesse de la lumiere, j'en doute fortement, comme certaine expérience on interprétée leur résultats en terme de retard temporel, donc une avance temporel est aussi possible.
.
En fait mon raisonnement ne nécessite à peu près aucune connaissance de physique. Je fais simplement remarquer que le raisonnement baysien de Gilles est basé non pas sur la validité de la relativité (qui présentée toute seule laisse inchangée la probabilité que le résultat d'OPERA soit juste), mais bien sur le couple 'validité de la relativité' + 'incompatibilité entre relativité et avance des neutrinos'. Sachant par ailleurs qu'il y a au moins une trentaine de cordiste qui ont pondu des modèles en quelques semaines, et que puisque ce sont des cordistes leur modèle est à priori compatible avec la relativité au sens de 'la relativité demeure une excellente approximation pour toutes les expériences antérieures', alors attribuer un prior de 0 à la compatibilité relativité/avance des neutrinos n'est ni raisonnable, ni basé sur les résultats expérimentaux.ce n'est pas ce que j'avais en tête, et je ne pense pas Jiav non plus mais il faudrait qu'il confirme, quand il a dit
Envoyé par Jiavp(relativité fausse)=0.001%
p(avance fausse)=0.5
calcul des p:
1-la relativité est fausse et l'avance des neutrinos fausse: 0.001%*0.5=0.0005%
2-la relativité est fausse et l'avance des neutrinos vrai : 0.001%*0.5=0.0005%
3-la relativité est vrai et l'avance des neutrinos fausse: 99.999%*0.5=49.995%
4-la relativité est vrai et l'avance des neutrinos vrai: 99.999%*0.5=49.995%
Une précision sur ce sens: au départ je croyais que, puisque Gilles attribuait un prior très élevé à la validité de la relativité, il parlait nécessairement de la capacité de la relativité à être une excellente approximation pour un domaine de validité pas trop éloigné de ce que les expériences antérieures ont couvertes. En fait à lire sa discussion avec toi, il parle peut-être de la validité de la relativité... tout court, peu importe le domaine de validité. Si c'est le cas, je suppose que le prior est au mieux 0.5, puisque la relativité générale et la MQ sont réputées incompatibles, et que la MQ est largement aussi solide que la relativité générale sur le plan expérimental. En apparté, je trouverais sain que toute théorie physique soit considérée avec un prior d'autant plus faible qu'on est un domaine éloigné du domaine dans laquelle elle a été testée.
Temps limité cause congrès, Au plaisir
la preuve que ce n'est pas forcément compatible avec les résultats expérimentaux, c'est que ça tente d'expliquer un résultat qui est peut être faux ! contrairement à ce que tu as l'air de croire, aucune des propositions lancées en vitesse en quelques jours ou quelques semaines n'a soigneusement vérifié qu'elle restait compatible avec tous les résultats connus, et même tout à l'inverse : il y a eu plusieurs critiques montrant l'incompatibilité d'un neutrino superluminique avec d'autres processus qui aurait du se produire (effet "Tcherenkov faible" , ou même le processus de création des neutrinios eux même !) si l'invariance relativiste est juste, et un colloque de théoriciens réunis en octobre a conclu qu'aucun des modèles proposés n'était satisfaisant. Tu me parais très exagérément optimiste sur la validité des théories proposées, c'est pas parce qu'on pond un article que c'est juste (j'en sais quelque chose ! ). Et même, si on a eu des dizaines de modèles différents, on peut en déduire avec 100 % de certitudes que plus de 90 % sont faux, et donc, si il est certain que plus de 90 % sont faux, alors il est probable que 100 % le sont .Sachant par ailleurs qu'il y a au moins une trentaine de cordiste qui ont pondu des modèles en quelques semaines, et que puisque ce sont des cordistes leur modèle est à priori compatible avec la relativité au sens de 'la relativité demeure une excellente approximation pour toutes les expériences antérieures', alors attribuer un prior de 0 à la compatibilité relativité/avance des neutrinos n'est ni raisonnable, ni basé sur les résultats expérimentaux.
Donc ton calcul ne veut rien dire puisqu'il est basé sur l'INDEPENDANCE des hypothèses que les neutrinos vont à v > c et que la relativité soit juste (ou plutot, que "quelque chose soit faux dans nos théories") , ce qui est absurde, puisqu'une autre conclusion de ton calcul est que la vérification de v > C ne change rien non plus à la probabilité que nos théories soient justes ... ce qui est l'exact opposé de ce qui était annoncé !
précisément, la mesure était faite dans un secteur ( la physique des particules) tout à fait dans l'ordre de grandeur de ce qui avait été testé , puisqu'elle impliquait des conséquences tout à fait mesurables, y compris dans la cinématique de production des neutrinos, dont ta critique n'est pas pertinente : je parlais bien de la validité de la Relativité dans le secteur où elle a été validée.Une précision sur ce sens: au départ je croyais que, puisque Gilles attribuait un prior très élevé à la validité de la relativité, il parlait nécessairement de la capacité de la relativité à être une excellente approximation pour un domaine de validité pas trop éloigné de ce que les expériences antérieures ont couvertes. En fait à lire sa discussion avec toi, il parle peut-être de la validité de la relativité... tout court, peu importe le domaine de validité. Si c'est le cas, je suppose que le prior est au mieux 0.5, puisque la relativité générale et la MQ sont réputées incompatibles, et que la MQ est largement aussi solide que la relativité générale sur le plan expérimental. En apparté, je trouverais sain que toute théorie physique soit considérée avec un prior d'autant plus faible qu'on est un domaine éloigné du domaine dans laquelle elle a été testée.
Je ne comprends pas le rapport. On n'a pas attendu d'utiliser la vitesse de la lumière pour définir le mètre et de toute façon, comment mesure t'on la vitesse de la lumière ? Je maintiens, c'est parfaitement exacte qu'il est particulièrement indiqué de traiter de la structure de l'espace-temps à partie de la propagation de rayons lumineux mais ça n'est pas une nécessité comme Einstein l'a souligné. Dès les années 1930 les expériences avec des faisceaux de particules de matière montraient que la relativité restreinte était correcte. Personne n'a démontré que la masse du photon est nulle, rien qu'en relativité générale 4D pure, on pourrait très bien avoir des photons qui vont toujours moins vite que le graviton, et c'est peut-être le cas, donc a priori je ne vois pas ce qui empêcherait des neutrinos d'aller plus vite que la lumière sans violer quoi que ce soit à la relativité.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Ben d'une certaine façon si ! On a généralisé la loi de Poisson en relation avec un espace-temps courbe et ce sont les équations d'Einstein.
“I'm smart enough to know that I'm dumb.” Richard Feynman
J'entends bien, mais ça n'était pas mon point puisque on voir quelque chose de similaire dans la théorie de grojean et all et c'est une conséquence de la relativité générale en 5D.Mais pour en revenir à OPERA : je maintiens que des neutrinos superluminiques tels qu'ils sont produits et détectés dans l'expérience violeraient l'invariance relativiste telle qu'elle est définie, c'est à dire dans notre monde - et que cette violation n'a pour le moment été montré par rien d'autre.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Je suis bien d'accord qu'il est nécessaire d'avoir une définition opérationnelle du temps et de l'espace pour faire de la physique, ce qui ne veut pas dire que la physique n'est que positiviste mais c'est un autre point. Mais justement, dans l'exemple de la théorie de Grojean et all, on introduit naturellement des effets de violation de l'invariance de Lorenz effectif à partir de principes qui sont ceux de la relativité générale. On a donc une structure économe et homogène et on pas à introduire des termes ad hoc au modèle standard provenant dont ne sait où pour rendre compte de la violation de Lorentz effective observée. De plus, non seulement les auteurs parlent de nouveaux effets visibles avec les ondes gravitationnelles mais ils font le lien avec l'énergie noire. Mais ce n'est pas tout, le cadre qu'il utilise est typiquement celui des théories genre Randall Sundrum où on a une riche phénoménologie potentielle en accélérateurs, c'est à dire des modes de Kaluza-Klein et des mini trous noirs si la masse de Planck est faible. C'est bien parce qu'on ne voit pas ces effets que je trouve très peu probable, mais ça doit rester logiquement possible, qu'on voit des effets de dimensions spatiales supplémentaires avec les neutrinos et rien pour d'autres prédictions potentielles.il est possible que je n'ai pas une conception "standard" de ça, mais je considère que l'invariance relativiste n'a de sens que dans la mesure où elle peut être comparée à des expériences concrètes (par exemple des vérifications concrètes de l'invariance de c dans l'experience de Morley Michelson ou du principe d'équivalence par l'absence de gravité résiduelle dans un référentiel en chute libre). Je ne vois pas trop l'interêt d'une théorie qui aurait cette invariance dans un espace non accessible à la mesure, et la briserait dans un espace accessible à la mesure - à part précisément si il s'agit d'expliquer une brisure de cette invariance qui aurait été mise en évidence dans les expériences ! mais en tout état de cause, la physique actuelle dit le contraire - toutes les expériences ont justement vérifié cette invariance à toute la précision accessible. Pour moi l'invariance relativiste n'a pas de sens en dehors d'un cadre spatio temporel justement fixé par les mesures concrètes qu'on fait dedans....
“I'm smart enough to know that I'm dumb.” Richard Feynman
une alternative est l'emploi d'étalons matériels; mais si tu réfléchis à ce qui fait la "dimension" des étalons matériels, qui sont in fine dus à l'interaction électromagnétique qui "définit" la taille des atomes, et donc qui inclut la valeur de c (dans le vide ) tu aboutiras à la même conclusion : la vitesse de la lumière, mesurée à l'aide d'étalons de longueurs, ne peut qu'être invariante localement (encore une fois se référer à la façon dont la métrique spatiale est définie ).
par exemple, la taille d'un atome d'iridium est lié à la constante structure fine , qui est calculée à partir de la vitesse de la lumière dans le vide , PAS la vitesse des neutrinos ou d'une particule matérielle qui dépend de l'énergie. Si tu définis l'unité de longueur par un certain nombre de fois la taille d'un atome d'iridium, et l'unité de temps par une certaine fréquence d'oscillation d'un atome de césium, "mesurer la vitesse de lumière" revient à te demander combien d'atomes d'iridium un photon a le temps de parcourir pendant une vibration d'un atome de césium, basiquement. SI les principes d'invariance de galilée et d'équivalence sont respectés, cela veut dire, très concrètement, que tu n'es pas capable de déceler une vitesse absolue , ou un champ de gravitation local en chute libre, et que DONC ce nombre (d'atomes d'iridium parcourus pendant une vibration de césium) est constant - sinon c'est contradictoire. Et DONC ça implique que la vitesse de la lumière dans le vide est une constante universelle, sinon, ça veut dire que les lois de la physique ont changé .
peut être, mais alors ça viole les principes d'équivalence et d'invariance galiléenne vus dans notre monde, encore une fois . Il n'y a par ailleurs aucune obligation qu'ils soient vrais, simplement tout ce qu'on a mesuré à part l'expérience OPERA les confirme.
Je maintiens, c'est parfaitement exacte qu'il est particulièrement indiqué de traiter de la structure de l'espace-temps à partie de la propagation de rayons lumineux mais ça n'est pas une nécessité comme Einstein l'a souligné.Dès les années 1930 les expériences avec des faisceaux de particules de matière montraient que la relativité restreinte était correcte. Personne n'a démontré que la masse du photon est nulle, rien qu'en relativité générale 4D pure, on pourrait très bien avoir des photons qui vont toujours moins vite que le graviton, et c'est peut-être le cas.
Note bien que mon propos n'est nullement de prétendre qu'il est impossible qu'une seule expérience contredise tout ce qu'on avait mesuré jusque là. C'est précisément ce qu'avait fait l'expérience de Morley Michelson (enfin pas tout à fait, il y avait aussi la formule de mesure de la vitesse de la lumière dans un fluide en mouvement par Fizeau qui ne "collait pas bien") . Mon propos est uniquement d'insister sur le fait que la probabilité d'une erreur expérimentale doit être extrêmement faible avant de l'adopter, c'est tout.
je repose ma question : que ce passe-t-il dans un référentiel où, selon les formules de la RR, le détecteur détecte un neutrino avant qu'l ait été produit ? (il existe même des référentiels ou le neutrino est détecté des siècles avant que le CERN soit seulement construit !!! )donc a priori je ne vois pas ce qui empêcherait des neutrinos d'aller plus vite que la lumière sans violer quoi que ce soit à la relativité.
j'insiste : mon propos n'est pas du tout de dire que le monde est forcément celui qu'on croit, et que les théories alternatives sont fausses. Il est juste dans la discussion de la façon dont un "nouveau" résultat (qui semble montrer qu'il pourrait être différent de ce qu'on croit) doit être accepté et validé comme un résultat significatif. J'insiste seulement sur le fait que plus le changement qu'il introduit est important, plus le résultat lui même doit être garanti avec la plus faible incertitude - juste une manière de redire "extraordinary claims require extraordinary evidence" - note bien que la discussion autour de la mesure d'OPERA pourrait être totalement décalquée aux cas des observations d'OVNI par exemple : il n'est nullement impossible que des extraterrestres existent, qu'ils nous visitent, beaucoup de théories ont été publiées à ce sujet , des faits semblent être en accord avec eux - c'est uniquement dans la certitude , ou non, que ces faits sont réels, qu'on y croit ou pas.
ça je suis bien d'accord. En l'état, les résultats d'Opera ne me convainquent pas du tout précisément parce qu'on a trop de résultats précis contraignant ailleurs ce qui rend très improbable que l'effet soit réel.
“I'm smart enough to know that I'm dumb.” Richard Feynman
J'ai l'impression qu'embrouillé par cette discussion monsieur Occam a perdu son rasoir depuis longtemps, et n'est pas près de le retrouver.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Oh, on verra en dans quelques mois , la collaboration Minos laisse entendre qu'ils vont dire qq bricoles eux-aussi. Avec de la chance, on sera fixé avant la fin de l'année.
“I'm smart enough to know that I'm dumb.” Richard Feynman
La théorie peut-elle posséder des incertitudes ? ou par essence la théorie (relativité ou autres) est nécessairement exacte ?
Evidemment je pense au principe d'incertitude d'Heisenberg mais dans le cas d'OPERA il n'en est pas question je crois (?)
Bonsoir,
Voilà, j'avais eu une idée et je souhaiterais vous l'exposer mais je ne suis pas assez doué en mathématiques mais je vais tenter une analogie mathématique pour que vous puissiez comprendre. J'aurais aimer être un grand physicien mais il est clair que maintenant c'est trop tard, alors je vais voir si l'intuition mathématique à encore de beau jour devant elle !
Alors, voici de manière très basique les indéterminations de Heisenberg :
Je peux prendre les égalités minimales de Heisenberg :
Ce qui est équivalent à :
<=>
<=>
Je vais introduire un nouveau symbole qui signifie que l'on peut "développer", faire évoluer mathématiquement cet être mathématique pour qu'il prenne toute sa signification (c'est là que j'aurais aimé être un grand physicien ! ) : le symbole est :
Voilà mon intuition mathématique :
Bon, ça parait hermétique mais c'est pas super compliqué, le tenseur énergie impulsion est l'expression macroscopique du rapport des indéterminations de l'énergie et de l'impulsion microscopique. Le tenseur d'espace-temps est l'expression macroscopique du rapport des indéterminations de l'espace et du temps microscopique !
Ainsi je peux développer un raisonnement sur le tenseur espace-temps qui se compose du tenseur de Ricci, du tenseur métrique, la courbure scalaire et la constante cosmologique :
En fait je ne peux par manque de matière grise matheuse écrire ce que j'éprouve mais le tenseur métrique est utilisé dans la mesure des distances et des angles or je pense que c'est une plus précise façon d'écrire les indéterminations de Heisenberg (voir : http://forums.futura-sciences.com/co...eisenberg.html) qui compose l'espace-temps microscopique. Les incertitudes du spin et de la direction.
Si mon intuition n'est pas trop mauvaise alors on peut supposer que la constante cosmologique tire son essence du monde microscopique !
Je comprend bien ton point de vue, et c'est très intéressant comme discussion. Note que ce que tu appelles mon calcul est juste une façon de montrer en quoi ce que je crois être ton raisonnement fait en fait des hypothèses qui ne sont pas celles que tu penses. Cela ne passe pas, donc prenons un exemple:j'insiste : mon propos n'est pas du tout de dire que le monde est forcément celui qu'on croit, et que les théories alternatives sont fausses. Il est juste dans la discussion de la façon dont un "nouveau" résultat (qui semble montrer qu'il pourrait être différent de ce qu'on croit) doit être accepté et validé comme un résultat significatif. J'insiste seulement sur le fait que plus le changement qu'il introduit est important, plus le résultat lui même doit être garanti avec la plus faible incertitude - juste une manière de redire "extraordinary claims require extraordinary evidence"
Nous sommes en 1850 et la théorie de la gravitation de Newton est supportée par une telle masse de donnée que le prior "la gravitation de Newton est fausse" devrait se voir attribuer quelque chose comme 0.9999%. Es-tu d'accord que cela représente exactement ta position en 2012 (bien sur en remplaçant Newton par Einstein)?
Faisons un peu de sciences rétrononfiction (je viens d'inventer le genre ): imaginons qu'on découvre que la lumière a une vitesse invariante, ce qui est en contradiction avec la belle mécanique de Newton.
Faut-il vraiment penser que Newton est safe à 0.9999% puisque les idées de Newton ont conduit à de bonnes prédictions jusqu'ici, ou faut-il penser que la vitesse de la lumière n'a jamais été testée, donc que le prior est beaucoup plus faible? Bien sur tu peux défendre le premier (et dans ce cas le fait que tu ferais erreur est simplement un biais de sélection de ma part), mais je ne comprends vraiment pas sur quelles bases.
C'est peut-être là que j'ai le plus de difficulté à te suivre. Il y a toute une série de mesure de la masse au carré des neutrinos qui suggère, ou du moins est parfaitement compatible avec, une masse au carré négative. Par ailleurs, la vitesse des neutrinos (du moins des neutrinos ayant cette énergie) n'a jamais été mesurée avec précision, n'est-ce pas? La seule raison que je peux voir pour laquelle tu penses que c'est incompatible avec les résultats antérieurs, c'est parce que la physique des particules qui rend compte des résultats "classiques" n'est pas facilement capable de prédire ou d'intégrer un résultat v>c. Est-ce bien cela ton raisonnement?précisément, la mesure était faite dans un secteur ( la physique des particules) tout à fait dans l'ordre de grandeur de ce qui avait été testé , puisqu'elle impliquait des conséquences tout à fait mesurables, y compris dans la cinématique de production des neutrinos, dont ta critique n'est pas pertinente : je parlais bien de la validité de la Relativité dans le secteur où elle a été validée.
Pour reprendre l'analogie avec la théorie de Newton, c'est une théorie qui n'est pas du tout capable de prédire ou d'intégrer une vitesse invariante. Mais l'arrivée de la relativité générale n'a en rien changé que Newton demeure une très bonne approximation dans nombre de situation, c'est-à-dire que les résultats anciens ne sont en rien invalidés par l'arrivée de cette nouvelle théorie. N'est-ce pas cette situation qui s'applique?
AbsolumentEnvoyé par mtheoryOh, on verra en dans quelques mois
Au passage une remarque de Strassler très pertinente àmha
Comme il dit ce serait dur à avaler que ces sources de biais potentiels se retrouve par hasard à l'identique sur une moyenne de 3 ans versus quelques semaines... est-ce que quelqu'un veut parier (en amical) que cette source d'erreur précise finira par être écartée? (indépendamment que le résultat finisse par être ou non accepté)UPDATE: There’s something that’s been bothering me all along, and although I alluded to it in an earlier post, a commenter’s question prompted me to write it down more carefully. This issue must also be bothering the OPERA people a lot.
The point is this: there is no reason that the two problems that OPERA has identified — that an oscillator in the main clock was off from what it had been measured to be at some earlier point — and that the exact orientation of the optical fiber bringing in the GPS timing signal could change the amount of light entering the optical-to-electrical conversion system and somehow [they know how, but I don't] induce a delay in the electrical timing signal exiting the system — should be constant in time, at least not over years. They measured the oscillator at some point and it was fine; now it isn’t. When did it shift? And can we really expect that the orientation of a cable would remain fixed over the three years during which the original OPERA experiment was carried out? A little bit of maintenance, or even just a little settling of other wires nearby, would easily lead to a change in the cable’s orientation.
The mysterious thing is that the two versions of the OPERA speed measurement — the one with long pulses that was done over 2009, 2010, and 2011, and the one with short pulses done over two weeks in October 2011 (which I called OPERA-1 and OPERA-2 to distinguish them) — gave the same answer, about 60 nanoseconds early arrival. But if the problem came from a slowly drifting or suddenly shifting clock combined with a fiber that slowly drooped or got jostled at some point, you’d expect OPERA-1 to have an average of different timing shifts as the oscillator and fiber changed from 2009 to 2011, and OPERA-2 to have a single timing shift that represented what the oscillator and fiber were doing in October 2011. There’s no reason the average timing shift over three years should be the same as the final timing shift, unless the timing shift was extremely stable — but the two problems they’ve identified suggest instability would have been expected.
This certainly has me [and some commenters] wondering (and I am sure it has the OPERA people wondering) whether they’ve actually found the main problem.
On aurait eu, en mon sens, la même démarche. D’où tout l'intérêt d'une approche bayésienne comme langage de représentation du monde et de ses incertitudes. Un processus d’apprentissage qui permet d'identifier un système en reconstruisant le vecteur des états modèles de la "nature" à partir des informations collectées au fur et à mesure.Nous sommes en 1850 et la théorie de la gravitation de Newton est supportée par une telle masse de donnée que le prior "la gravitation de Newton est fausse" devrait se voir attribuer quelque chose comme 0.9999%. Es-tu d'accord que cela représente exactement ta position en 2012 (bien sur en remplaçant Newton par Einstein)?
Il existe dans la démarche bayésienne une approche par distribution à priori non informative conçues dans le but de faire de l'analyse bayésienne lorsqu'il y a absence de l'information a priori sur le paramètre d'intérêt qui conduit souvent à la spécification d'une mesure et non d'une probabilité.
Patrick
Dernière modification par invite6754323456711 ; 27/02/2012 à 21h16.
OK, admettonsNous sommes en 1850 et la théorie de la gravitation de Newton est supportée par une telle masse de donnée que le prior "la gravitation de Newton est fausse" devrait se voir attribuer quelque chose comme 0.9999%. Es-tu d'accord que cela représente exactement ta position en 2012 (bien sur en remplaçant Newton par Einstein)?
quand tu dis "on découvre", c'est par une expérience ? dans ce cas tout dépend de la précision de l'expérience : si la probabilité d'une erreur de mesure est très faible, alors on a des bonnes raisons de penser que finalement, la théorie de Newton pourrait être fausse.
Faisons un peu de sciences rétrononfiction (je viens d'inventer le genre ): imaginons qu'on découvre que la lumière a une vitesse invariante, ce qui est en contradiction avec la belle mécanique de Newton.
le prior n'est pas plus faible, c'est la réévaluation bayesienne après le résultat de l'expérience qui le contredit, qui le rend plus faible - mais ça ne peut se faire que si la probabilité d'une erreur de mesure est elle même plus faible que le prior sur le fait qu'elle pourrait être fausse.Faut-il vraiment penser que Newton est safe à 0.9999% puisque les idées de Newton ont conduit à de bonnes prédictions jusqu'ici, ou faut-il penser que la vitesse de la lumière n'a jamais été testée, donc que le prior est beaucoup plus faible? Bien sur tu peux défendre le premier (et dans ce cas le fait que tu ferais erreur est simplement un biais de sélection de ma part), mais je ne comprends vraiment pas sur quelles bases.
lesquelles ??? les neutrinos de SN1987A ne suggèrent pas du tout cela, et de plus, ça poserait des problèmes de causalité, comme j'ai expliqué. Je ne vois pas du tout à quels résultats FIABLES tu fais allusion.C'est peut-être là que j'ai le plus de difficulté à te suivre. Il y a toute une série de mesure de la masse au carré des neutrinos qui suggère, ou du moins est parfaitement compatible avec, une masse au carré négative.
pas que. Encore une fois il y a des problèmes conceptuels de causalité violée dans l'expérience OPERA si v >c, plus tous les problèmes genre création de paire par effet Tcherenkov faible, etc ....Par ailleurs, la vitesse des neutrinos (du moins des neutrinos ayant cette énergie) n'a jamais été mesurée avec précision, n'est-ce pas? La seule raison que je peux voir pour laquelle tu penses que c'est incompatible avec les résultats antérieurs, c'est parce que la physique des particules qui rend compte des résultats "classiques" n'est pas facilement capable de prédire ou d'intégrer un résultat v>c. Est-ce bien cela ton raisonnement?
non, des neutrinos superluminiques poseraient le même genre de paradoxe que la théorie de Newton, c'est à dire, dans un certain référentiel , une interaction instantanée à distance - ce sont ces paradoxes qui ont conduit à ABANDONNER la théorie de Newton, ça serait curieux d'en faire un argument pour ADOPTER v > c !
Pour reprendre l'analogie avec la théorie de Newton, c'est une théorie qui n'est pas du tout capable de prédire ou d'intégrer une vitesse invariante. Mais l'arrivée de la relativité générale n'a en rien changé que Newton demeure une très bonne approximation dans nombre de situation, c'est-à-dire que les résultats anciens ne sont en rien invalidés par l'arrivée de cette nouvelle théorie. N'est-ce pas cette situation qui s'applique?
moui, on ne sait pas comment l'erreur est apparue, et elle a pu "switcher" assez tot dans l'expérience pour dominer le résultat final ...Au passage une remarque de Strassler très pertinente àmha
ce qui est certain, c'est que deux erreurs qui n'avaient pas été détectées, ça augmente sérieusement la probabilité qu'il y a un écart systématique quelque part qui n'a pas été bien corrigé (peut etre un troisième ! )
Comme il dit ce serait dur à avaler que ces sources de biais potentiels se retrouve par hasard à l'identique sur une moyenne de 3 ans versus quelques semaines... est-ce que quelqu'un veut parier (en amical) que cette source d'erreur précise finira par être écartée? (indépendamment que le résultat finisse par être ou non accepté)
Peux-tu donner un exemple? Si possible en sciences humaines car la question de quoi mesurer y est beaucoup plus délicate, et intéressante, qu'en physique.Il existe dans la démarche bayésienne une approche par distribution à priori non informative conçues dans le but de faire de l'analyse bayésienne lorsqu'il y a absence de l'information a priori sur le paramètre d'intérêt qui conduit souvent à la spécification d'une mesure et non d'une probabilité.
Admettons ou OK? Si tu penses qu'il y a une différence de nature entre les deux situations ce serait intéressant d'examiner en quoi (de nature parce que bien sur on peut argumenter que les probas ne sont pas les mêmes dans les deux cas, le résultat d'invariance de la lumière étant, comme tu l'as indiqué, moins sujet à une erreur de mesure que la mesure de vitesse des neutrinos).
(oui bien sur) Comment est-ce qu'on évalue la probabilité d'une erreur de mesure?
Je crois comprendre la logique de la première partie: on part d'un prior de 0.9999 sur Newton juste (ouch et pas 0.9999%), on a une expérience qui le contredit ,et cela baisse le prior (d'une quantité à préciser ). Très baysien.le prior n'est pas plus faible, c'est la réévaluation bayesienne après le résultat de l'expérience qui le contredit, qui le rend plus faible - mais ça ne peut se faire que si la probabilité d'une erreur de mesure est elle même plus faible que le prior sur le fait qu'elle pourrait être fausse.
Par contre je ne comprend pas la logique de la partie suivante: tu veux dire que la proba d'une erreur de mesure doit être plus faible que 1-p(Newton_juste) sinon cela ne change rien au prior? C'est pas baysien ça!
J'en avais parlé dans le premier sondage. Bien sur aucun résultat clear cut, cela aurait fait autant de bruit qu'OPERA! Ce qu'il y a c'est une série de résultat qui sont chacun compatibles autant avec une masse2 positive que négative, mais avec collectivement une surabondance de résultats pointant vers une masse2 négative. Voir ce papier, qui explique le problème (si les mesures ne sont pas assez précise, alors on devrait s'attendre à autant de négatif que positif -or voir figure 1 il y a 15/16 dans le sens "masse2 négative") et discute la nature des biais qui expliqueraient ce résultat "non physique".
(trouvé via vixgra)
Les problèmes lié à l'effet Tcherenkov, ce n'est pas inclu dans la case physique des particules classique? Pour la causalité, voir le commentaire suivant.pas que. Encore une fois il y a des problèmes conceptuels de causalité violée dans l'expérience OPERA si v >c, plus tous les problèmes genre création de paire par effet Tcherenkov faible, etc ....Envoyé par jiavla physique des particules qui rend compte des résultats "classiques" n'est pas facilement capable de prédire ou d'intégrer un résultat v>c.
J'aime bien l'analogie, mais il y a un petit détail qui ne colle pas: ni Newton, ni Einstein ne sont complètement compatibles avec la causalité! C'est peu connu dans le cas de la mécanique classique, mais elle autorise des configurations dans lesquelles la causalité est mise à mal (voir en particulier l'exemple de John Norton ici). Dans le cas de la relativité générale, c'est pire! La solution de Norton est sensible aux conditions initiales, c'est-à-dire impossible à prouver en pratique. En revanche en relativité générale on a des singularités qui sont un résultat générique, des tas de solutions incompatibles avec la causalité (par exemple l'univers de Godel), et même une violation générique de la conservation de l'énergie notamment avec une constante cosmologique non nulle (ce que tu as toi-même fait remarqué dans plusieurs discussions et sur ton blog) -ce qui est aussi une violation de causalité. Le paradoxe que tu indiques en est un, mais au moins dans le cas de Einstein vs Newton la solution amène plus de paradoxe que ce qu'elle ne résout!non, des neutrinos superluminiques poseraient le même genre de paradoxe que la théorie de Newton, c'est à dire, dans un certain référentiel , une interaction instantanée à distance - ce sont ces paradoxes qui ont conduit à ABANDONNER la théorie de Newton, ça serait curieux d'en faire un argument pour ADOPTER v > c !
Difficile dans ces conditions de croire que ce sont vraiment les paradoxes qui ont conduit à abandonner Newton
Pourquoi pas, mais le point est qu'il aurait fallu une coïncidence assez surprenante pour qu'elle soit "switchée" exactement autant dans le second run de deux semaine qu'en moyenne sur trois ans.
C'est clair. Le nombre de personnes répondant au sondage a d'ailleurs augmenté de 30%, tous dans le même sens.
Mais on en revient à ma question plus haut: comment on quantifie cette augmentation?
je dis ok, admettons ta situation. Bien sûr toute la différence repose sur la fiabilité de l'expérience la contredisant.
Admettons ou OK? Si tu penses qu'il y a une différence de nature entre les deux situations ce serait intéressant d'examiner en quoi (de nature parce que bien sur on peut argumenter que les probas ne sont pas les mêmes dans les deux cas, le résultat d'invariance de la lumière étant, comme tu l'as indiqué, moins sujet à une erreur de mesure que la mesure de vitesse des neutrinos).
dans cette affaire, comme dans toute les probabilités subjectives, il n'y a aucun besoin d'une définition précise, parce que la seule question est de savoir si l'expérience baisse significativement le prior que tu mettais dans la théorie au départ, c'est tout. Tu ne peux pas non plus quantifier précisément la probabilité qu'une théorie soit juste (contrairement à ce que certains prétendent dans certains rapports intergouvernementaux ). Il suffit là d'une estimation subjective que l'erreur expérimentale soit bien moins probable que le fait que la théorie soit fausse.
(oui bien sur) Comment est-ce qu'on évalue la probabilité d'une erreur de mesure?
ben si !!!Je crois comprendre la logique de la première partie: on part d'un prior de 0.9999 sur Newton juste (ouch et pas 0.9999%), on a une expérience qui le contredit ,et cela baisse le prior (d'une quantité à préciser ). Très baysien.
Par contre je ne comprend pas la logique de la partie suivante: tu veux dire que la proba d'une erreur de mesure doit être plus faible que 1-p(Newton_juste) sinon cela ne change rien au prior? C'est pas baysien ça!
si tu pars d'un prior Pt que la théorie soit fausse (petit) et de Pe que l'expérience soit fausse (petit aussi) , le fait que l'expérience contredise la théorie signifie que la probabilité conjointe que l'expérience et la théorie soit toutes deux vraies est nulle (sinon tu ne contredis rien du tout), donc les 2 ne sont pas indépendants, contrairement à ton raisonnement. En fait la probabilité qui devrait etre (1-Pt)*(1-Pe) qui devrait etre proche de 1 devient quasi nulle ! l'évaluation bayesienne ne porte plus que sur les 3 probabilités résiduelles (très faibles à prori mais on n'a pas le choix ! ) , et non 4 comme tu disais :
* T est juste et E est faux : (1-Pt)* Pe
* T est faux et E est faux Pe*Pt
* T est faux et E est juste Pt*(1-Pe)
La probabilité "réévaluée" que T soit fausse est donc Pt/(Pe+Pt-Pe*Pt) Tu remarque donc que si Pe >> Pt elle est de l'ordre de Pt/Pe << 1 : elle a bien été 'réévaluée " (valeur plus grande ) mais reste "très faible". Si Pe << Pt en revanche elle devient proche de 1. Le fait que ça devienne "probable" que T soit fausse est donc totalement conditionné au fait que Pe << Pt , c'est d'ailleurs logique, tu ne fais pas confiance à une expérience mal maitrisée !
la figure 1 montre que les vieux résultats avec des grosses barres d'erreurs étaient < 0 mais tout le reste pointe ensuite vers zéro ! tu n'as vraiment pas l'air d'aimer les effets systématiques ...
J'en avais parlé dans le premier sondage. Bien sur aucun résultat clear cut, cela aurait fait autant de bruit qu'OPERA! Ce qu'il y a c'est une série de résultat qui sont chacun compatibles autant avec une masse2 positive que négative, mais avec collectivement une surabondance de résultats pointant vers une masse2 négative. Voir ce papier, qui explique le problème (si les mesures ne sont pas assez précise, alors on devrait s'attendre à autant de négatif que positif -or voir figure 1 il y a 15/16 dans le sens "masse2 négative") et discute la nature des biais qui expliqueraient ce résultat "non physique".
si justement, des effets liés à la physique classique et à v >C ne sont pas observés, c'est précisément ça qui diminue considérablement la probabilité (E et T sont justes), qui devrait etre proche de 1 si les 2 étaient indépendants !!Les problèmes lié à l'effet Tcherenkov, ce n'est pas inclu dans la case physique des particules classique? Pour la causalité, voir le commentaire suivant.
[quote–
J'aime bien l'analogie, mais il y a un petit détail qui ne colle pas: ni Newton, ni Einstein ne sont complètement compatibles avec la causalité! C'est peu connu dans le cas de la mécanique classique, mais elle autorise des configurations dans lesquelles la causalité est mise à mal (voir en particulier l'exemple de John Norton ici). Dans le cas de la relativité générale, c'est pire! La solution de Norton est sensible aux conditions initiales, c'est-à-dire impossible à prouver en pratique.
[/quote]
c'est pareil tu fais appel à des situations improbables et dont personne ne sait si elles pourraient être réalisées. Les violations de la causalité sont GENERIQUES si v > c, ça a un statut très différent !
la conservation de l'énergie est tout simplement abandonnée, pour une raison très simple : il n'y a rien que tu puisses appeler "l'énergie totale" dans un univers einsteinien. Ce n'est pas la conservation qui a disparu, c'est la notion elle même d'énergie totale qui a disparu, comme celle de "calorique" - ce n'est donc pas un paradoxe.En revanche en relativité générale on a des singularités qui sont un résultat générique, des tas de solutions incompatibles avec la causalité (par exemple l'univers de Godel), et même une violation générique de la conservation de l'énergie notamment avec une constante cosmologique non nulle (ce que tu as toi-même fait remarqué dans plusieurs discussions et sur ton blog) -ce qui est aussi une violation de causalité. Le paradoxe que tu indiques en est un, mais au moins dans le cas de Einstein vs Newton la solution amène plus de paradoxe que ce qu'elle ne résout!
Difficile dans ces conditions de croire que ce sont vraiment les paradoxes qui ont conduit à abandonner Newton
Ce ne sont pas que les paradoxes qui ont conduit à abandonner Newton, en revanche, ils ont conduit à abaisser significativement le prior qu'elle soit juste, ce qui a rendu l'interprétation des expériences confirmant la violation (par exemple la précession du périhélie de Mercure) bien plus significative.
il suffit qu'il ait été switchée la majeure partie du temps, y compris dans le run de vérification non ? la significativité a été obtenue sur toute la moyenne, mais quand tu regardes la dispersion des différentes périodes de mesure, elle est notable.
Pourquoi pas, mais le point est qu'il aurait fallu une coïncidence assez surprenante pour qu'elle soit "switchée" exactement autant dans le second run de deux semaine qu'en moyenne sur trois ans.
ma réponse est : le problème n'est qu'une comparaison subjective entre Pt et Pe, il n'y a pas besoin de les quantifier précisément, il y a juste besoin d'être sur que Pe << Pt, avant de changer d'avis, c'est tout.C'est clair. Le nombre de personnes répondant au sondage a d'ailleurs augmenté de 30%, tous dans le même sens.
Mais on en revient à ma question plus haut: comment on quantifie cette augmentation?
http://www.ummto.dz/IMG/pdf/magister.pdf
Comment s’habiller demain matin compte tenu des aléas météorologiques ? Une mesure météo aurait pu aider :
Image extrait de : Le raisonnement bayésien page 14
Patrick
Bonjour, j'ai lu ton lien JIAV sur le déterminsime et ses exemples sont, si ce n'est faux, en rien une justification à l'indéterminisme. Tout d'abord son histoire de vitesse infinie en un temps fini est tout simplement faux, si v = at, alors en un temps fini on a une vitesse finie, de même que la position, si elle augmente en t^2 cela ne signifie pas qu'à t fini elle est à l'infinie, bien au contraire, c'est un problème de limite, mais les autres cas qu'il cite sont plus intéressants.
Le problème de la bille sur un point selle met en avant une indétermination mathématique, autrement dit nos outils ne sont pas adaptés à la description d'un point, car un point est de mesure nulle, et possède tous les angles possibles, finalement ça n'a pas grand chose à voir avec la physique. A noter que sont choc de trois particules n'est vraiment indéterminées que si il s'agit de particules ponctuelles, puisque sinon, elles doivent tourner avant d'être rééjecter.
Le même problème existe dans les exemples dont il parle ensuite, une charge électrique ponctuelle pose aussi des problèmes de causalité, car il peut y avoir des solutions autoaccélérées.
Le problème vient du fait que nous faisons de la physique locale, c'est quasiment ce qu'il y a de plus important en physique, les équations de maxwell, par exemple, sont locales, et pour les utiliser on emploie des distributions. Et bizarrement tous les problèmes physiques actuels fondamentaux viennent plus ou moins de là.
On pourrait imaginer que la mécanique quantique change la donne, puisque c'est une théorie non déterministe,(si elle est sans variable cachée bien sûr), mais pas du tout. Les même problèmes de physique du point existent en théorie quantique des champs. On utilise les mêmes distributions pour définir les champs, et c'est pour ça qu'on a des divergences. (UV par exemple) On les fait disparaitre par la renormalisation. Bien sûr c'est un peu différent car plus on est précis en un point, plus on utilise de fréquence (cad plus on est large en fourrier), et plus la probabilité de créer des particules à partir du vide augmente, mais ça vient du fait qu'on a équivalence entre masse et énergie, et entre énergie et fréquence, l'outil de base lui reste le même, un champ, vrai au sens des distributions, et on ne se passe pas de la localité pour l'instant.
Pour en revenir à Opera, si jamais il ne s'agit pas de l'erreur, alors on peut se demander comment leur analyse a pu être aussi robuste alors qu'il y avait une telle sensibilité non? Ca ne joue pas en la faveur d'une mesure qui confirmerait le premier résultat. Bon déjà quand le LHC aura trouvé le Higgs on sera content, officiellement ça devrait plus trop tarder.
Soit. Au final ce que tu appelais un raisonnement baysien n'est finalement qu'une rationnalisation pour un raisonnement fondamentalement subjectif -ce n'est pas une critique, je ne suis pas sur qu'on puisse faire mieux. Mais la promesse baysienne est au contraire d'arriver à une procédure objective et reproductible, indépendante de l'observateur. Un peu dommage que ce nom serve de cache-sexe à une méthode de doigt mouillé. Là c'est une critique
Non, l'évaluation baysienne ne consiste pas à ignorer une possibilité sous prétexte que sa probabilité est faible. Surtout que tu n'as en rien montré qu'elle est faible. Encore une fois il y a une confusion entre la relativité "en principe" et la relativité "en approximation raisonnable". Si tu pars de la relativité "en principe", alors le prior sur la relativité est nécessairement faible. Si tu pars de la relativité "en approximation raisonnable", c'est le prior sur l'incompatibilité qui devient faible. Ce que tu fais c'est partir de la relativité "en approximation raisonnable", pour dire que son prior est fort, puis tu glisses à la relativité "en principe", pour dire que le prior sur l'incompatibilité est fort. C'est tordu, comme on peut s'attendre de toute rationalisation.
Tu passes à côté du point*: les violations sont bénignes en mécanique classique, mais pas avec la relativité où les violations sont obligatoires et ont des conséquences observables.c'est pareil tu fais appel à des situations improbables et dont personne ne sait si elles pourraient être réalisées. Les violations de la causalité sont GENERIQUES si v > c, ça a un statut très différent !Envoyé par jiavJ'aime bien l'analogie, mais il y a un petit détail qui ne colle pas: ni Newton, ni Einstein ne sont complètement compatibles avec la causalité! C'est peu connu dans le cas de la mécanique classique, mais elle autorise des configurations dans lesquelles la causalité est mise à mal (voir en particulier l'exemple de John Norton ici). Dans le cas de la relativité générale, c'est pire! La solution de Norton est sensible aux conditions initiales, c'est-à-dire impossible à prouver en pratique.
*(kalish aussi, donc c'est moi qui n'ai pas été assez clair)
Grace à la relativité la conservation de l'énergie devient un non-concept, son inexistence est donc un non-paradoxe.la conservation de l'énergie est tout simplement abandonnée, pour une raison très simple : il n'y a rien que tu puisses appeler "l'énergie totale" dans un univers einsteinien. Ce n'est pas la conservation qui a disparu, c'est la notion elle même d'énergie totale qui a disparu, comme celle de "calorique" - ce n'est donc pas un paradoxe.
Bien sur que ce ne sont pas les paradoxes, puisque la relativité en comporte plus que Newton. C'est très intéressant que tu mentionnes la précession pour Mercure. Oui dans les livres d'histoire des sciences c'est bien cette expérience qui est identifiée comme le tournant à partir duquel la relativité sera acceptée. Ce qui est amusant, c'est que cette expérience était très faible sur le plan méthodologique -au point que certains parlent de "biais de confirmation" pour expliquer que le résultat était bon malgré qu'à posteriori les chances que cela arrive étaient faible (c'est la version gentille et respectueuse, pour une version plus trash voir ici)Ce ne sont pas que les paradoxes qui ont conduit à abandonner Newton, en revanche, ils ont conduit à abaisser significativement le prior qu'elle soit juste, ce qui a rendu l'interprétation des expériences confirmant la violation (par exemple la précession du périhélie de Mercure) bien plus significative.
Merci, mais quel est le passage ou le raisonnement qui supporterait l'affirmation selon laquelle la démarche baysienne "conduit souvent à la spécification d'une mesure et non d'une probabilité."?
Ben si, tu vas pas t'obstiner sur la notion de déterminisme avec le Standford encyclopedia of Philosophy quand même? Ce que tu veux dire, c'est que dans les exemples de violation en mécanique classique, c'est toujours des cas qui marche tant qu'on reste dans la théorie, mais qui n'ont en pratique pas de conséquence observable. C'est ce que j'ai dis! Le point est que la relativité foisonne de paradoxes, y compris observables (la plus évidente aujourd'hui étant l'indéterminisme causé par la constante cosmologique qui rend impossible la conservation de l'énergie), alors que la mécanique classique en comporte beaucoup moins, et aucun observable (à notre connaissance).
Certes
le fait de croire ou non à une théorie ou à un résultat expérimental sera FORCEMENT au doigt mouillé, vu qu'il n'y a aucune manière de quantifier précisément ce genre de "probabilité". Affirmer qu'on peut la quantifier, comme c'est malheureusement fait dans certains lieux, comme je disais, est juste une imposture.Soit. Au final ce que tu appelais un raisonnement baysien n'est finalement qu'une rationnalisation pour un raisonnement fondamentalement subjectif -ce n'est pas une critique, je ne suis pas sur qu'on puisse faire mieux. Mais la promesse baysienne est au contraire d'arriver à une procédure objective et reproductible, indépendante de l'observateur. Un peu dommage que ce nom serve de cache-sexe à une méthode de doigt mouillé. Là c'est une critique
tu as eu un commentaire en MP . SI un fait oblige à reconsidérer la théorie, c'est forcément qu'il est incompatible avec une partie de cette théorie, et donc la probabilité que les deux soient justes est simplement nulle - un fait (si il est supposé juste !) est compatible ou non avec une théorie, pas "probablement compatible). Si il est compatible, il ne remet rien en cause. Et si il ne met rien en cause, de quoi discute-t-on alors ?Non, l'évaluation baysienne ne consiste pas à ignorer une possibilité sous prétexte que sa probabilité est faible. Surtout que tu n'as en rien montré qu'elle est faible.
le prior sur "la relativité peut tout expliquer et n'implique aucune contradiction" est effectivement faible. Le prior sur "si on produit une particule et qu'on la détecte après, alors sa vitesse est < = c " est fort. Il n'y a bien évidemment aucune contradiction logique entre ces deux propositions.
Encore une fois il y a une confusion entre la relativité "en principe" et la relativité "en approximation raisonnable". Si tu pars de la relativité "en principe", alors le prior sur la relativité est nécessairement faible.
et ben travaille sur une expérience fiable qui fasse observer une violation de causalité et on en reparlera après , ok ?Tu passes à côté du point*: les violations sont bénignes en mécanique classique, mais pas avec la relativité où les violations sont obligatoires et ont des conséquences observables.
il s'agit de l'énergie totale de l'Univers. L'energie est définissable dans certains cas précis, qui ne sont pas réalisés pour une métrique non asymptotiquement plate à l'échelle de l'Univers entier, c'est tout. (Et dans les cas où on peut la définir, alors elle se conserve bel et bien). C'est pareil pour l'énergie mécanique, elle ne se conserve que dans les systèmes conservatifs .... ceux pour lesquels on peut la définir justement !Grace à la relativité la conservation de l'énergie devient un non-concept, son inexistence est donc un non-paradoxe.
il y a plein d'exemples où des "vérifications" ont été un peu traficouillées ... mais ils sont inclus dans le calcul bayesien (cas "théorie fausse ET expérience fausse). tout dépend justement de l'estimation que l'expérience est valable, tu peux remarquer que si la probabilité que l'expérience soit fausse est grande (pe = 1 ) ... dans ce cas le prior sur la théorie n'est pas modifié (p't = pt) , ce qui est tout à fait logique encore une fois : tu ne tiens pas compte d'informations trop douteuses.
Bien sur que ce ne sont pas les paradoxes, puisque la relativité en comporte plus que Newton. C'est très intéressant que tu mentionnes la précession pour Mercure. Oui dans les livres d'histoire des sciences c'est bien cette expérience qui est identifiée comme le tournant à partir duquel la relativité sera acceptée. Ce qui est amusant, c'est que cette expérience était très faible sur le plan méthodologique -au point que certains parlent de "biais de confirmation" pour expliquer que le résultat était bon malgré qu'à posteriori les chances que cela arrive étaient faible (c'est la version gentille et respectueuse, pour une version plus trash voir ici)