Parcours Etranges
perso ma position est très pragmatique voire statistique il y a un état de l'art de la cosmologie co-opté par des milliers de chercheurs , bien sûr il y a des points discutables et des inconnues et les chercheurs sont les premiers à le reconnaitre mais de là a sauter sur n'importe quel théorie alternative il y a un grand pas: Alors : la mémoire de l'eau , les Bogdanoffs, le mouvement perpetuel: non.
Le vide a une tendance naturelle à s'étendre c'est comme ça, et alors la matière attire bien la matière? En plus personne n'a jamais dit que ce devait être l'énergie quantique du vide .
La matière noire n'est qu'une hypothèse plausible et aujourd'hui aucune autre n'est supérieure, je la prends comme elle est avec des pincettes car il est très ennuyeux de n'avoir pas découvert de nouvelles particules.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
J'ai du mal à comprendre comment les inhomogénéïtés dans l'univers récent (elles existaient dès le CMB mais ont été amplifiées par l'expansion) influeraient sur le rythme de l'inflation mais pas sur la courbure de l'univers?L'effet de l'accélération de l'expansion ne commence à être du même ordre de grandeur que celui de la gravitation de la matière que bien plus tard, à une époque où les grandes structures sont déjà formées. Donc une explication de cette accélération (via la prise en compte des inhomogénéités dans l'univers "récent") comme conséquence de la formation de ces structures n'a rien de contradictoire avec les observations du CMB.
Pour ceux que ça intéresse mais qui n'ont pas le temps ou le courage de se plonger dans les textes en anglais et les équations, j'ai traduit en français l'introduction de la première publication citée (enfin, google a traduit et j'ai corrigé les erreurs). La suite est trop technique, je me limiterai à un résumé de la démarche et des résultats : équations d'Einstein moyennées etc.
Cela permettra peut-être de discuter sur des bases plus sérieuses, en montrant au moins qualitativement, comment la backreaction peut impacter l'évolution de l'expansion d'un domaine de l'espace-temps, et en fournissant les clés pour la lecture de la deuxième publication : celle où Buchert et al. quantifient cet effet à l'échelle cosmologique dans un modèle d'univers où la constante cosmologique est nulle (i.e. où il n'y a pas d'"énergie noire"), et montrent qu'il peut être équivalent à celui de la constante cosmologique dans le modèle LambdaCDM.
Mais avant de prendre le temps de coller tout ça ici en écrivant les formules en LaTex, je voudrais m'assurer qu'il y a quelqu'un que ça intéresse... Sans prétendre lancer un sondage, je vous remercie de me dire si c'est le cas.
Je suppose que tu veux dire le rythme de l'expansion et non de l'inflation.
Les zones de sur-densité ont été amplifiées par la gravitation en densité, relativement à la densité moyenne de l'univers : formation des étoiles, galaxies, amas. Les structures ainsi formées, une fois stabilisées (virialisation), ne sont plus amplifiées en volume par l'expansion, alors que le volume des zones de sous-densité (les vides cosmiques) continue de croître en fonction de leur taux d'expansion local.
En abandonnant l'hypothèse d'un univers homogène et isotrope à toute échelle, et en la remplaçant par celle d'une échelle d'homogénéité (celle à partir de laquelle on peut voir l'univers comme homogène et isotrope), ce n'est qu'en faisant la moyenne sur un volume suffisamment grand par rapport à cette échelle qu'on peut déterminer un taux d'expansion moyen et une courbure moyenne pour l'univers.
Le traitement relativiste de cette opération de moyennage fait apparaître un terme de courbure scalaire supplémentaire et un terme de backreaction qui sont tous deux de signe négatif. Mais ces deux termes interviennent avec un signe moins dans l'équation de Friedmann moyennée, donc finalement leur contribution est de même signe que celle de l'éventuelle constante cosmologique Lambda.
On peut traduire ces termes par des paramètres de densité Omega_R et Omega_Q. Dans un modèle d'univers sans constante cosmologique, la platitude des sections spatiales de l'espace-temps se traduit alors simplement par la condition Omega_m+Omega_R+Omega_Q=1, à comparer avec la condition du modèle standard Omega_m+Omega_Lambda=1. Suivant les valeurs de ces paramètres, on peut donc arriver exactement à la même cosmologie que dans le modèle standard, mais en se passant de Lambda.
En résumé : sous l'hypothèse d'un univers homogène et isotrope, s'il n'y avait que de la matière, sans "énergie noire", et compte-tenu de la densité moyenne de matière dans l'univers, via les équations de Friedmann on obtiendrait un espace-temps de sections spatiales sphériques, donc un modèle d'univers fermé. Ce n'est que la présence supposée de l'énergie noire qui permet d'obtenir des sections spatiales euclidiennes et un modèle d'univers "plat". Le remplacement de Lambda par les termes de backreaction a exactement le même effet.
Dernière modification par yves95210 ; 27/11/2017 à 16h33.
Voici la traduction du début de la publication de Buchert où il établit les équations "moyennées", et un résumé de la suite, limité aux résultats essentiels.
1. Le problème du moyennage
Une question de longue date en cosmologie est comment faire la moyenne d'un modèle inhomogène général (Ellis 1984). On aimerait également savoir sous quelles hypothèses, le cas échéant, les variables moyennes obéissent aux équations de Friedmann à la base de toute théorie pour la formation des structures dans l'univers. Une réponse pour les cosmologies contenant un fluide sans pression ("poussière") a été donnée récemment dans le cadre de la cosmologie newtonienne (Buchert & Ehlers 1997; voir les références qui s'y trouvent pour la formulation du problème de la moyenne et les tentatives antérieures pour le résoudre). Certains résultats pertinents pour le présent travail peuvent être brièvement résumés comme suit:
Considérons tout domaine spatial compact, simplement connecté, dans l'espace euclidien, D ⊂ IE3 de volume VD. Alors, la moyenne spatiale de l'équation de Raychaudhuri pour l'évolution du taux d'expansion, sous l'hypothèse de la conservation de la masse du domaine, conduit à une équation pour le facteur d'échelle aD ~ VD1/3 (qui dépend du contenu, de la forme et de la position du domaine spatial). Cette équation contient comme termes sources, outre la moyenne de la densité de masse, les moyennes sur les fluctuations des scalaires du cisaillement, de la vorticité et de l'expansion dues à la présence d'inhomogénéités. Ces termes de "backreaction" disparaissent si la moyenne est effectuée sur l'ensemble de l'univers ayant des sections spatiales topologiquement fermées. Avec une backreaction qui disparaît, cette équation est équivalente à l'équation de Friedmann standard pour un univers homogène et isotrope.
Dans le présent document, je fournis la réponse correspondante dans le cadre de la relativité. Une relation géométrique, sans analogue newtonien, fournit des informations supplémentaires. Cela permet d'obtenir une équation unique reliant la backreaction et la moyenne des
termes de courbure. Cette équation vaut pour tout domaine spatial et pour une grande classe de cosmologies inhomogènes avec des sections spatiales courbes sans hypothèses perturbatives. La solution du "problème de la backreaction" pour les caractéristiques scalaires peut être trouvée dans le cas de sections spatiales dont le scalaire de Ricci s'annule en moyenne ou affiche une dépendance en aD-2 comme dans le modèle standard, ce qui implique que la courbure scalaire moyenne est découplée du terme de backreaction. Cependant, en général, une backreaction due à la présence d'inhomogénéités a un impact sur le scalaire de Ricci moyenné au cours de la formation des structures. Une solution générale à ce problème devrait incorporer une description de la densité, de l'expansion et d'autres variables scalaires de tout modèle de formation de structure, dépendante de l'échelle
(...)
2. Le moyennage des équations d'Einstein pour les scalaires
(résumé dans lequel je n'indique que les étapes de la démarche et fournis directement les résultats. Pour ceux qui souhaitent plus de détails et sont capables de suivre les calculs, voir la publication de Buchert)
2.1 Choix d'un feuilletage et équations de base
Nous nous restreindrons au cas d'un mouvement irrotationnel du fluide dans le modèle le plus simple de matière 'poussière' (i.e. sans pression). Dans ce cas le flux est géodésique et on peut construire des hypersurfaces spatiales orthogonales au flux en chaque évènement de l'espace-temps dans une représentation 3 + 1 des équations d'Einstein.
(...)
2.2 Moyennage des traces des équations d'Einstein
(...)
Lemme (règle de commutation)[/U] :
Pour tout champ scalaire ,
où représente la moyenne du scalaire X sur le domaine D, et est le taux d'expansion. représente la dérivée de X par rapport au temps.
Théorème (équations pour le facteur d'échelle effectif)
Les équations moyennées sur l'espace pour le facteur d'échelle , respectant la conservation de la masse sont :
L'équation de Raychaudhuri moyennée :
La contrainte hamiltonienne moyennée :
où est le volume initial du domaine. sa masse, le scalaire de Ricci spatial moyenné, et la backreaction sont des constantes spatiales dépendantes du domaine et, à part la masse, fonctions dépendantes du temps.
En particulier le terme source de backreaction est donné par :
où est le taux d'expansion et le taux de cisaillement.
Corollaire 1 (équations moyennées)
(merci de vous référer au document si vous voulez les formules)
Les moyennes , , obéissent aux mêmes équations que les champs locaux correspondants. (La raison de cette propriété non triviale est le type spécial de non-linéarités caractérisant le système gravitationnel, par exemple la non-linéarité en contenue dans l'équation de Raychaudhuri.)
Corollaire 2 (caractéristiques sans dimension des cosmologies inhomogènes)
Comme dans la cosmologie standard homogène et isotrope, nous pouvons introduire une fonction de Hubble dépendante du domaine , et les caractéristiques moyennes sans dimension :
qui, au vu de l'équation de la contrainte hamiltonienne moyennée, obéissent à l'équation
(...)
(désolé, j'arrête là. Trop de formules en LaTEX et pas assez de temps. Vous trouverez toutes les équations pages 6 et 7 du document, mieux présentées que je n'arrive à le faire ici)
Dernière modification par yves95210 ; 27/11/2017 à 18h12.
De plus je m'aperçois que pour comprendre le sens du corollaire 1, il faut avoir lu au moins en partie le § 2.1 du document. Bref, j'espère que ça vous aura donné envie d'aller le consulter - ne serait-ce que pour vous assurer que les équations utilisées dans l'autre publication ne sont pas tombées du ciel.Voici la traduction du début de la publication de Buchert où il établit les équations "moyennées", et un résumé de la suite, limité aux résultats essentiels.
(...)
(désolé, j'arrête là. Trop de formules en LaTEX et pas assez de temps. Vous trouverez toutes les équations pages 6 et 7 du document, mieux présentées que je n'arrive à le faire ici)[/I]
Elles y sont utilisées de manière assez simple, et j'espère que ça vous suffira pour comprendre la démarche.
Correction :
Merci pour ces explications.
De ce que j'en comprends, au delà du formalisme plus directement induit de la relativité, cela ne donne pas vraiment la source de "l'énergie noire" mais explicite son fonctionnement accélérateur.
Les 70% de la constante cosmologique sont remplacés par deux termes qui redonnent la meme crédibilité au modèle.
Si on cherche à "concrétiser" ces 2 termes ou lambda, on pourrait aussi bien arriver à "l'énergie du vide" = l'énergie noire.
Imaginons les zones de sous-densité uniformément réparties dans l'univers, cette "back-réaction" n'aurait-elle pas lieu de la meme façon tot ou tard?
Non. Cela supprime potentiellement le besoin de faire appel à une source d'énergie, quelle que soit sa couleur, pour expliquer l'accélération de l'expansion. La source de celle-ci serait simplement la gravitation (manifestée par des termes de courbure supplémentaires), en présence d'hétérogénéités dans la densité de matière, et donc d'une différence entre les taux d'expansion locaux des zones de sous-densité et de sur-densité.
Hétérogénéités et variabilité locale du taux d'expansion dont ne rend pas compte le modèle standard d'univers homogène et isotrope à toute échelle que décrit la métrique FLRW et les solutions de Friedmann.
Oui, sous réserve que la valeur de Omega_R+Omega_Q corresponde à celle de Omega_Lambda tel qu'on le déduit d'autres observations.Les 70% de la constante cosmologique sont remplacés par deux termes qui redonnent la meme crédibilité au modèle.
Ou, ce qui revient au même, que dans l'hypothèse correspondant aux observations d'un univers "plat" à grande échelle, on retrouve bien la valeur attendue (toujours selon les observations) de Omega_m à partir de l'équation Omega_m+Omega_R+Omega_Q=1.
Il n'y a pas à les "concrétiser". Encore une fois, ce ne sont que des termes résultant de calculs de relativité générale dans le cadre d'une procédure visant à établir les équations de Friedmann moyennées pour un domaine contenant des sous-domaines de densité de matière (très) différente. Il n'y a pas d'autre ingrédient.Si on cherche à "concrétiser" ces 2 termes ou lambda, on pourrait aussi bien arriver à "l'énergie du vide" = l'énergie noire.
Elle a lieu en permanence, de manière croissante à mesure que les hétérogénéités de la distribution de matière augmentent sous l'effet de la gravitation et de l'expansion, la première concentrant la matière dans des structures dans lesquelles le taux d'expansion tend vers zéro lorsqu'elles se stabilisent, la deuxième augmentant le volume des vides cosmiques et en diminuant donc la densité.Imaginons les zones de sous-densité uniformément réparties dans l'univers, cette "back-réaction" n'aurait-elle pas lieu de la meme façon tot ou tard?
Il est fort possible que j'exprime mal ma pensée ou j'ai mal compris la portée novatrice de l'étude de Buchert. Je voulais souligner que, meme sans se préoccuper de la répartition des inhomogénéïtés de densité de l'univers, l'expansion agit toujours et seulement sur les vides. Les zones liées gravitationnellement sont moins voire pas du tout expansées (jusqu'à ce que la croissance de l'expansion surpasse leur cohésion gravitationnelle...)Elle a lieu en permanence, de manière croissante à mesure que les hétérogénéités de la distribution de matière augmentent sous l'effet de la gravitation et de l'expansion, la première concentrant la matière dans des structures dans lesquelles le taux d'expansion tend vers zéro lorsqu'elles se stabilisent, la deuxième augmentant le volume des vides cosmiques et en diminuant donc la densité.
Pour l'expansion locale, oui. Mais ce qui nous intéresse est le taux d'expansion moyen dans l'univers, et son accélération, due selon le modèle standard LambdaCDM à la présence d'une constante cosmologique non nulle Lambda et selon certains, à l'"énergie noire".Il est fort possible que j'exprime mal ma pensée ou j'ai mal compris la portée novatrice de l'étude de Buchert. Je voulais souligner que, meme sans se préoccuper de la répartition des inhomogénéïtés de densité de l'univers, l'expansion agit toujours et seulement sur les vides. Les zones liées gravitationnellement sont moins voire pas du tout expansées (jusqu'à ce que la croissance de l'expansion surpasse leur cohésion gravitationnelle...)
Dans le modèle d'univers homogène et isotrope, pas de problème, puisqu'il suppose la densité de matière partout égale à sa valeur moyenne, et ne dépendant que du temps. Donc le taux d'expansion est partout le même et peut être calculé facilement via les équations de Friedmann. Mais ce n'est évidemment qu'une approximation à grande échelle, puisqu'on sait que l'univers contient des zones de sur- ou sous-densité, dans lesquelles, comme tu le dis, le taux d'expansion local n'est pas égal à la valeur moyenne du taux d'expansion dans l'univers.
Dans une hypothèse moins forte, d'existence d'une "échelle d'homogénéité", en-dessous de laquelle on observe des inhomogénéités (amas de galaxies, vides cosmiques), mais au-dessus de laquelle on peut considérer que tout volume de l'univers présente la même densité moyenne de matière, le taux d'expansion moyen de l'univers (celui qui compte lorsqu'on observe les galaxies lointaines et bien sûr le CMB) est égal au taux d'expansion moyen d'un tel volume. Le but est donc de calculer ce taux moyen, dans le cadre de la relativité générale.
C'est une application parmi d'autres de la procédure de moyennage proposée par Buchert dans sa publication de 1999, qui conduit à des équations équivalentes à celles de Friedmann, mais reliant les valeurs moyennes du scalaire de courbure spatiale et de la densité de matière, la constante cosmologique, et le taux d'expansion moyen (ainsi que son évolution) d'un domaine spatial quelconque. Mais, du fait de la non-linéarité de la RG, ces "équations moyennes" font apparaître un terme de "backreaction" qui n'existe pas dans les équations locales. Et cela est vrai quel que soit le domaine sur lequel on applique cette procédure de moyennage. Suivant le domaine concerné, l'effet de ce terme peut être une accélération ou une décélération du taux d'expansion moyen.
Pour revenir au problème du taux d'expansion moyen de l'univers, il s'agit alors de calculer le taux d'expansion d'un domaine dont le volume correspond à l'échelle d'homogénéité définie plus haut, domaine qui contient bien sûr des inhomogénéités. En partant d'un modèle d'univers sans constante cosmologique (ou si tu préfères, sans énergie noire), Buchert arrive dans sa publication de 2013 à montrer que la "backreaction" produit une accélération de l'expansion, du même ordre de grandeur que celle due à la constante cosmologique du modèle standard LambdaCDM.
Pour cela il utilise une hypothèse simplificatrice en considérant que ce domaine de volume VD est l'union d'un ensemble de sous-domaines correspondants à des structures virialisées, de volume total VM, de même densité moyenne (supérieure à la densité moyenne de l'univers), où le taux d'expansion local est nul, et d'un ensemble de sous-domaines correspondants à des vides cosmiques, de volume total VE, de même densité moyenne (inférieure à la densité moyenne de l'univers). Je n'entre pas plus dans les détails, après c'est du calcul...
méga scoop! on aurait mesuré ces différences? Si je me souviens bien, la courbe redhisft distance est quasiment linéaire, et ce jusqu'à un fort redshift, avec la même pente quelque soit la ligne de visée. A quelle différence faut-il s'attendre?une différence entre les taux d'expansion locaux des zones de sous-densité et de sur-densité
Bonjour,
Ben non, ce n'est pas un scoop - peut-être que tu aurais mieux fait de lire le reste de la discussion avant d'écrire n'importe-quoi.
Évidemment qu'on mesure des différences : dans les structures "virialisées" (galaxies, amas) le taux d'expansion est nul. Cela se saurait si le Soleil s'éloignait du centre de la Voie Lactée à cause de l'expansion, non ?
Cela implique que le taux d'expansion dans les vides cosmiques soit plus élevé que le taux moyen, mesuré via le redshift des galaxies lointaines : en effet s'il y a des zones dans lesquelles le taux d'expansion est nul, il faut bien qu'il y en ait où il est supérieur à la moyenne. De peu, car le volume cumulé des vides cosmiques est bien plus grand que celui des amas.
j'ai mal posé la question. Dans les zones de surdensité, le taux est supposé nul. Dans les zones de sous-densité, il doit s'élever à 70km/s/MPc. Ma question est donc plutôt: sur quelle échelle (1MPc, 100kPc...?) observe-t-on ces variations de taux?A quelle différence faut-il s'attendre?
A priori c'est facile à faire, il suffit d'une ligne de visée avec plein de surdensités et une autre avec plein de sous-densités, de soustraire, de diviser par la différence, en nombre, des surdensités et hop on obtient la distance sur laquelle il y a une variation de taux. Comme on n'entendait rien sur ce résultat, à priori facile à obtenir, on se demandait presque si les variations de taux étaient inexistantes et que, comme le taux d'expansion est supposé nul dans nos surdensités, le taux d'expansion était nul même dans les zones de sous densités, c'est à dire qu'il n'y a pas d'expansion.
Mais heureusement, j'apprends, ouf, qu'il y a des mesures de variations de ce taux. Enfin! (d'où le méga scoop!)
je répète donc:
Ma question est donc plutôt: sur quelle échelle (1MPc, 100kPc...?) observe-t-on ces variations de taux?
La réalité, c'est ce qui reste quand on cesse de croire à la matrice logicielle.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
on en a une suffisamment bonne partie pour établir un lien entre une expansion supposée et des mesures de redshift remontant aux origines de l'univers. Le souci c'est que cette partie est peut-être insuffisante, cette fois, pour caractériser l'expansion sur des échelles plus petites. En effet, plus elles sont petites (moins d'objets), moins on a de statistiques. Mais elles sont plus précises et confirmées par plusieurs moyens. Donc, il y des contreparties à vouloir mesurer la variation du taux d'expansion, surtout que, par rapport à la vitesse propre des galaxies (quelques dizaines de km/s, voire quelques centaines; on connaît forcément les deux composantes, radiale et transverse de la vitesse des galaxies?), inconnue (on connaît surtout leur vitesse d'éloignement interprétée et déduite du redshift), il ne doit pas être aisé de la tirer. Mais, à force de mesures, cette variation doit pouvoir sortir des statistiques (au travers, donc, de plusieurs lignes de visée. Mais en a-t-on assez? Je suppose que oui, le taux d'expansion a dû être évalué avec plusieurs lignes de visée, la question de l'isotropie étant soulevée régulièrement, on a dû faire des statistiques là aussi)Mais on n'a pas de cartographie 3D de l'univers observable !
Donc, à priori, et l'hypothèse de l'expansion le demande, à un moment donné on doit pouvoir donner le taux d'expansion en fonction de la densité. Et il est impératif qu'il soit croissant puis constant à partir d'une certaine densité (celle des grands vides) puisque ce ne peut-être que dans ces zones que le redshift cosmologique est sensé se produire (les variations de taux d'expansion croissantes puis décroissantes ne peuvent provoquer de redhsift puisque ce dernier s'y compenserait)
Donc je suis curieux et j'attends la réponse à ma question: comment évolue ce taux en fonction de la densité et sur quelle échelle?
100 kpc, c'est l'ordre de grandeur des distances des galaxies satellites de la Voie Lactée (ou du rayon de son halo de matière noire).
1 ou 2 Mpc, c'est l'ordre de grandeur du groupe local de la Voie Lactée, ou de l'amas de la Vierge (le plus proche de nous), qui sont encore des structures liées par la gravitation, donc au sein desquelles on n'observe pas d'expansion (ou peu ?).
Ce n'est que bien au-delà de 50 Mpc que les mesures de redshift des SN1a sont utilisées pour déterminer le taux d'expansion (moyen) H0 de l'univers - implicitement, ça veut dire qu'à des distances inférieures, on considère que le taux d'expansion mesuré ne serait pas le taux moyen.
On a même mesuré une très légère expansion (mais vraiment minime) au sein de certains super-amas très étendus. Tout est question de densité.
Les météorites ne peuvent exister car il n'y a pas de pierres dans le ciel. Lavoisier.
J'imagine qu'on a mesuré des vitesses qui indiqueraient que les amas ont moins de matière noire ou qu'ils s'éloignent les uns des autres. A-t-on préféré la deuxième solution? Ou pouvons-nous supposer que dans les superamas, il y a moins de MN qu'attendu?On a même mesuré une très légère expansion (mais vraiment minime) au sein de certains super-amas très étendus
A quelle distance se trouvent les amas en question?
C'est juste une question de densité. Si plusieurs amas sont séparés par des distances suffisantes par rapport à leurs masses (matière noire incluse), ils peuvent s'éloigner lentement les uns des autres. On imagine aisément qu'au bout de quelques milliards d'années, le super-amas sera disloqué, en tout ou en partie.J'imagine qu'on a mesuré des vitesses qui indiqueraient que les amas ont moins de matière noire ou qu'ils s'éloignent les uns des autres. A-t-on préféré la deuxième solution? Ou pouvons-nous supposer que dans les superamas, il y a moins de MN qu'attendu?
A quelle distance se trouvent les amas en question?
Les météorites ne peuvent exister car il n'y a pas de pierres dans le ciel. Lavoisier.
Bon, disons que les chercheurs ont estimé la masse en matière noire des amas (c'est dit dans la source? Combien retiennent-ils de MN?) et qu'ils en déduisent qu'à la vue des vitesses et masses en jeu, ils s'éloignent les uns des autres, OKSi plusieurs amas sont séparés par des distances suffisantes par rapport à leurs masses (matière noire incluse)
Seulement on apprend que les amas ont une teneur en MN de 5fois la masse baryonique et que nos galaxies en ont d'avantage (10, 15, 20 voire 60fois). J'ai donc un peu de mal à entendre que ces amas s'éloignent jusqu'à se disloquer alors que leur masse augmente. Comment la MN, sensée être concentrée dès les origines de l'univers, se mettrait, aujourd'hui ou il y a peu, à se disloquer alors qu'elle a résisté à une expansion bien plus rapide? Je veux dire, existe-t-il un scénario de la MN encore valable?
Salut,
Oh ? Ce n'est pas ce que j'ai lu. Les chiffres que j'avais déjà vu son concordant entre galaxies (sauf quelques naines), amas, lentilles et modèles cosmologiques.
Quelqu'un d'autre peut confirmer, infirmer ? Il y a une référence récente ?
Plus on aura de données et plus :
- on sera sûr qu'elle existe (ça c'est une certitude absolue, les étoiles vont trop vite pour la matière visible).
- on invalidera tous les scénarios : matières exotiques, gravité modifiée et autres effets.
Et pour cause, je suis prêt à parier ma casquette que la MN c'est plusieurs choses différentes. Faudrait être un idiot prétentieux pour croire qu'on a découvert tout le contenu de l'univers sauf UN truc.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Concernant la gravité modifié e est-ce qu'elle ne vient pas de prendre un coup derrière la casquette avec Microscope ?Salut,
Oh ? Ce n'est pas ce que j'ai lu. Les chiffres que j'avais déjà vu son concordant entre galaxies (sauf quelques naines), amas, lentilles et modèles cosmologiques.
Quelqu'un d'autre peut confirmer, infirmer ? Il y a une référence récente ?
Plus on aura de données et plus :
- on sera sûr qu'elle existe (ça c'est une certitude absolue, les étoiles vont trop vite pour la matière visible).
- on invalidera tous les scénarios : matières exotiques, gravité modifiée et autres effets.
Et pour cause, je suis prêt à parier ma casquette que la MN c'est plusieurs choses différentes. Faudrait être un idiot prétentieux pour croire qu'on a découvert tout le contenu de l'univers sauf UN truc.
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Salut,
Fais une recherche sur "dark matter dominated galaxies" via ton moteur de recherche préféré.
Ou bien on invalidera le scénario de MN le plus simple (le moins exotique comme tu dis), qui a bien du mal à expliquer le fait que pour TOUTES les galaxies, on trouve la même relation (avec la même constante) entre l'accélération gravitationnelle due à la matière baryonique seule et l'accélération observée.Plus on aura de données et plus :
- on sera sûr qu'elle existe (ça c'est une certitude absolue, les étoiles vont trop vite pour la matière visible).
- on invalidera tous les scénarios : matières exotiques, gravité modifiée et autres effets.
Et pour cause, je suis prêt à parier ma casquette que la MN c'est plusieurs choses différentes. Faudrait être un idiot prétentieux pour croire qu'on a découvert tout le contenu de l'univers sauf UN truc.
Mais c'est un autre débat. Ici le sujet était plutôt le fait que l'accélération de l'expansion pourrait n'être qu'une conséquence (non prise en compte dans le modèle cosmologique standard) des inhomogénéités de l'univers aux échelles inférieures à ~2 milliards d'al.
Au passage, il n'est pas exclu que cela permette aussi d'expliquer une petite partie des effets attribués à la MN.
Aucun rapport. Les théories de gravitation modifiée (au moins celles qui tiennent à peu près la route) sont relativistes et donc basées sur le principe d'équivalence.
Il y plein de meilleurs arguments contre ces théories...