Faudra-t-il revoir la forme de notre Univers ?
Ces dernières années, le prix Nobel de physique et
architecte du Modèle cosmologique standard James Peebles avait rassemblé dans
un article plusieurs anomalies et énigmes que pose ce modèle.
Or, l’anomalie du dipôle cosmique a reçu beaucoup moins d’attention alors qu’elle est peut-être encore plus fondamentale pour notre compréhension du cosmos.
Vers la fin du mois de décembre 2025, c’est tout récent,
l’astrophysicien et cosmologiste d’origine indienne Subir Sarkar aura fait part
au grand public d’une des anomalies rencontrées en cosmologie et qui
questionnent la validité du modèle standard où on peut aussi citer celle de la
tension avec la détermination par deux méthodes différentes de la constante de
Hubble-Lemaître (ce que vous n’ignorez pas, naturellement).
Là, il ne s’agit pas d’une anomalie en mesure de remettre en cause l’existence de la matière noire ou de l’énergie noire, mais d’un désaccord subtil entre une prédiction de la partie du modèle cosmologique standard mise en place avant l’introduction de ces deux composantes du fameux modèle dit Lambda-CDM et les mesures concernant un très grand nombre d’astres lointains observés dans plusieurs domaines de longueurs d’onde.
Pour rappel, ce désaccord avait été déjà annoncé par
Sarkar et ses collègues en 2022 dans un article dont une version plus complète
a été publiée récemment dans Reviews of Modern Physics.
Il s’agit du résultat des analyses de données dont la collecte n’a été rendue possible que depuis quelques décennies et concernant des millions de radiosources lointaines observées avec la campagne au sol du NRAO VLA Sky Survey (NVSS) et celle des observations de nombreux quasars dans l’espace avec le satellite Wide-field Infrared Explorer (Wise) de la Nasa.
Ces données ont permis aux chercheurs de mettre en œuvre un test proposé en 1984 par le célèbre cosmologiste George Ellis, coauteur notamment avec Stephen Hawking d’un traité fondamental et bien connu des astrophysiciens et cosmologistes relativistes « The large scale structure of space-time », et l’astrophysicien John Baldwin.
Il s’agit donc de ce que l’on appelle le test de Ellis-Baldwin.
Pour comprendre de quoi il retourne, il faut remonter
au début de la cosmologie relativiste, c’est-à-dire en 1917, quand Einstein a
appliqué, le premier, sa théorie de la relativité générale à la cosmologie.
Il fait alors des hypothèses audacieuses, mais des extrapolations risquées.
En effet, à l’époque, si l’on commence à connaître la forme de notre Galaxie, on débat encore de savoir si certaines des nébuleuses que l’on observe sont d’autres galaxies en dehors de notre Voie lactée ou en font partie.
Einstein suppose que la première hypothèse, qui remonte au moins au philosophe « Teuton » Kant, est la bonne.
Il admet donc que les galaxies sont uniformément réparties – une propriété dite d’homogénéité –, ou peu s’en faut dans l’espace, et enfin que notre Voie lactée n’est pas dans une position particulière et que quelle que soit la direction dans laquelle on fait des observations, on va voir une répartition des galaxies identique, et donc isotrope en plus d’être homogène.
Pour plusieurs raisons, Einstein a aussi introduit sa
fameuse constante cosmologique que l’on interprète aujourd’hui comme la
présence d’une énergie noire.
L’Univers d’Einstein est statique, mais peu de temps après, toujours en supposant que les galaxies sont bien comme une sorte de fluide homogène et isotrope à grande échelle tout comme nous apparaît l’eau bien qu’elle soit composée de molécules à petites échelles, Friedmann et Lemaître vont considérer d’autres solutions des équations d’Einstein qui, elles, sont dynamiques et avec des géométries, et même des topologies différentes.
Ainsi au cours des années 1930, en supposant toujours que la matière est distribuée de façon homogène et isotrope, ce que l’on appelle le principe cosmologique, et que le cosmos devrait donc apparaître le même pour tous les observateurs, Robertson et Walker montrent que ces hypothèses suffisent pour obtenir une solution générale des équations d’Einstein contenant toutes les solutions particulières envisagées depuis Einstein sans les résoudre directement.
L’espace peut alors avoir une courbure positive, comme celle d’une sphère, ou être plat comme un plan infini, voire comme l’est aussi la surface finie d’un tore, et enfin avoir une courbure négative comme celle de la surface d’une selle de cheval.
On parle alors de métrique de Friedmann-Lemaître-Robertson-Walker (FLRW) pour décrire la solution générale homogène et isotrope.
Toutefois, rien ne prouve vraiment que si l’on pouvait
aller arbitrairement loin dans le cosmos, on ferait toujours des observations
conformes au principe cosmologique.
Nous ne sommes même pas certains non plus que dans le passé de l’Univers, c’était bien le cas également.
Les scientifiques n’ont fait que des hypothèses qui sont pertinentes surtout parce qu’elles entraînent d’énormes simplifications des équations d’Einstein pour l’espace-temps courbe.
Et dans cette simplifications, les solutions cosmologiques sont alors faciles à obtenir et on peut espérer les tester de différentes façons par des observations précises et ingénieuses.
De fait, les observations du rayonnement fossile
montrent qu’il y a plus de 13,7 milliards d’années mais 380.000 ans après le
Big Bang, le cosmos observable devait être homogène et isotrope avec une
excellente précision.
On le sait parce que les fluctuations de température de ce rayonnement sur la voûte céleste, une fois des contaminations soustraites, sont très faibles et indiquent des répartitions de masses à ce moment-là qui sont très homogènes et isotropes.
Et la cartographie des quasars lointains donnait des indications similaires bien que moins précises et surtout plus tard dans l’histoire du cosmos observable.
Pourtant, cela ne veut nullement dire que la situation ne puisse pas être plus compliquée que cela !
Pourquoi faire simple quand on peut faire différemment ?
En effet, vers la fin et le début du XXème
siècle dernier, l’école italienne de mathématique était en plein développement
des mathématiques des espaces courbes à n dimensions, ceux de la géométrie de
Riemann pour laquelle Tullio Levi-Civita en particulier va développer le calcul
différentiel absolu avec la théorie des tenseurs, calcul qu’Einstein pourra
utiliser de façon cruciale pour découvrir et formuler sa théorie de la
relativité générale.
Parmi ces mathématiciens italiens, il y avait aussi
Luigi Bianchi qui, lui, va montrer qu’il existe en trois dimensions d’espace un
nombre fini d’espaces homogènes, mais anisotropes !
Quelques décennies plus tard, c’est un autre mathématicien, aux États-Unis cette fois, Luther Pfahler Eisenhart, qui va montrer qu’il y a donc plus de modèles cosmologiques que n’en avaient proposé ses collègues derrière la métrique FLRW.
Après la Seconde Guerre mondiale et encore plus après la découverte du rayonnement fossile, ces modèles vont être étudiés et très souvent un bon cours de relativité générale, comme celui de Landau, mentionne la théorie des espaces homogènes anisotropes en cosmologie relativiste dérivée des travaux de Bianchi.
Techniquement, la théorie de Bianchi repose sur des symétries des espaces possibles en liaison avec la théorie des groupes, en l’occurrence celle de Sophus Lie.
Il n'est toutefois pas nécessaire d'entrer dans les
arcanes de la théorie mathématique des modèles cosmologiques de Bianchi pour
comprendre les implications du travail de Sarkar et ses collègues : On
peut y arriver avec des images simples, même s’il était intéressant de poser le
contexte.
En gros, on peut prendre l’exemple d’une sphère qui apparaît identique à elle-même quelles que soient les directions de l’espace.
Il n’en serait pas de même si l’on considère maintenant un ellipsoïde avec des axes de longueurs différentes et qui donc donne une idée d’un Univers anisotrope puisque pas identique en forme selon la direction d’un axe.
On peut aussi imaginer que les longueurs des axes augmentent ou diminuent dans le temps de façon indépendante et changeante, parfois de façon chaotique, comme dans le cas d’un Univers anisotrope de Kasner.
Il existe aussi des modèles cosmologiques qui débutent avec une expansion anisotrope au tout début de leur histoire, puis tendent asymptotiquement à évoluer selon une géométrie isotrope.
Bref, un vrai bestiaire…
Tous ces modèles ont des impacts possibles sur l’aspect
du rayonnement fossile et la carte de ses fluctuations de température telle que
révélée d’abord par la mission CoBE au début des années 1990, puis par les
missions WMap et Planck qui ont posé des bornes de plus en plus contraignantes
sur la pertinence des modèles de Bianchi pour décrire notre Univers observable.
La carte qui en aura été dressé inclue un dipôle cosmique.
Les satellites COBE et PLANCK ont fait une mesure du
rayonnement de fond diffus dans le domaine des micro-ondes sur toute la voûte
céleste. Une bonne partie de ce rayonnement nous provient de régions du cosmos
que nous observons telles qu’elles étaient environ 380.000 ans après le Big
Bang, quand le rayonnement fossile a été émis.
Une autre partie provient de contaminations qui viennent du rayonnement de la poussière du disque et du bulbe de la Voie lactée notamment.
La cosmologiste Laurence Perotto nous avait alors expliqué la nature de ces avant-plans de contamination, qu’il fallait évaluer puis soustraire du signal observé par les satellites pour remonter au vrai rayonnement fossile.
Toutefois, on prévoyait que, du fait du déplacement de
la Voie lactée par rapport au rayonnement fossile une composante dite dipolaire
apparaissait avec un effet Doppler, décalant donc vers le rouge et vers le bleu
dans deux régions du ciel complémentaire le rayonnement fossile.
C’est la composante dite du « dipôle cosmique ».
Et pour être précis, en première approximation, la
majorité des galaxies dans des amas de galaxie peut être considérée comme au
repos, alors que l’espace est en expansion entre ces galaxies, comme le font
des pépites de chocolat dans un gâteau qui gonfle.
Les galaxies, tout comme le rayonnement fossile, constituent donc des sortes de référentiels que l’on peut considérer comme au repos.
Toutefois, du fait de la gravitation, les galaxies s’attirent et ont donc des mouvements propres qui s’ajoutent à l’effet de l’expansion pour décaler vers le rouge ou vers le bleu, par rapport à la Voie lactée, le rayonnement fossile.
C’est l’origine par effet Doppler du dipôle cosmique dont la mesure indique que notre Galaxie se déplace en fait par rapport au référentiel défini par le rayonnement fossile à une vitesse de 370 km/s.
En 1984, Ellis et Baldwin auront réalisé que le jour
où l’on aurait une carte d’un très grand nombre de radiosources galactiques et
de quasars, un effet similaire devait se manifester et pour la même raison dans
le décompte et les observations de ces astres.
Mieux, l’effet de dipôle cosmique avec ces sources devait suivre le dipôle dans le rayonnement fossile et d’une façon définie, et une violation de ces prédictions impliquerait une violation du Principe cosmologique et potentiellement que l’Univers est anisotrope d’une façon ou d’une autre.
Ce qui nous amènerait probablement à adopter un des modèles cosmologiques de Bianchi avec un Univers dont la forme serait donc distordue ainsi que son expansion.
Et c’est précisément une telle anomalie avec plus d’un
million de radiosources et un demi-million de quasars que les données
accumulées depuis le début du XXIème siècle montreraient selon
Sarkar et ses collègues !
Assez extraordinaire pour être signalé, n’est-ce pas…
D’ailleurs l’effet atteindrait les fameux 5 sigma en statistique, comme disent les scientifiques dans leur jargon, c’est-à-dire le seuil pour affirmer que le signal mesuré est bien celui d’une anomalie réelle et pas d’une fluctuation statistique dû hasard, déduction faite des erreurs des appareils de mesure.
La prudence s’impose toutefois, parce que ce serait
énorme, et on espère en savoir plus dans la présente décennie.
En effet, Sarkar conclut que « une avalanche de données est attendue des nouveaux satellites comme Euclid et SPHEREx, et des télescopes tels que l’observatoire Vera Rubin et le Square Kilometre Array.
Il est envisageable que nous obtenions bientôt des
informations inédites sur la manière de construire un nouveau modèle
cosmologique, en tirant parti des récents progrès dans un domaine de l’intelligence
artificielle (IA) appelé apprentissage automatique.
L’impact serait véritablement considérable sur la physique fondamentale et sur notre compréhension de l’Univers. »
N’est-ce pas, pourquoi se contenter de schémas simples
alors que la réalité donne le signe d’être autrement plus complexe qu’on ne l’imagine…
D’autant que les images qui nous parviennent de l’univers
profond ne sont jamais que des photographies anciennes et que la lumière ne va
pas « tout droit » de façon rectiligne mais est déformée par les
champs gravitationnels qu’elle traverse pour arriver jusqu’à nous.
En bref, tout cela reste passionnant : Il y a tant de choses à découvrir en levant son nez au ciel…
Bonne semaine à toutes et à tous !
I3
Pour
mémoire (n’en déplaise à « Pal-Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ
RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE «
NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
Or, l’anomalie du dipôle cosmique a reçu beaucoup moins d’attention alors qu’elle est peut-être encore plus fondamentale pour notre compréhension du cosmos.
Là, il ne s’agit pas d’une anomalie en mesure de remettre en cause l’existence de la matière noire ou de l’énergie noire, mais d’un désaccord subtil entre une prédiction de la partie du modèle cosmologique standard mise en place avant l’introduction de ces deux composantes du fameux modèle dit Lambda-CDM et les mesures concernant un très grand nombre d’astres lointains observés dans plusieurs domaines de longueurs d’onde.
Il s’agit du résultat des analyses de données dont la collecte n’a été rendue possible que depuis quelques décennies et concernant des millions de radiosources lointaines observées avec la campagne au sol du NRAO VLA Sky Survey (NVSS) et celle des observations de nombreux quasars dans l’espace avec le satellite Wide-field Infrared Explorer (Wise) de la Nasa.
Ces données ont permis aux chercheurs de mettre en œuvre un test proposé en 1984 par le célèbre cosmologiste George Ellis, coauteur notamment avec Stephen Hawking d’un traité fondamental et bien connu des astrophysiciens et cosmologistes relativistes « The large scale structure of space-time », et l’astrophysicien John Baldwin.
Il s’agit donc de ce que l’on appelle le test de Ellis-Baldwin.
Il fait alors des hypothèses audacieuses, mais des extrapolations risquées.
En effet, à l’époque, si l’on commence à connaître la forme de notre Galaxie, on débat encore de savoir si certaines des nébuleuses que l’on observe sont d’autres galaxies en dehors de notre Voie lactée ou en font partie.
Einstein suppose que la première hypothèse, qui remonte au moins au philosophe « Teuton » Kant, est la bonne.
Il admet donc que les galaxies sont uniformément réparties – une propriété dite d’homogénéité –, ou peu s’en faut dans l’espace, et enfin que notre Voie lactée n’est pas dans une position particulière et que quelle que soit la direction dans laquelle on fait des observations, on va voir une répartition des galaxies identique, et donc isotrope en plus d’être homogène.
L’Univers d’Einstein est statique, mais peu de temps après, toujours en supposant que les galaxies sont bien comme une sorte de fluide homogène et isotrope à grande échelle tout comme nous apparaît l’eau bien qu’elle soit composée de molécules à petites échelles, Friedmann et Lemaître vont considérer d’autres solutions des équations d’Einstein qui, elles, sont dynamiques et avec des géométries, et même des topologies différentes.
Ainsi au cours des années 1930, en supposant toujours que la matière est distribuée de façon homogène et isotrope, ce que l’on appelle le principe cosmologique, et que le cosmos devrait donc apparaître le même pour tous les observateurs, Robertson et Walker montrent que ces hypothèses suffisent pour obtenir une solution générale des équations d’Einstein contenant toutes les solutions particulières envisagées depuis Einstein sans les résoudre directement.
L’espace peut alors avoir une courbure positive, comme celle d’une sphère, ou être plat comme un plan infini, voire comme l’est aussi la surface finie d’un tore, et enfin avoir une courbure négative comme celle de la surface d’une selle de cheval.
On parle alors de métrique de Friedmann-Lemaître-Robertson-Walker (FLRW) pour décrire la solution générale homogène et isotrope.
Nous ne sommes même pas certains non plus que dans le passé de l’Univers, c’était bien le cas également.
Les scientifiques n’ont fait que des hypothèses qui sont pertinentes surtout parce qu’elles entraînent d’énormes simplifications des équations d’Einstein pour l’espace-temps courbe.
Et dans cette simplifications, les solutions cosmologiques sont alors faciles à obtenir et on peut espérer les tester de différentes façons par des observations précises et ingénieuses.
On le sait parce que les fluctuations de température de ce rayonnement sur la voûte céleste, une fois des contaminations soustraites, sont très faibles et indiquent des répartitions de masses à ce moment-là qui sont très homogènes et isotropes.
Et la cartographie des quasars lointains donnait des indications similaires bien que moins précises et surtout plus tard dans l’histoire du cosmos observable.
Pourtant, cela ne veut nullement dire que la situation ne puisse pas être plus compliquée que cela !
Pourquoi faire simple quand on peut faire différemment ?
Quelques décennies plus tard, c’est un autre mathématicien, aux États-Unis cette fois, Luther Pfahler Eisenhart, qui va montrer qu’il y a donc plus de modèles cosmologiques que n’en avaient proposé ses collègues derrière la métrique FLRW.
Après la Seconde Guerre mondiale et encore plus après la découverte du rayonnement fossile, ces modèles vont être étudiés et très souvent un bon cours de relativité générale, comme celui de Landau, mentionne la théorie des espaces homogènes anisotropes en cosmologie relativiste dérivée des travaux de Bianchi.
Techniquement, la théorie de Bianchi repose sur des symétries des espaces possibles en liaison avec la théorie des groupes, en l’occurrence celle de Sophus Lie.
En gros, on peut prendre l’exemple d’une sphère qui apparaît identique à elle-même quelles que soient les directions de l’espace.
Il n’en serait pas de même si l’on considère maintenant un ellipsoïde avec des axes de longueurs différentes et qui donc donne une idée d’un Univers anisotrope puisque pas identique en forme selon la direction d’un axe.
On peut aussi imaginer que les longueurs des axes augmentent ou diminuent dans le temps de façon indépendante et changeante, parfois de façon chaotique, comme dans le cas d’un Univers anisotrope de Kasner.
Il existe aussi des modèles cosmologiques qui débutent avec une expansion anisotrope au tout début de leur histoire, puis tendent asymptotiquement à évoluer selon une géométrie isotrope.
Bref, un vrai bestiaire…
La carte qui en aura été dressé inclue un dipôle cosmique.
Une autre partie provient de contaminations qui viennent du rayonnement de la poussière du disque et du bulbe de la Voie lactée notamment.
La cosmologiste Laurence Perotto nous avait alors expliqué la nature de ces avant-plans de contamination, qu’il fallait évaluer puis soustraire du signal observé par les satellites pour remonter au vrai rayonnement fossile.
C’est la composante dite du « dipôle cosmique ».
Les galaxies, tout comme le rayonnement fossile, constituent donc des sortes de référentiels que l’on peut considérer comme au repos.
Toutefois, du fait de la gravitation, les galaxies s’attirent et ont donc des mouvements propres qui s’ajoutent à l’effet de l’expansion pour décaler vers le rouge ou vers le bleu, par rapport à la Voie lactée, le rayonnement fossile.
C’est l’origine par effet Doppler du dipôle cosmique dont la mesure indique que notre Galaxie se déplace en fait par rapport au référentiel défini par le rayonnement fossile à une vitesse de 370 km/s.
Mieux, l’effet de dipôle cosmique avec ces sources devait suivre le dipôle dans le rayonnement fossile et d’une façon définie, et une violation de ces prédictions impliquerait une violation du Principe cosmologique et potentiellement que l’Univers est anisotrope d’une façon ou d’une autre.
Ce qui nous amènerait probablement à adopter un des modèles cosmologiques de Bianchi avec un Univers dont la forme serait donc distordue ainsi que son expansion.
Assez extraordinaire pour être signalé, n’est-ce pas…
D’ailleurs l’effet atteindrait les fameux 5 sigma en statistique, comme disent les scientifiques dans leur jargon, c’est-à-dire le seuil pour affirmer que le signal mesuré est bien celui d’une anomalie réelle et pas d’une fluctuation statistique dû hasard, déduction faite des erreurs des appareils de mesure.
En effet, Sarkar conclut que « une avalanche de données est attendue des nouveaux satellites comme Euclid et SPHEREx, et des télescopes tels que l’observatoire Vera Rubin et le Square Kilometre Array.
L’impact serait véritablement considérable sur la physique fondamentale et sur notre compréhension de l’Univers. »
En bref, tout cela reste passionnant : Il y a tant de choses à découvrir en levant son nez au ciel…
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
Aucun commentaire:
Enregistrer un commentaire