Dans un article plus ancien (l'expansion de l'Univers)nous avons eu l’occasion d’évoquer l’accélération de l’expansion de l’univers : Brian Schmidt, prix Nobel de physique en 2011 et, contrairement à l’opinion qui prévalait à l’époque, mit en effet en évidence que non seulement la vitesse d’expansion de l’Univers n’allait pas en ralentissant mais, bien au contraire, s’accélérait sans cesse. Cela n’allait pas de soi car on pensait jusqu’alors que si, depuis le Big bang, expansion il y avait, elle devait être forcément ralentie par les forces de gravitation. Comment expliquer cette apparente contradiction ? Quelles forces contraires pouvaient donc bien intervenir ? l’énergie noire si recherchée et jamais mise en évidence ? autre chose ?
Autre problème et non des moindres : pour calculer la vitesse de cette expansion, on a eu recours à deux grandes méthodes de mesure mais – et c’est là que le bât blesse – celles-ci donnent des résultats sensiblement différents (d’environ 8% d’écart entre les deux) au point que certains scientifiques en sont venus à douter de la validité de la physique classique ! On a appelé la divergence entre ces deux types de mesures, la « tension de Hubble » mais, ne nous affolons tout de même pas, il est possible que l’on n'ait peut-être pas besoin de reconstruire toute la physique moderne car, récemment, le télescope spatial James Webb (JWST) semble avoir relativisé les dites différences… Explications.
La constante de Hubble
C’est en l’honneur d'Edwin Hubble, le premier scientifique à avoir mis en évidence que l’univers s’étendait en dehors de notre propre galaxie et qu’il était en expansion, que l’on a appelé « constante de Hubble » (HO) cette vitesse d’expansion. La valeur de cette constante a été historiquement calculée à partir de deux paramètres s’appuyant sur des objets lointains : tout d’abord, le décalage vers le rouge du spectre des galaxies qui s’éloignent de nous (le fameux Redshift des anglo-saxons) et comme plus elles sont éloignées, plus ces objets s’éloignent vite, en négligeant leur vitesse propre.
Le deuxième moyen de calcul est de connaître la distance réelle de ces galaxies ce qui est plus sujet à caution, nous aurons l’occasion d’y revenir.
Dans les années 1950 et suivantes, la valeur de la constante de Hubble était estimée entre 50 et 100 km/s/Mpc (Mpc veut dire mégaparsec, soit un million de parsecs, le parsec étant une unité en astronomie valant 3,26 années-lumière), une valeur ramenée à 70 km/s/Mpc dans les années 2000.
Méthodes de mesure de l’expansion de l’univers
Au début du XXIème siècle, les scientifiques peuvent utiliser deux types principaux de mesure :
1. une méthode directe par l’observation des chandelles standards (les « phares de l’espace »), c’est-à-dire des objets astronomiques qui possèdent une
luminosité connue, notamment les céphéides qui sont (voir sujet dédié) des géantes et/ou supergéantes jaunes dont l’éclat varie de façon connue et selon une période précise pour chacune d’entre elles. Il est alors possible de dresser une carte de ces céphéides, des galaxies qui les abritent et donc d’obtenir ainsi des mesures assez précises mais seulement dans un rayon de 30 Mpc car de simples étoiles, même géantes, comme les céphéides ne peuvent pas être observées sur de trop grandes distances.
Pour les galaxies plus éloignées (jusqu’à 400 Mpc), les scientifiques se tournent alors vers la mesure de luminosité des supernovas de Type Ia (qui ont une luminosité maximale standard) en appliquant la loi de Tully-Fisher qui établit une relation entre la luminosité intrinsèque d’une galaxie spirale et l’amplitude de sa courbe de rotation. Ces relevés sont difficiles à interpréter car parfois imprécis : tout dépend de la qualité de l’instrument d’observation.
Dans certains cas, on peut également avoir recours à l’étude des lentilles gravitationnelles : en observant les effets de ces lentilles où la lumière d’une galaxie lointaine est courbée par une galaxie intermédiaire, on peut estimer les distances et les vitesses de récession galactique, fournissant ainsi une autre mesure de HO.
2. l’observation du rayonnement diffus cosmologique « le rayonnement fossile » (voir l’article spécialisé) qui a validé le modèle cosmologique du Big bang est une deuxième possibilité : les programmes d’observation s’appuient alors sur l’observatoire spatial de la NASA, le WMAP (pour "Wilkinson Microwave Anisotropy Probe") qui étudie l’anisotropie du rayonnement fossile (L'anisotropie est la caractéristique que possède un matériau dans lequel une certaine propriété physique varie avec la direction. Ainsi, un matériau anisotrope va présenter des attributs différents en fonction de son orientation.).
Les scientifiques peuvent également se tourner vers le télescope spatial Planck de l’Agence Spatiale Européenne qui cartographie avec minutie les infimes variations de température du fond diffus cosmologique.
Seulement voilà : les résultats obtenus avec ces deux méthodes ne concordent pas vraiment : 73 km/s /Mpc avec la première méthodes contre 67 km/s/Mpc avec la seconde… On a beau agiter le problème dans toutes les directions, les écarts de mesure sont significatifs (cinq écarts-types) et, jusqu’à peu, plus on étudiait de façon précise, plus on observait la réalité de la différence.
Le télescope spatial James-Webb semble rebattre les cartes
Grâce au JWST (télescope James Webb) qui est spécialisé dans l’infrarouge, les scientifiques ont réalisé de nouveaux calculs portant sur dix galaxies proches en se basant pour chaque galaxie sur trois types d’objets astronomiques :
1. une céphéide et donc une étoile aux variations régulières connues,
2. une étoile carbonée de type C, c'est-à-dire une géante rouge dont la composition voit le carbone dominer à la place de l’oxygène et dont la particularité est de pulser sur des périodes de l’ordre de l’année, On peut donc s’en servir comme chandelle standard car elles ont des luminosités constantes dans le proche infrarouge justement accessible au JWST,
3. une étoile dite TRGB (pour Tip of the Red Giant Branch) qui sont des géantes rouges de population II, c'est-à-dire très vieilles (elles ont souvent plus de 12 milliards d’années) et pauvres en métaux. Leur luminosité intrinsèque dans l’infrarouge est stable et bien définie : le JWST est ici aussi un instrument particulièrement performant pour leur étude.
Voilà dont trois méthodes qui, grâce au nouveau télescope spatial permettent d’évaluer une nouvelle valeur pour le taux d’expansion de l’univers et elles vont toutes les trois dans le même sens : la valeur trouvée par le JWST avec les trois méthodes que nous venons d’évoquer aboutissent toutes à une valeur commune pour la constante de Hubble : environ 70 km/s/Psc ce qui est parfaitement compatible avec celle déterminée par l’étude du rayonnement fossile. Du coup, il n’existerait plus de tension de Hubble !
La « tension de Hubble » n’existe-t-elle vraiment plus ?
Peut-on donc affirmer que la question de la vitesse d’expansion de l’univers est définitivement réglée par les dernières informations obtenues grâce au nouveau télescope spatial ? Les spécialistes de la question restent prudents et attendent la confirmation des résultats par de nouvelles mesures. Tout de même, les scientifiques reprennent espoir : il ne sera peut-être pas nécessaire de jeter aux orties le modèle global du Big bang qui prévaut encore aujourd’hui et, avec lui, la physique fondamentale telle qu’on la connait…
Sources ::
* Encyclopaedia Britannica (tension de Hubble)
* Wikipedia France, Wikipedia US (constante de Hubble)
* futura-sciences.com(Est-ce la fin de la « crise » en cosmologie avec la tension de Hubble grâce au télescope James-Webb ?)