:: Accueil du site > [ X Sciences ] > L'univers : la constante cosmologique ?

(Sciences)

L'univers : la constante cosmologique?

(*Dossier en cours*)

Publié le 5 septembre 2003 - Modifié le dimanche 16 mars 2008 :: 3507 visites robots/humains. ( Popularité: 12)

ScientoX

fontsizeup fontsizedown {id_article} impression syndiquer le forum 0 réaction

La carte des débuts de l’Univers dessinée à partir des données acquises par WMAP (Wilkinson Microwave Anisotropy Probe) de la répartition anisotropique du rayonnement fossile de l’Univers a permis à des astronomes d’estimer sa taille à près de 156 milliards d’années-lumière.

La carte des débuts de l’Univers

JPEG - 127.4 ko
WMAP
« Crédit WMAP Science team »

Pour les scientifiques, cette carte et les données associées confirment la théorie du Big Bang et permet de dater l’âge de l’Univers à 13,7 milliards d’années avec une marge d’erreur de 1%. Ils ont aussi pu déterminer que l’Univers contenait 4% d’atomes de matière, 23% de matière noire et 73% d’une énergie sombre, dont le rôle reste énigmatique.

Ces résultats confirment également l’hypothèse de l’hyper inflation, un bref instant après le Big Bang où l’expansion se serait emballée et aurait fait gonfler l’Univers quasi instantanément de l’ordre de 10 puissance 30. Ils indiquent également que l’Univers s’est refroidi suffisamment pour que la matière se condense et forme les premières étoiles, 200 millions d’années après le Big Bang. Enfin, ces résultats réaffirment la platitude de l’Univers, dans le sens où deux lignes parallèles ne peuvent pas se croiser, même sur des distances cosmiques.


mise à jour du 28 fevrier 2008

WMap livre les mesures les plus précises du rayonnement fossile

Les résultats sont tombés sans bruit il y a quelques jours sur le site de l’équipe scientifique du Wilkinson Microwave Anisotropy Probe (WMap) lancé le 30 Juin 2001. Les analyses des cinq premières années d’observations cumulées du rayonnement de fond diffus (d’où le 5 de WMap 5) sont désormais à la disposition de toute la communauté des cosmologistes et des physiciens des hautes énergies. Pas de révolution en vue mais de quoi préciser de nombreux paramètres.

C’est le 28 février 2008 que la mise en ligne des résultats de WMap 5 a été effectuée. Comme les précédentes en 2003 et 2006, à partir de l’enregistrement de plus en plus fin de la lumière fossile composant le célèbre CMB, les chercheurs peuvent remonter à l’âge, la composition et l’évolution du cosmos observable.

En effet, dans les premiers instants de l’Univers, celui-ci est composé d’un fluide dense et chaud de particules, en particulier des photons, parcouru par des ondes de densité. De même qu’un instrument de musique produit un son caractéristique de sa forme et de sa composition, les ondes parcourant ce fluide portent codés en elles des renseignements sur la forme de l’Univers et son contenu en particule. Ces ondes vont laisser leurs empreintes sous la forme de fluctuations de températures à des échelles angulaires et des amplitudes différentes sur l’image que l’on enregistre du rayonnement fossile dans toutes les directions de l’espace.

Comme regarder loin c’est regarder tôt (puisque la vitesse de la lumière est finie), ce que l’on observe correspond à la période où la densité de l’Univers est devenue suffisamment faible et la température suffisamment basse pour que des atomes se forment et que la lumière puisse se déplacer sans être absorbée, un peu comme lorsqu’une brume se dissipe : il s’agit de la recombinaison. L’image la plus précise à ce jour de ces fluctuations se trouve sur le schéma de la figure 1.

Précisions sur les paramètres fondamentaux de l’Univers

Les principaux résultats de WMap 5 peuvent être résumés de la façon suivante :

- la constante de Hubble vaut 70,1 km /s par Mpc (mégaparsecs) +/- 1,3 ;
- la part de la densité de l’Univers ramenée à la densité critique pour l’énergie noire est 72,1 % +/- 1,5 ;
- la part de la densité de l’Univers ramenée à la densité critique pour la matière sombre est 23,3 % +/- 1,3 ;
- la part de la densité de l’Univers ramenée à la densité critique pour la matière baryonique est de 4,6 % +/- 0,2 ;
- l’âge de l’Univers est de 13,73 milliards d’années +/- 0,12 ;
- la température moyenne du cosmos est de 2,725 K ;
- la recombinaison s’est produite 375.900 ans +/- 3.100 après la « naissance » de l’Univers observable.

Le spectre de puissance du rayonnement fossile (la variance cosmique) est devenu plus précisément connu et l’anomalie du quadripôle est toujours présente comme on peut le voir sur le schéma de la figure 3. On constate en effet que le premier point à l’extrémité gauche correspond à une mesure qui s’écarte de la courbe de la meilleure approximation (fit) des valeurs observées par le modèle LambdaCDM, avec énergie noire et matière noire.

Un fond diffus... de neutrinos

Ce résultat doit ravir Jean-Pierre Luminet car un des arguments forts en faveur de son modèle cosmologique clos, à la topologie multiplement connexe, se trouve à nouveau renforcé par les observations.

Avec sa meilleure précision, WMap 5 montre plus nettement un troisième pic d’oscillation dans la variance cosmique, correspondant à de petites échelles de résolution angulaire, comme le montre la courbe de la figure 3 à son extrémité droite.

Celui-ci s’interprète, entre autre, comme une preuve de l’existence d’un fond diffus non plus de photons mais de neutrinos remontant à l’époque de la "création" de l’Univers observable. En particulier, comme le montre la figure 2, au moment de la recombinaison ces neutrinos représentaient 10 % de la densité de l’Univers. Mieux, mise en relation avec la nucléosynthèse de l’hélium, cette valeur confirme à nouveau qu’il n’y a que trois espèces de neutrinos légers dans l’Univers. On obtient ainsi une borne sévère pour l’existence d’autres neutrinos qui seraient massifs, la somme des masses de tous les neutrinos ne pouvant guère être supérieure à 0,61 eV.

Pour les experts, la série complète des paramètres cosmologiques est disponible sur le site de WMap.

Pour terminer ce tour rapide des résultats de WMap 5, on mentionnera les nouvelles contraintes qu’ils apportent aux principaux modèles de théorie de l’inflation ont été obtenues. Ces nouvelles données défavorisent notamment les théories indiquant une valeur élevée de l’indice spectral (lequel est rélié aux fluctuations de densité entre différentes échelles dans l’Univers primitif), supérieure à 1. Enfin, en particulier, ces résultats ont réduit les valeurs possibles des paramètres déterminant les modèles d’inflation chaotique, exponentielle et hybride.


dossier antérieur

notre univers est en expansion


... Vous allez me dire que cette information ne fait qu’enfoncer des portes ouvertes.... Certes ! Par contre, ce que vous ne savez peut-être pas, c’est qu’il est en expansion accélérée ! Là, cela commence à être passionnant !

Comment les astrophysiciens ont-ils pu annoncer cette nouvelle ?

Pour évaluer la distance des galaxies, Hubble et les cosmologistes de l’époque stipulaient que toutes avaient la même luminosité. Ainsi, en fonction de sa luminosité, nous pouvons calculer la distance de la galaxie. Cependant, leur éclat est extrêmement variable de l’une à l’autre. Pour cela, les calculs étaient entachés d’erreurs. Il s’agissait maintenant de trouver un autre astre suffisamment lumineux pour être détecté à plusieurs milliards d’années lumières et dont la luminosité serait pratiquement stable. On pensa alors aux quasars, objets stellaires d’une brillance incroyable (voire dernier numéro : n°9), mais ceux-là avaient une luminosité trop variable. Une autre suggestion s’est faite alors, concernant les supernovae, mais pas n’importe quel type de supernovae : le type Ia. En effet, il faut savoir qu’il y a 2 principaux types de supernovae, le type I et II. Dans chacun de ces types, existe des sous-types. Cela dépend à ce moment là des éléments chimiques détectés dans l’analyse de la lumière émise par l’explosion (la spectroscopie). En ce qui concerne ce type Ia, le phénomène met en jeu 2 astres : une naine blanche et un compagnon, une géante rouge. La naine blanche aspirera la matière de son compagnon, et à une certaine limite de masse dépassée (limite de Chandrasekhar), la naine blanche ne va plus pouvoir contenir toute cette énergie, et va alors exploser.

Plusieurs courbes de lumières de supernovae de ce type, ont été faites. Une particularité en ressort : elles se superposent pratiquement toutes. Donc, les astrophysiciens avaient enfin trouvé un astre correspondant à leurs désirs : quelque chose de suffisamment brillant avec une luminosité "stable". Pour cela, nous les nommons le plus souvent : chandelles standards. (Il faut tout de même savoir qu’il y a une marge d’erreur quant au calcul de la luminosité de la supernova, environ 30%). Venons en maintenant aux faits :

Depuis quelques années, 2 groupes sont en compétition : le groupe " High z " (z correspondant au décalage spectral d’un astre (vers le rouge)) crée en 1995 par Brian Schmidt, des observatoires australiens du Mont Stromolo et de Siding Springs. Enfin, l’autre groupe appelé Projet Cosmologie et supernovae, lancé en 1988 et dirigé par Saul Perlmutter, du laboratoire Lawrence Berkeley.

Ils recherchent donc des supernovae qui explosent à des distances astronomiques (c’est bien le cas de le dire !) Pour avoir une certaine appréciation des distances mises en jeu, nous parlons alors de milliards d’années lumières. En Octobre 1998, grâce au télescope Keck, une supernova a été détecté avec un décalage supérieur à 1, autrement dit à une distance de 10 milliards d’années lumières !). Cependant, comment font-ils pour trouver des supernovae alors que dans notre univers réside des centaines et des centaines de milliards d’étoiles ? Pas de problème, vive le progrès ! En réalité, ce n’est pas si facile que cela, car il faut répertorier une région de l’espace, en prendre une photo, et quelques semaines plus tard rephotographier la même région de l’espace pour voir si une différence de luminosité s’est produite. (Si l’image est bien faite, la soustraction des 2 images, amènent à une image noire. Seuls restent les différences de luminosité). Bien sûr, chaque différence ne correspond pas à une supernova. Cela peut correspondre à des étoiles variables, par exemple. Bref, des programmes informatiques permettent d’éliminer les candidats qui ne sont pas des supernovae, et enfin, les meilleures supernovae seront observées par des télescopes géants comme le keck.

Tout ça ne se passe pas en un jour évidemment. Les astronomes passent jours et nuits à scruter le ciel, travailler leurs images. La patience, est la meilleure amie des astronomes. Quand la détection d’une supernova est enfin faite, l’analyse arrive : Après plusieurs calculs sur la luminosité de quelques dizaines de supernovae à High Z, les astrophysiciens furent étonnés du résultat : en effet, les luminosités observées étaient 25 % plus faible que la normale. D’où vient cette atténuation ?

Les scientifiques ont émis plusieurs hypothèses : la première consistait à dire, que la lumière des supernovae aurait pu être en partie absorbée par la poussière interstellaire. Cependant, la poussière interstellaire, absorbe plus le bleu que le rouge. Donc, la supernova observée aurait du paraître plus rouge qu’en réalité. Ce n’est pas le cas (quelle jouissance de bousiller une hypothèse !). De plus, la poussière cosmique n’est pas uniformément répartie dans l’espace et donc seule la lumière de quelques supernovae aurait pu passer par ces nuages de poussières. Pourtant, la lumière émise de ces phares de l’espace est pratiquement toujours la même....(Complètement bousillée !)

La seconde hypothèse introduisait les lentilles gravitationnelles : ces lentilles peuvent-être des naines brunes ou encore des galaxies. Lorsque la lumière d’un objet stellaire passe par ces lentilles gravitationnelles, elle peut-être amplifiée ou réduite. Il est alors possible que l’atténuation de la lumière des supernovae observées soit dues aux lentilles gravitationnelles. Or, les chandelles standards étudiées ne sont pas assez lointaines (sans blague) pour que les lentilles gravitationnelles fassent réellement effet.

Enfin, dernière hypothèse : le mécanisme d’explosion peut-être un tantinet différent pour que la lumière qui en est émise soit différente. Les astrophysiciens ont procédé à quelques ajustements, qui compensent ces différences et les ont appliqués aux supernovae proches. Ces ajustements ont l’air de correctement fonctionner.

Si alors toutes ces hypothèses sont réfutables ou presque, comment se fait-il qu’il y ait un affaiblissement de la lumière de 25% ?

Je vais vous parler en premier lieu de notre univers. Depuis quelques années, les scientifiques avaient établi que notre univers pouvait évoluer vers 3 chemins différents, un univers plat, ouvert ou fermé. La seule chose qui décidait sa destinée était la densité de matière qui se trouvait dans notre univers appelée plus communément W. La densité de matière critique équivaut à W=1 et correspond à un univers plat, c’est à dire sans courbure car d’après Einstein, courbure=matière. L’expansion de cet univers se ralentira au fur et à mesure du temps. Il est le préféré des cosmologistes pour des raisons théoriques. Si W<1, alors nous avons affaire à un univers ouvert à courbure négative. Son expansion sera infinie, nous vivrions alors dans un univers sans limite. Enfin, si W>1 alors l’univers en question a une courbure positive et nous vivrions dans un univers fermé. Son expansion devra s’incliner devant sa maîtresse absolue : la gravité. Il s’en suivra une sorte de Big Bang inversé, appelé pour l’occasion Big Crunch.

Imaginons-nous dans un univers ouvert : si nous calculons la circonférence d’un cercle, nous verrions qu’elle est supérieure à 2pr. Dans un univers plat, sa circonférence serait exactement de 2pr. Pour cela, dans un univers ouvert, une lumière serait plus diffuse que prévue, ce qui expliquerait l’atténuation de la lumière des supernovae observées. Nous pouvons aussi croire que la supernova est à une distance plus importante que ne l’indique son décalage spectral. Cela expliquerait également cette faiblesse de luminosité. Pour résoudre ce problème de décalage vers le rouge, les astrophysiciens émettent l’hypothèse que notre univers, encore tout jeune, se serait dilaté moins rapidement que comme ils l’avaient souhaité, et donc en étirant moins la lumière qu’il emporte. D’ailleurs, cette hypothèse expliquerait pourquoi les astronomes observent des étoiles plus vielles que notre univers ! (Car ainsi, s’il s’est dilaté moins rapidement, il serait plus vieux). Le calcul de la densité de matière est toujours d’actualité, et il est fondamental pour évaluer la courbure de notre espace-temps. Aujourd’hui, les scientifiques pensent qu’il y a seulement 10 à 20 % de matière visible nécessaire pour obtenir un univers plat. (avec en plus la fameuse matière noire, la densité de matière serait tout au plus égale à 60%)

Si notre univers est presque " vide", alors sa courbure négative serait maximale. Cependant, les calculs ont révélé que même dans un univers vide, la lumière des supernovae serait plus faible que prévue !! Mais alors, si la poussière interstellaire, les lentilles gravitationnelles le mécanisme d’explosion, la densité de matière et donc la destinée de notre univers n’expliquent pas cette faiblesse de 25%, qui va l’expliquer ?! Elémentaire mon cher Watson, Einstein voyons ! (c’est de pire en pire, je l’admets...) En fait pas tout à fait ! je m’explique :

Je reviens un peu dans le temps : nous sommes en 1917. Einstein vient de finir d’établir sa relativité générale, et réfléchit sur ses équations : celles-ci prévoient que notre univers est en expansion ou contraction. Mais les idées philosophiques de l’époque étaient pour un univers statique. Donc, Einstein devait introduire dans ses équations une force antigravitationnelle, qui contrebalancerait les effets de la gravité, dans le but d’obtenir un univers statique. Il appela cette force, la constante cosmologique. Cependant, quelques années plus tard en 1929, Edwin Hubble découvrit que notre univers était en expansion. Einstein considéra alors sa constante cosmologique comme la plus grande erreur de sa vie.

Revenons à présent en 1999 : nous avons fait plusieurs hypothèses pour expliquer la faiblesse des chandelles standards observées, aucune n’a réellement abouti à quoi que ce soit. Alors, les astrophysiciens ont pensé que notre univers serait en expansion (pas mal non ?) mais accélérée. Ainsi, la faiblesse de 25% serait résolue ! Cette accélération peut exister, si le vide est rempli d’énergie, et c’est le cas (n’oublions pas que tous ça n’est que théorie, et donc ce n’est pas certain). Le vide en physique est très compliqué, car le vide n’est pas vide. Dans le vide, apparaît et disparaît simultanément des particules si rapidement, qu’on ne les voit pas. C’est pour cela que ces particules sont appelées particules virtuelles. Ainsi, le seul fait que des particules apparaissent provoquent de l’énergie. Nous pourrions qualifier le vide comme la plus basse énergie physique.

Les 3 destinées de l’univers que j’ai cité auparavant étaient valables que si la constante cosmologique était nulle. Donc, si elle ne l’est plus, c’est elle qui prendra le dessus et adieu W ! Les observations tendent à dire que notre univers est plat. La constante cosmologique doit donc représenter 40 à 70% de l’énergie totale. Ajoutons-y le total de la matière (noire et visible) et on trouverait cette prédiction d’un univers plat. Mais toutes ces réponses ne sont pas certaines, et loin de là. La constante cosmologique est encore sujet de mystères. Des problèmes y sont liés notamment dans le domaine quantique, où subsiste des incohérences effroyables. Pour cela, ne soyons sûr de rien. Les progrès à venir vont sûrement de plus en plus éclairer nos petites bougies, qui malheureusement aujourd’hui ont des mèches mouillées !



Publicité :

Répondre à cet article

[ Forum ] de l'article