5 mai 2011

Dossier La mystérieuse énergie noire

Dossier La mystérieuse énergie noire

Sommaire
  1. La mystérieuse énergie noire
  2. La découverte de l'énergie noire
  3. La pire prédiction jamais faite par la physique théorique
  4. Énergie noire et champs de Higgs
  5. Énergie noire, théorie des supercordes et paysage cosmique
  6. Énergie noire et théories tenseur-scalaire
  7. Énergie noire et particules caméléons
  8. Énergie noire et homogénéité de l'univers
  9. Énergie noire et scénario du vide minimal
  10. Énergie noire et futur de l'univers




1) La mystérieuse énergie noire
La découverte imprévue de l’expansion accélérée de l’univers en 1998 a nécessité de reconsidérer une vieille énigme de la physique et de la cosmologie, remontant aux travaux d’Einstein : celle de laconstante cosmologique.
Étroitement liée à la notion d’énergie du vide quantique, l'expansion accélérée impliquerait que plus de 70 % du contenu de l’univers est sous forme d’une énergie inconnue. Face à cette énergie inconnue, celle équivalent à la masse de la matière composant les étoiles et les cellules de notre corps apparaît comme une quantité presque négligeable. Cette énergie mystérieuse, signalant peut-être une nouvelle physique au-delà dumodèle standard, a reçu le nom d’« énergie noire » (Dark energy en anglais). 
Plusieurs explications théoriques ont été proposées à son sujet et ce dossier a pour but de passer en revue certaines d’entre elles, parmi les plus prometteuses. Pour cela, Futura-Sciences a interviewé l’un des grands spécialistes français de ces théories, Philippe Brax, qui a bien voulu nous faire bénéficier de ses lumières en répondant à nos questions.
Part relative de l'énergie noire dans l'univers
Un schéma montrant la part relative de l'énergie noire (dark energy) dans l'univers. Son estimation varie mais on donne généralement une valeur légèrement supérieure à 70 %. La matière normale ne compterait que pour 4 % environ dans le contenu énergétique de l'univers observable, le reste étant de la matière noire (dark matter) © Nasa CXC M.Weiss
Comprendre la nature de l’énergie noire n’est pas seulement une nécessité pour qui veut expliquer l’histoire passée du cosmos, elle est également une clé pour connaître sa destinée. En effet, selon sa nature, l’univers finira ou non par un Big Crunch.

En 1998, deux équipes d’astrophysiciens menées respectivement par Saul Perlmutter et Adam Riess, firent une découverte qui allait révolutionner la cosmologie et déclencher d’intenses débats dans le milieu de la physique théorique, notamment dans le domaine spéculatif de la théorie des supercordes.
Alors que la théorie standard du Big Bang, couplée aux observations faites jusque là, prévoyait un ralentissement de l’expansion de l’univers, celle-ci semblait s’être accélérée depuis quelques milliards d’années.
La supernova SN 1994d dans la galaxie NGC 4526
La supernova SN 1994d dans la galaxie NGC 4526. © Nasa/EsaThe Hubble Key Project TeamThe High-Z Supernova Search Team.
Pour faire cette découverte, les astrophysiciens avaient patiemment cherché à détecter la lumière émise par l’explosion de supernovae de type SN Iadans des galaxies situées à plusieurs milliards d’années-lumière de la Voie lactée. Ces supernovae SN Ia, dont on pense qu’elles résultent en majorité de l’explosion de naines blanches accrétant de la matière d’une étoilecompagne et atteignant presque la masse de Chandrasekhar, doivent posséder une luminosité absolue qui varie peu. Ce faisant, à défaut d’être des chandelles standards parfaites, elles constituent de bons indicateurs de distances.   
L'astrophysicien Saul Perlmutter
L'astrophysicien Saul Perlmutter. © The Shaw Prize.
En effet, plus une telle explosion se trouve loin, plus sa luminosité apparente sera faible pour un observateur sur Terre. Il se trouve que, selon le modèle cosmologique relativiste déduit des équations d’Einstein à partir de certaines hypothèses (comme le contenu et la géométrie de l’univers), le décalage spectral vers le rouge et la luminosité apparente de ces supernovae ne seront pas liés par une même fonction. En collectant un grand nombre d’observations portant sur les SN Ia et en mesurant à chaque fois leur décalage spectral vers le rouge et leur luminosité apparente, il devient possible de dresser une courbe permettant de préciser le type de modèle cosmologique dans lequel on se trouve.
L'astrophysicien Adam Riess
L'astrophysicien Adam Riess. © The Shaw Prize.
À partir de 1998, un nombre suffisant d’observations précises permettait de dire que notre univers observable était bel et bien en expansion accélérée. Ce qui nécessitait de réintroduire dans les équations d’Einstein un terme que ce dernier avait été le premier à faire intervenir avant de le rejeter : une constante cosmologique .
Cette constante cosmologique  se présente comme une sorte de force de pression, contrebalançant la force d’attraction de la gravitation entre lesamas de galaxies depuis quelques milliards d’années. Elle constitue donc une densité d’énergie, mais contrairement à celles sous forme de la matière du gaz des galaxies, ou du gaz des photons du rayonnement fossile qui diminuent avec le temps, elle reste constante malgré l’expansion de l’univers.
 
La répartition des distances des supernovae SN Ia (en méga parsecs) en fonction du décalage spectral (redshift) z permet de choisir entre des modèles d'univers avec ou sans constante cosmologique
La répartition des distances des supernovae SN Ia (en méga parsecs) en fonction du décalage spectral (redshift) z permet de choisir entre des modèles d'univers avec ou sans constante cosmologique. © Hawaï University.
Aujourd’hui, elle domine même l’univers observable en représentant environ 73 % de la densité d’énergie, pour un volume d’espace dont la taille est de l’ordre de plusieurs centaines de millions d’années-lumière.
Parce qu’elle ne se manifeste que sous la forme d’une force répulsive entre les amas, cette énergie mystérieuse a été appelée dark energy, ce que l’on traduit en français par « énergie noire » ou encore « énergie sombre ».
Nul ne sait encore quelle est la nature de cette énergie et même si l’expansion accélérée semble un fait bien établi aujourd’hui, plusieurs explications théoriques ont été proposées pour cette dernière. On a même tenté de s’en passer. L'expansion accélérée pose de redoutables problèmes, comme celui de l'énergie quantique du vide, et constitue un défi majeur pour les théoriciens. En outre, elle pourrait surtout être une fenêtre ouverte sur de la physique au-delà du modèle standard, comme celle de lasupergravité.

2) La découverte de l'énergie noire
Devant l’enjeu et la difficulté du sujet qu’est la nature de l’énergie noire, Futura-Sciences s’est tourné vers l’un des grands spécialistes français de ce sujet, Philippe Brax, à qui l’on doit d’ailleurs déjà un dossier Futura-Sciences portant sur les frontières de la cosmologie moderne : La cosmologie, laboratoire pour l'infiniment petit.
Membre de l'institut de physique theorique du CEA à Saclay, il a été le collaborateur de Neil Turok, l’actuel directeur du Perimeter Institute for Theoretical Physics, il a bien voulu répondre à nos questions.
Le lecteur profitera certainement de la lecture d’autres dossiers Futura-Sciences, comme celui portant sur la relativité générale.
Le théoricien de la cosmologie Philippe Brax
Le théoricien de la cosmologie : Philippe Brax. © Philippe Brax.
3) La pire prédiction jamais faite par la physique théorique
Futura-Sciences : on présente parfois le problème de la constante cosmologique comme « la pire prédiction jamais faite par la physique théorique ». Pourquoi ?
Philippe Brax : Le problème est ancien, il était déjà connu de Wolfgang Pauli dans les années 1920, mais c’est surtout à partir des travaux de Zel'dovich que l’on a commencé à prendre conscience de son importance. Lorsqu’on applique les lois de la mécanique quantique aux différents champs de forces et de matières qui remplissent l’univers, comme le champ électromagnétique, on voit que ces derniers ne sont jamais complètement inactifs et doivent fluctuer sans cesse. C’est le fameux problème de l’énergie du point zéro.
Il en résulte que le vide quantique, comme on l’appelle, devrait être un énorme réservoir d’énergie devant laquelle celles de la matière des galaxieset des photons du rayonnement fossile seraient des quantités absolument négligeables. Cette énergie du vide devrait se manifester dans les équationsd’Einstein exactement comme une constante cosmologique. Or, toujours d’après la relativité générale, une telle quantité d’énergie devrait tellement courber l’univers qu’elle le refermerait sur lui-même et lui donnerait une taille bien inférieure à celle du Système solaire.
Les observations des supernovae SN Ia depuis 1998 montrent que tout se passe effectivement comme si une constante cosmologique était bel et bien présente et il semble naturel, de prime abord, de l’identifier avec l’énergie du vide quantique. S'’il s’agit bien de l’énergie des fluctuations du vide quantique que nous voyons accélérer l’expansion de l’univers, les mesures fournissent cependant une valeur très faible pour cette dernière. Il se trouve que, si l’on utilise les équations du modèle standard des particules élémentaires pour calculer la valeur de la densité d’énergie du vide quantique, on tombe sur un désaccord gigantesque entre la théorie et les observations.
Mais c’est surtout lorsque l’on cherche à calculer la valeur de l’énergie du vide associée aux fluctuations quantiques du champ de gravitation que le désaccord est le plus important, et de très loin. En effet, il est alors de 120 ordres de grandeurs environ, c'est-à-dire un 1 suivi de 120 zéros !
Il n’est donc guère étonnant que ce problème soit effectivement qualifié de : « la pire prédiction jamais faite par la physique théorique ».
Quand on regarde dans les détails, chaque type de particules, électron,quarkneutrino, photon, gluon, graviton etc. apporte sa contribution à l’énergie du vide quantique, mais pas avec le même signe. On savait depuis longtemps d’ailleurs que les contributions liées aux fermions, c'est-à-dire les particules de matières, sont de signe opposé à celles des particules de forces, qui sont des bosons. On pouvait imaginer que la somme de toutes ces contributions s’annulait ou pour le moins donnait une valeur faible.
Là encore, les calculs avaient montré qu’à moins de réglages très fins et bien peu naturels, une telle compensation avait bien peu de chance de se produire.
Pendant les années soixante-dix, on a découvert une nouvelle classe de théories quantiques des champs qui paraissait prometteuse pour résoudre ce problème mais il a vite fallu déchanter. Il s’agissait d'abord de la découverte de la supersymétrie puis ensuite de la supergravité, une généralisation naturelle de la théorie d'Einstein.
Ces théories, qui reposent sur des extensions des mathématiques et des symétries utilisées pour décrire l’espace-temps, permettent d’associer à chaque boson un partenaire sous forme d’un fermion et inversement. Ainsi, on pouvait facilement arriver à une compensation rigoureuse des contributions à l’énergie du vide de chaque particule. Cependant, le partenaire supersymétrique d’un photon ou d’un électron par exemple, qui devrait être respectivement un fermion (photino) et un boson (sélectron), devrait avoir la même masse. On devrait donc en produire simplement en allumant une lampe ou dans les collisions à basses énergies dans les accélérateurs.
On peut envisager de briser la supersymétrie pour alourdir les nouvelles particules prédites afin de rester en accord avec les observations et supprimer la production des partenaires supersymétriques des particules dumodèle standard aux énergies accessibles d’ordinaire.
Mais on retrouve encore le problème du désaccord entre observation et théorie pour l’énergie du vide. L’écart n’est alors « que » de 60 ordres de grandeurs, ce qui reste évidemment inacceptable. À nouveau, un réglage fin des différentes contributions pourrait se produire mais il apparaît comme peu probable. On aimerait qu’un mécanisme existe, assurant la compensation des différentes contributions de manière à retrouver la valeur observée.
Il semble que ce soit au niveau de la gravitation quantique et de son couplage à la matière que se situe la racine du problème et il est donc probable que celui-ci reste sans solution tant que nous ne disposerons pas vraiment d’une théorie sur cette dernière. Même dans ce cas, une partie de l’énigme réside aussi à basse énergie car il faudrait expliquer la compensation des contributions des particules du modèle standard, et ceci est également un mystère. 

4) Energie noire et champs de Higgs
Futura-Sciences : Les fluctuations quantiques avec l’énergie de point zéro ne sont pas les seules manières d’obtenir une densité d’énergie dans le vide se comportant comme une constante cosmologique. On sait que le fameux mécanisme de Higgs, utilisé pour donner une masse aux particules, peut aussi contribuer à l’énergie du vide. N’y a-t-il pas là une direction de recherche à explorer ?
Philippe Brax : En effet, on sait que le champ de Higgs , celui du fameuxboson de Peter Higgs, se couple à lui-même. De ce fait, les équations qui décrivent son évolution dans le temps et l’espace font intervenir deux parties qui ressemblent à celle d’une particule se déplaçant dans une cuvette en forme de sombrero. Une partie est donc l’analogue de l’énergie cinétique et l’autre celle de l’énergie potentielle. On peut d’ailleurs se représenter les valeurs de cette énergie potentielle, qui correspond à une densité d’énergie V dans le vide, sous la forme même de la cuvette.
Les valeurs du champ de Higgs donnent alors un point sur la surface de la cuvette. Lorsque le champ de Higgs est nul dans le vide, on se trouve au sommet du sombrero et l’énergie du vide associée au Higgs est maximale. Par contre, au fond de la cuvette, autour du sommet précédent, l’énergie du vide est minimale, voire nulle, bien que le champ de Higgs ne le soit pas.
Le potentiel de Higgs V
Le potentiel de Higgs V définit une densité d'énergie dans le vide qui dépend de l'intensité du champ de Higgs décrit par deux composantes en tout point de l'espace et pouvant varier dans le temps. Il prend la forme d'un sombrero, comme le montre le schéma ci-dessus. © Gerard ′t Hooft - Scholarpedia.
Si l’on cherche à incorporer le mécanisme de Higgs dans les équations de larelativité générale, cette énergie potentielle V apparaît alors comme une constante cosmologique dans les équations, à ceci près que maintenant cette densité d’énergie n’est plus forcément constante dans l’espace et dans le temps.
Ceci suggère de réinterpréter la constante cosmologique comme l’effet d’un ou de plusieurs champs scalaires ressemblant au Higgs, dont les différentes contributions annuleraient ou presque celles des énergies de point zéro, de manière à ne plus laisser que la valeur de la constante cosmologique aujourd’hui observée. On peut aussi penser que la constante ne l’est pas vraiment et que de la même manière qu’une bille peut rouler du sommet du sombrero au fond de la cuvette, de tels champs scalaires sont en train de « rouler » lentement à l’échelle cosmologique vers le fond d’une cuvette de potentiel. Nous pourrions être d’ailleurs déjà au fond de cette cuvette.
Malheureusement, le champ de Higgs du modèle standard ne nous permet pas de résoudre le problème de la constante cosmologique. Mais l’on pense que d’autres champs de type Higgs, à des énergies bien plus élevées, doivent intervenir dans des extensions du modèle standard, comme dans le cadre des théories de grande unification et surtout la supergravité. Mais là encore, on retrouve des problèmes d’ajustements fins.



5) Énergie noire, théorie des supercordes et paysage cosmique
Futura-Sciences : La théorie des supercordes, qui est justement la meilleure candidate au titre de théorie unifiée des interactions et surtout de théorie quantique de la gravitation, ne propose-t-elle pas de résoudre le problème de la constante cosmologique de cette façon ?
Philippe Brax : L’idée de base est effectivement un peu la même. En fait, lathéorie des cordes introduit tout à la fois des champs supplémentaires et d’autres dimensions spatiales. Ces dernières nous seraient cachées parce que constituées de formes géométriques analogues à des bretzels et de très petites tailles. Dans ces dimensions spatiales supplémentairescompactifiées, formant ce qu’on appelle des espaces de Calabi-Yau, les champs supplémentaires s’y comportent un peu comme des champs magnétiques avec des énergies associées variant à la façon des niveaux d’énergies d’un atome.
Un modèle simple de Kaluza-Klein et de théorie des cordes 
Dans un modèle simple de Kaluza-Klein et de théorie des cordes, représenté sur ce schéma, à tout point d'un univers de grande taille (Large Dimension) il existe des dimensions spatiales supplémentaires ayant la forme d'un espace de petite taille (Small Manifold) topologiquement compliqué et fermé sur lui-même. Dans cet espace, des lignes de champs analogues à celles d'un champ magnétique stabilisent ce dernier en l'empêchant de s'effondrer sur lui-même pour donner untrou noir, ou d'entrer en expansion comme les autres dimensions de cet univers. © Universe review.
Ces niveaux d’énergies stabilisent les espaces de Calabi-Yau et les empêchent d’entrer en expansion ou de s’effondrer telle une étoile donnant un trou noir. Ce qui est intéressant, c’est que l’existence de ces espaces et de ces nouveaux champs (décrits par ce qu’on appelle des p-formes) est équivalente à l’apparition d’un très grand nombre de contributions à l’énergie du vide, similaires à celle d’un champ de Higgs. Il existe alors un nombre immense d’états de vide possibles selon la valeur de ces champs qui se retrouvent sur une surface à plusieurs dimensions, et bien plus compliquée que celle en forme de sombrero du champs de Higgs. En fait, si on gardait une image à deux dimensions, c’est un peu comme si les différents états d’énergies possibles étaient représentés par la topographie d’un paysage, avec des vallées, des cuvettes et des collines.
Le paysage cosmique d'un univers jouet 
Le paysage cosmique d'un « univers jouet », avec deux dimensions spatiales compactes supplémentaires enroulées sous la forme d'un tore de genre 2. Ces tores sont stabilisés dans différents états de tailles et de formes par les modes d'enroulement des cordes/membranes et les flux « magnétiques » des champs introduits par la présence des membranes de la théorie des supercordes. À un couple de deux paramètres décrivant les tores, correspond un état d'énergie du vide possible sur la surface. © Universe review.
Comme ces états d’énergies représentent en fait des valeurs possibles de la constante cosmologique, on en parle sous le nom de Paysage Cosmique, en anglais « Cosmological Landscape ». Généralement, le simple terme « Landscape » est utilisé.
Initialement, on se retrouve devant le même problème de réglage fin des lois physiques pour qu’existe une faible valeur de la constante cosmologique, mais celui-ci apparaît sous un nouveau jour. Pour bien le comprendre, il faut mentionner la contribution à la fin des années quatre-vingt du prix Nobel de physique Steven Weinberg.
Le prix Nobel de physique Steven Weinberg
Le prix Nobel de physique Steven Weinberg. © Goethe Universität Frankfurt am Main.
Weinberg a fait remarquer, calculs à l’appui, que si une constante cosmologique accélérant l’expansion de l’univers existait, elle ne pouvait pas être trop grande sans empêcher la formation d’étoiles et de galaxies. Elle doit même être vraiment très faible. Dès lors, il n’y aurait d’une certaine façon pas vraiment de raisons de s’étonner de sa faiblesse, car dans le cas contraire nous ne serions pas là pour observer la présence de cette constante. Ce genre de raisonnement, montrant un lien entre la présence de l’Homme dans l’univers et la structure de ces lois, s’appelle un argument anthropique.
Maintenant, il y aurait au moins 10500 états du vide possibles selon la théorie des cordes, ce qui fait qu’il doit exister un nombre important d’univers possibles dans lesquels les différentes contributions des énergies du vide peuvent presque s’annuler. Si l’on imagine un multivers constitué d’univers poches avec toutes les énergies du vide possible, certains auront une faible valeur et donc une faible constante cosmologique. Il n’y aurait que dans ces univers-là que la vie pourrait se développer.
Il n’y aurait donc pas besoin d’exiger un réglage fin des lois de la physique, ni de raison de s’en étonner, pas plus qu’il n’y a de raison de s’étonner que la Terre soit située à bonne distance d’une étoile brillant suffisamment longtemps pour que la vie se développe dans une galaxie constituée de centaines de milliards d’étoiles.

6) Énergie noire et théories tenseur-scalaire
Futura-Sciences : Ne pourrait-on pas chercher à simplement modifier la théorie de la gravitation ? On sait que plusieurs alternatives à la théorie d’Einstein ont été proposées.
Philippe Brax : En effet, et cela a d’ailleurs commencé quelques années seulement après la publication par Einstein de la forme finale de sa théorie de la relativité générale, en 1916. Il y a eu les tentatives des grands mathématiciens Alfred North Whitehead et Herman Weyl ainsi que du grand astrophysicien Arthur Stanley Eddington et d’Albert Einstein lui-même dès les années 1920. Quoique dans le cas des trois derniers auteurs, il s’agissait en fait de tentatives pour unifier la force de gravitation et la force électromagnétique dans un même cadre lié à la géométrie de l’espace-temps.
Plus tard, notamment pendant les années 1960, on a découvert que plusieurs des tentatives pour modifier la théorie d’Einstein étaient souvent des cas particuliers d’une grande classe de théories que l’on a baptisées « théories tenseur-scalaire ». Elles émergent aussi, souvent, des extensions de la relativité générale proposées pour unifier les forces, comme les fameuses théories de Kaluza-Klein et la théorie des supercordes.
Les alternatives à la théorie de la gravitation d’Einstein sont ce qu’on appelle des théories métriques, c'est-à-dire que l’on garde un espace-temps courbe décrit par ce qu’on appelle un champ de tenseur de rang deux, que l’on peut voir comme une sorte de tableau de nombres définis en chaque point de l’espace-temps. Ce tableau, que l’on appelle le tenseur métrique de l’espace-temps, permet de calculer des intervalles de temps et d’espaces entre deux événements. Par contre, on ne conserve pas les équationsd’Einstein, ou alors on ajoute des dimensions spatiales supplémentaires.
C’est ce cas que l’on considère avec les théories de Kaluza-Klein. Si l’on écrit par exemple les équations d’Einstein en 5 dimensions, elles redonnent magiquement un ensemble d’équations en 4 dimensions, dont certaines sont les équations d’Einstein habituelles mais les autres sont les équations de Maxwell de l’électromagnétisme et surtout celles d’un champ scalaire.
Ce champ scalaire est particulièrement remarquable en ce qu’il autorise la valeur de la constante de la gravitation de Newton à ne pas être partout la même dans l’espace et même à varier dans le temps. On est donc typiquement en présence d’une théorie tenseur-scalaire de la gravitation.
Un exemple similaire, mais qui est construit sans faire référence à des dimensions supplémentaires, est la théorie de Brans-Dicke, proposée au début des années 1960 par Robert Dicke. Là aussi la constante de Newton peut varier dans l’espace.
Le physicien Robert Dicke
Le physicien Robert Dicke. © www.princeton.edu.
Toujours dans le cadre des théories métriques, il y a la grande classe des théories f(R).
R est une quantité mathématique scalaire que l’on construit à partir d’un tenseur de courbure d’un espace-temps. D’autres grandeurs scalaires peuvent être obtenues à partir de ce tenseur mais celle-ci est la plus simple. Il se trouve que l’on peut dériver les équations d’Einstein à partie de R.
Certains ont proposé d’employer plutôt une fonction f(R), comme unpolynôme aR2+bR+c, ou même une fraction comme (aR2+b)/R. Lorsque la courbure de l’espace-temps est faible, ou au contraire grande, des termes correctifs aux équations d’Einstein apparaissent. De façon étonnante, on peut montrer que les théories f(R) sont équivalentes aux équations d’Einstein couplées à un champ scalaire avec un tenseur métrique particulier. On est donc ramené aux théories tenseur-scalaire précédentes.
Comme on l’a mentionné précédemment, la supergravité et la théorie des cordes font, elles aussi, apparaître des champs scalaires. On voit donc qu’il y a, à priori, plusieurs possibilités pour qu’apparaissent une constante cosmologique qui ne l’est pas vraiment, et qui est en fait un champ scalaire.
Que la constante cosmologique puisse varier intéresse aussi les théoriciens pour donner une explication à un fait curieux. La densité de matière noire et celle d’énergie noire sont du même ordre de grandeur, et, à priori, il n’y a pas de raison pour qu’elles le soient, pendant des milliards d’années dans un univers en expansion où la densité de matière noire diminue avec le temps.
C’est le problème de la coïncidence.
Un mécanisme avec constante cosmologique variable, qui s’ajusterait automatiquement pour maintenir des valeurs comparables, serait préférable.
Cela ouvre aussi la possibilité de se passer de la connaissance de la valeur initiale de la constante cosmologique, au début de l’histoire du cosmos, si cette dernière doit automatiquement évoluer vers une seule et même valeur quelques millions ou milliards d’années plus tard.
FS : Peut-on tester expérimentalement les théories tenseur-scalaire ?
PB : On a cherché à le faire très vite vers la fin des années 1960 et au début des années soixante-dix, au moment de la renaissance de la théorie de la relativité générale, à l’aide de tests dans le Système solaire et plus tard avec les pulsars binaires. Le test le plus précis à ce jour a été effectué avec la sonde Cassini, en utilisant ses communications radio avec la Terre.
On peut mettre des bornes sur les déviations autorisées aux prédictions de la relativité générale par les théories tenseur-scalaire. En fait, tout se passe comme s’il y avait une cinquième force véhiculée par des particules massives, similaires aux bosons de Yukawa. Plus la particule est légère, plus sa portée est grande. Si un champ scalaire de ce type existait dans le Système solaire, sa portée devrait être faible et il devrait donc être massif.
C’est là que les choses se compliquent si l’on veut tenter d’interpréter la constante cosmologique et sa faible valeur comme l’effet d’une théorie tenseur-scalaire. Les observations impliquent qu’il faut alors que la cinquième force soit à très grande portée et la particule la véhiculant très légère... en contradiction avec les tests du Système solaire.
Un autre problème se pose.
Un champ scalaire, du fait de la mécanique quantique, a tendance à se modifier pour s’ajuster à la plus haute énergie possible de la théorie avec laquelle il est couplé. Il s’agit ici de la théorie de la gravitation et donc, la masse de la particule scalaire devrait être proche de la masse de Planck, c'est-à-dire très, très lourde ! On peut essayer de résoudre ce problème mais c’est au prix de réglages fins, pas très naturels ni très convaincants.

7) Énergie noire et particules caméléons
Futura-Sciences : On ne peut donc pas faire intervenir une théorietenseur-scalaire ou f(R) pour expliquer l’énergie noire ?
Philippe Brax : En fait si !
Dans un article, publié en 2004 par Carsten van de Bruck, Anne-Christine Davis, Justin Khoury, Amanda Weltman et moi-même, nous avons montré qu’il existait une théorie tenseur-scalaire dont la masse de la particule associée au champ scalaire était fonction de la densité de l’environnement dans lequel elle se trouvait. Elle serait donc légère dans le vide inter-amas et lourde dans une étoile comme le Soleil.
Cette particule s’adaptant en quelque sorte à son environnement, on lui a tout naturellement donné le nom de « particule caméléon ».
De cette façon, il est possible de concilier aussi bien les observations dans le Système solaire qu’au niveau des amas de galaxies.
En fait, ce qui permet de le faire dans le Système solaire, où l’espace interplanétaire est tout de même vide, c’est un effet d’écrantage du champ de caméléons, qui intervient dans une zone formant une coquille à la transition entre, par exemple, la Terre et son environnement immédiat. Ce même mécanisme marche pour le Soleil et il permet d’échapper aux contraintes de Cassini.
FS : La théorie des caméléons peut être décrite dans le cadre de théories f(R). Pourtant, récemment, deux groupes de chercheurs ont annoncé avoir fait des tests de ces théories f(R) avec des observations au niveau des amas de galaxies. Les résultats obtenus, sans vraiment réfuter ces dernières, semblent les rendre assez peu crédibles pour expliquer l’énergie noire. Doit-on en tirer la même conclusion pour la théorie des caméléons ?
PB : Ces tests posent surtout des contraintes sur les différentes théories f(R) possibles, mais certaines conduisent à des prédictions très proches de celles du modèle de concordance CDM. Pour le moment, la théorie des caméléons rentre précisément dans ce cadre et elle reste parfaitement compatible avec les observations. On doit donc améliorer la précision des tests précédents et des missions sont à l’étude pour cela.
Il y a par exemple la mission EUCLID, sur laquelle réfléchit actuellement l’ESA. En mesurant au niveau des galaxies et des amas de galaxies des effets de lentilles gravitationnelles faibles, les conséquences des oscillations acoustiques des baryons du plasma primordial et l’effet Sachs-Wolfe intégré, elle devrait nous en apprendre plus sur la nature de l’énergie noire. Je fais d’ailleurs partie de l’équipe des théoriciens qui se penche sur le potentiel de la mission EUCLID.
FS : On a de bonnes raisons de penser que l’on peut créer de la matière noire dans les collisions de protons au LHC. Est-il possible de produire des particules caméléons en laboratoire et ainsi de tester directement la théorie ?
PB : Remarquablement, il existe deux façons de mettre en évidence l’existence des particules caméléons et il y a même des expériences en cours qui les recherchent. C’est le cas avec l’expérience GammeV qui repose sur l’idée que les caméléons pourraient se comporter de façon assez similaire à l’axion de la chromodynamique quantique, lorsqu’un rayon lasertraverse un champ magnétique. Une autre approche fait intervenir des mesures avec la prochaine génération d’expériences sur l’effet Casimir.
FS : En quoi consiste l’expérience GammeV ?
PB : Initialement, c’est une expérience destinée à mettre en évidence l’existence des axions. Ces derniers devraient être produits lorsqu’un rayon laser polarisé pénètre dans une région où règne un champ magnétique important. Il se produit alors un phénomène d’oscillation similaire à ceux desneutrinos qui va convertir des photons en axions. Ceux ci sont très pénétrants et ne sont donc pas arrêtés par un obstacle opaque ou réfléchissant. Traversant ce dernier et toujours dans un champ magnétique, les axions peuvent se reconvertir en photons. C’est le même principe que pour l’expérience PVLAS en Italie.
Schéma illustrant le principe de l'expérience de PVLAS
Schéma illustrant le principe de l'expérience de PVLAS (voir les explications dans le texte). © universe-review
À la différence des axions, lorsque les caméléons s’approchent de l’obstacle et essayent d’y pénétrer, leur masse augmente et ils ne peuvent pas non plus le traverser. Dans l’expérience GammeV, si des caméléons sont produits, on peut donc les accumuler dans une cavité plongée dans un champ magnétique et où pénètre un faisceau laser polarisé. Si l’on coupe le faisceau laser, les caméléons présents vont tout de même finir par se reconvertir lentement en photons tant que règne un champ magnétique intense. On peut donc observer une luminescence rémanente.
Pour le moment, ces expériences n’ont rien donné d’autre que de poser une borne pour la valeur du couplage entre photons et caméléons, c'est-à-dire la probabilité de conversion de ces particules l’une dans l’autre.
FS : Et pour l’effet Casimir, comment peut-on le relier à l’existence de particules caméléons ?
PB : Le champ des particules caméléons peut être vu comme la manifestation d’une cinquième force à très courte portée dans le cadre d’expériences avec l’effet Casimir. En 1948, Hendrik Casimir cherchait à calculer les forces induites par les fluctuations de charges électriques des couches électroniques entre deux atomes neutres polarisables.
Pour simplifier le problème, il le ramena d’abord à celui d’un seul atome proche d’une plaque métallique conductrice. Cela le conduisit finalement à examiner les fluctuations quantiques du champ électromagnétique entre deux plaques conductrices. Il découvrit que les deux plaques modifiaient la forme des fluctuations quantiques du vide dans l’espace qu’elles encadrent, y changeant sa densité d’énergie qui devient localement plus faible.
Une densité d’énergie peut se voir comme une pression, ce qui fait que la pression de l’énergie dans le vide environnant, plus forte, va pousser les plaques l’une vers l’autre. Cet effet a depuis été vérifié en laboratoire de nombreuses fois.
Hendrik Casimir, théoricien hollandais
Hendrik Casimir (1909-2000), le théoricien hollandais, a réalisé que lorsque deux miroirs sont en face de l'autre dans le vide, les fluctuations du vide vont exercer sur eux une pression de radiation. En moyenne, la pression externe (flèches rouges) est supérieure à la pression interne (flèches vertes). Les deux miroirs sont donc attirés mutuellement l'un vers l'autre par ce que l'on appelle la force de Casimir. C'est la force F qui est proportionnelle à A/d4, où A est la surface des miroirs et d la distance qui les sépare. © Astrid Lambrecht.
Avec des collègues, C. van de Bruck, A. C. Davis, D. J. Shaw et D. Iannuzzi, nous avons calculé que dans certaines expériences avec l’effet Casimir, en considérant des plaques séparées par quelques dizaines de micromètres, la force attractive entre les deux plaques induites par les particules caméléons entrait en compétition avec celle de l’effet Casimir.
Le phénomène n’est pas facile à mettre en évidence mais une prochaine génération d’expériences pourrait tester la théorie des particules caméléons de cette façon, en montrant une déviation bien spécifique par rapport aux prédictions basées sur la seule prise en compte de l’effet Casimir.

8) Énergie noire et homogénéité de l'univers


Futura-Sciences : Certains physiciens, tout en admettant la réalité de l’accélération récente de l’expansion de l’univers, pensent qu’avant d’invoquer de la nouvelle physique, il faudrait peut-être chercher du côté des hypothèses sur lesquelles les modèles cosmologiques sont construits à partir de la relativité générale. Ils proposent de remettre en cause l’hypothèse d’homogénéité. Que faut-il en penser ?
Philippe Brax : C’est une direction de recherche qui est de plus en plus explorée depuis quelques années. Pour bien comprendre de quoi il s’agit il faut en revenir aux hypothèses de bases de la cosmologie moderne. Il y a d’abord bien sûr celle que l’univers observable est bien décrit par la théorie de la relativité générale. Cela pose déjà de multiples problèmes lorsque l’on veut appliquer cette théorie à l’univers dans son ensemble.
Les équations d’Einstein sont non-linéaires et personne n’a été capable de trouver une solution générale à ces équations. C’est un problème très difficile et probablement au-delà de la portée de l’esprit humain. On ne sait généralement résoudre des équations non-linéaires que sous certaines hypothèses simplificatrices, ou alors avec l’aide d’ordinateurs. L’exemple type à cet égard est celui de la mécanique des fluides.
Plus encore que la théorie de la relativité restreinte, la théorie de la relativité générale bouleverse nos intuitions sur le temps et l’espace en faisant dépendre les caractéristiques de ces derniers des distributions de matière et d’énergie. Dans quel sens peut-on en effet parler d’un temps cosmique, d’une histoire générale de l’Univers observable, si l’écoulement du temps n’est pas le même en fonction de ces distributions dans l’espace ?
Pour résoudre simultanément ces problèmes, les pionniers de la cosmologie relativiste, parmi lesquels on trouve Einstein et Herman Weyl, se sont appuyés sur une hypothèse connue sous le nom de principe cosmologique : « L’univers est homogène et isotrope à grande échelle ».
Implicitement, il affirme que notre galaxie n’occupe pas de place particulière dans l’espace et qu’à des échelles supérieures à celles des amas de galaxies, l’univers observable apparaît identique à tous les observateurs. Depuis l’époque de Copernic, cela semble une affirmation raisonnable.
Précisons un peu ce que l’on entend par homogène et isotrope.

En haut de cette image, on voit les équations d'Einstein complétées par un terme . Il s'agit de la fameuse constante cosmologique. Ces équations, sous certaines hypothèses simplificatrices, admettent une solution cosmologique dite de Friedmann-Lemaître-Robertson-Walker (FLRW). La géométrie de cette solution est alors de 3 types possibles en ce qui concerne la courbure (paramètre k) et il suffit d'une fonction a(t) pour décrire l'expansion de l'espace au cours du temps. © Jean-Christophe Hamilton.
L’homogénéité signifie que, de même qu’à notre échelle, l’eau apparaît comme un fluide de densité uniforme, malgré le fait qu’elle soit en fait formée de molécules, le « fluide » de galaxies possède lui-aussi une densité constante lorsqu’on le regarde à une très grande échelle, supérieure à des centaines de millions d’années-lumière. L’isotropie indique quant à elle que l’univers apparaît comme identique à lui-même dans toutes les directions avec une excellente approximation. Dit autrement, on ne voit pas des caractéristiques différentes pour les galaxies selon que l’on regarde dans telle ou telle direction sur la sphère céleste.

En résolvant les équations d'Einstein pour un modèle cosmologique dit de FRLW, apparaissent deux équations différentielles simples, dites de Friedmann, décrivant la vitesse et l'accélération ä(t) de l'expansion à partir du facteur d'échelle a(t), en fonction de la constante cosmologique , de la pression p et de la densité  de matière et de rayonnement. © Jean-Christophe Hamilton.
Il se trouve que ces hypothèses simplifient énormément la résolution des équations d’Einstein. De plus, l’hypothèse d’homogénéité implique automatiquement l’existence d’un temps cosmique partagé par toutes les galaxies et qui permet de parler d’une histoire de l’univers observable. Les simplifications sont même si spectaculaires qu’il ne reste plus que trois types de géométrie de l’espace-temps, celles décrites par les modèles de Robertson-Walker (RW) mais déjà explorées par Friedmann et Lemaître. La géométrie du cosmos peut alors être vue comme l’analogue de celle d’une sphère, d’un plan infini ou encore d’une selle de cheval.


9) Énergie noire et scénario du vide minimal


Futura-Sciences : Peut-on justifier le principe cosmologique par des observations ?
Philippe Brax : On a cherché à le faire en sondant l’univers de plus en plus loin et en mesurant les distributions de galaxies et de radiosources comme les quasars, de plus en plus précisément. Parmi les relevés de galaxies, on a en particulier eu le Sloan Digital Sky Survey (SDSS), celui de Las Campanas et enfin celui d’APM. Ils montrent qu’à des échelles supérieures à quelques centaines de millions d’années-lumière, l’univers n’est pas complètement homogène. Les amas de galaxies se rassemblent pour former des filaments et des murs entourant des bulles vides.

Une illustration des observations soutenant le principe cosmologique pour l'univers observable. © Jean-Christophe Hamilton.
Toutefois, la distribution de ces bulles et filaments formant des superamasde galaxies montre une certaine homogénéité qui de prime abord semble suffisante pour une description effective du cosmos au-delà de ces échelles par un modèle FLRW.
La carte en 3D de la répartition des galaxies
La campagne d'observations du Sloan Digital Sky Survey (SDSS) a permis de dresser une carte en 3D de la répartition des galaxies dont on voit une coupe ci-dessus. Chaque point représente une galaxie jusqu'à une distance de la Terre d'environ 2 milliards d'années-lumière© SDSS.
La véritable raison qui a fait que l’on considérait l’hypothèse d’homogénéité comme une très bonne approximation de l’univers observable depuis une vingtaine d’années, doit être recherchée au niveau du rayonnement fossile.
Les mesures de Cobe et WMap ont en effet établi que ce dernier était homogène et isotrope à 10-5 près. Les fluctuations de températures que l’on y mesure sont reliées aux fluctuations de densité dans l’univers primordial, 380.000 ans après la « naissance » du cosmos observable. Ces dernières étaient donc très faibles et cela donne beaucoup de poids au principe cosmologique. Ce n’est que plus tard, lorsque ces fluctuations de densité vont croître pour donner les structures en superamas actuelles, que l’univers observable va devenir moins homogène.
FS : Cela ouvre donc la porte à une reconsidération de la solution des équations d’Einstein décrivant l’univers observable depuis quelques milliards d’années ?
PB : Exactement. Si on prend l’analogie avec la surface de la Terre ou une surface plane, les modèles cosmologiques décrivent donc le cosmos comme s'il s’agissait de surfaces parfaites. On sait bien que celle de la Terre est bosselée et que l’image d’une sphère, ou plus précisément d’un ellipsoïde de rotation, parfaite n’est qu’une idéalisation de sa surface.
Il se trouve que, si l’on cherche une solution des équations d'Einstein plus réaliste décrivant l’univers observable, une moyenne sur les « bosses » de l’espace-temps dans le cas d’un univers relativiste inhomogène montre que la solution ce dernier s’écarte de celle d’un univers homogène, de la même façon qu’elle le ferait si l’on tenait compte de l’existence d’une constante cosmologique accélérant son expansion ! Celle-ci émerge donc directement sans que l’on ait besoin d’introduire de la nouvelle physique.
Il y a ainsi une solution des équations d’Einstein connue depuis longtemps et qui s’appelle la métrique de Tolman-Bondi, tout à fait appropriée pour décrire un tel univers inhomogène. Physiquement, on est ainsi conduit à postuler que nous serions à l’intérieur d’une zone de sous-densité dans l’univers, ce qui serait responsable du fait qu’elle soit en expansion accélérée. On parle de cette théorie en termes de scénario du vide minimal (Minimal Void ou MV en anglais). On peut montrer qu’il est possible d’être en accord de cette manière aussi bien avec les observations des supernovaeSN Ia qu’avec celles de WMap 3 et les calculs de la nucléosynthèseprimordiale. Reste que pour cela, nous devrions être presque au centre de cette zone, ce qui est assez peu Copernicien.
FS : Peut-on départager par des observations le modèle de concordance CDM et celui du Vide Minimal ?
PB : Le modèle CDM est quand même celui qui reste le plus facile à mettre en accord avec les observations et qui colle le mieux avec celles-ci. Cependant, en procédant à des relevés de galaxies plus profonds dans l’univers, le modèle du vide minimal implique que l’on devrait mettre clairement en évidence que nous sommes dans une zone de sous-densité. Il serait possible aussi de voir que l’univers n’est pas localement en expansion avec la même vitesse en fonction de la direction des observations. Uneanisotropie dans la valeur de la constante de Hubble pourrait ainsi découler du modèle MV. Surtout, la courbe reliant luminosité et décalage spectral, qui a permis de découvrir l’expansion accélérée de l’univers grâce aux SN Ia, devrait posséder un pic caractéristique à la frontière séparant notre zone de sous-densité du reste de l’univers, comme le pensent Stephon Alexander, Tirthabir Biswas, Deepak Vaid et Alessio Notari.

10) Énergie noire et futur de l'univers


Comme vient de nous le montrer Philippe Brax, la nature de l’énergie noire est un sujet fort riche avec une pléthore de modèles théoriques possibles, dont certains n’ont malheureusement pas été mentionnés ici. Pour ceux qui souhaitent en savoir plus, ce dossier se termine par quelques liens techniques comportant eux-mêmes une large bibliographie.
Nous avons vu que l’étude de l’énergie noire était susceptible d’apporter des informations sur de la physique au-delà du modèle standard. Il est bien possible que ce soit l’unique moyen de tester des théories de gravitationquantique spéculatives, comme la supergravité, la théorie des supercordesou la gravitation quantique à boucles.
Si la masse de Planck (l’échelle d’énergie à laquelle les effets de la gravitation quantique sont nettement perceptibles) est bien de 1016 TeV, ni le LHC avec ses collisions à 7 voir 14 TeV, ni un accélérateur du futur ne pourront jamais nous permettre de tester ces théories fondamentales pour comprendre la naissance de l’univers observable.
La cosmologie, en tant que laboratoire pour l'infiniment petit, serait donc la seule fenêtre observationnelle qui nous soit accessible.
Selon la nature variable ou non de l'énergie noire, l'univers finira par un Big Crunch ou continuera éternellement son expansion
Selon la nature variable ou non de l'énergie noire, l'univers finira par un Big Crunch ou continuera éternellement son expansion. Sur ce schéma, on voit la décélération puis l'accélération de l'expansion de l'univers observable en fonction du temps en abscisse. Trois scénarios possibles pour la fin de l'univers apparaissent alors. © Nasa/CXC/M. Weiss.
Éclaircir la nature de l’énergie noire n’est pas seulement susceptible de nous donner la clé de la naissance de l’univers, elle peut aussi nous donner celle de son destin.
En effet, si l’énergie noire n’est pas vraiment décrite par une constante cosmologique, et qu’elle peut varier, l’avenir du cosmos peut être très différent d’une expansion accélérée éternelle. Cette dernière conduisant asymptotiquement à la mort thermique de l’univers selon un scénario déjà exploré, mais sans constante cosmologique à l’époque, par le grand physicien Freeman Dyson.
De manière générale, lorsque l'on introduit un champ scalaire variable dans le temps, on parle à son sujet de quintessence.
Il s'agit d'un clin d'œil au concept de quintessence décrivant la nature de l'espace chez Aristote, le grand philosophe grec, et s'ajoutant aux quatre éléments constituant le cosmos (eau, feu, air, terre). C'est donc également une allusion au fait qu'il existe quatre composants fondamentaux à l'échelle cosmologique dans l'univers : la matière baryonique (composant les atomesconnus sur terre), les photons du rayonnement fossile, les neutrinos(principalement composés du fond cosmologique de neutrinos) et la fameuse matière noire.
Les trois destinées possibles de l'univers observable
Sur ce schéma, on peut voir les trois destinées possibles pour l'univers observable
Sur ce schéma, on peut voir les trois destinées possibles pour l'univers observable. © Nasa/STScI/Ann Feild.
Comme indiqué sur le schéma ci-dessus, la destinée de l'univers observable passe par trois scénarios possibles.
  • Il finira par un Big Crunch si l'énergie noire est décrite par un champ scalaire dont la densité d'énergie va varier de telle sorte qu'elle finira par devenir attractive plutôt que répulsive (Il existe ainsi des modèles de supergravité, comme celui avancé par Renata Kallosh et Andrei Linde, dans lesquels l’accélération de l’univers s’arrête pour se changer en contraction et finir en quelques dizaines à quelques centaines de milliards d’années par un Big Crunch).
  • Si l'on a affaire à une constante cosmologique, l'expansion durera éternellement.
  • Dans le cas où l'énergie noire est décrite par un champ scalaire particulier dit « fantôme » la valeur de l’énergie noire devient infinie en un temps fini de l’ordre de 20 milliards d’années. Dans cette hypothèse, même les forces nucléaires liant les noyaux de notre corps ne pourront pas s’opposer à une force de répulsion qui dissociera toutes les structures matérielles de l’univers. L'expansion se manifestera à des échelles de plus en plus petites, passant du niveau des amas de galaxies jusqu'aux noyaux des atomes et en dessous. C'est le scénario du Big Rip
Avec de la chance, des programmes comme ceux du LSST et EUCLID devraient nous en dire plus dans les années à venir.








Aucun commentaire: