blogspot counter

Articles, témoignages, infos sur la psychiatrie, la psychanalyse, la clinique, etc.

dimanche 30 juin 2019

Cosmique de situation

Par Erwan Cario — 
Carte à micro-ondes en fausses couleurs de l'ensemble du ciel prise par le satellite Cobe illustrant les variations de la température lors du big-bang du bleu (frais) au rose (chaud).
Carte à micro-ondes en fausses couleurs de l'ensemble du ciel prise par le satellite Cobe illustrant les variations de la température lors du big-bang du bleu (frais) au rose (chaud).Photo NASA/SPL/COSMOS.

Que s’est-il passé dans les tout premiers instants ? Comment observer cet univers primordial et que peut-il encore nous apprendre ? Etat des lieux de la cosmologie moderne avec cinq chercheurs du laboratoire de physique de l’Ecole normale supérieure.

Nous sommes là, 13,8 milliards d’années plus tard, assis autour d’une table dans une salle de réunion du laboratoire de physique de l’Ecole normale supérieure (ENS), en compagnie de cinq chercheurs. Comment en sommes-nous arrivés là ? C’est tout le sujet. En ce qui concerne les dernières semaines, c’est plutôt simple. Début mai, pour la deuxième année consécutive, le prix Gruber de cosmologie a été attribué à un scientifique de l’ENS, l’occasion pour nous de venir discuter de la façon dont s’appréhende la cosmologie aujourd’hui. Nick Kaiser (lauréat 2019 en compagnie de Joseph Silk) et Jean-Loup Puget (lauréat 2018 en compagnie de Nazzareno Mandelosi et de l’équipe du satellite Planck) sont donc présents. Kaiser se lance et rembobine déjà de quelques décennies : «Ce qui nous réunit, c’est la volonté de tester le modèle cosmologique actuel, une théorie qui s’est mise en place entre 1978 et 1982, qui décrit notamment l’origine de l’univers, l’origine de toute la matière dans l’univers et l’origine des structures à grande échelle de l’univers.»
Un modèle cosmologique, c’est un système mathématique conçu à partir des observations qui décrit une histoire, celle de notre univers, depuis ses tout premiers instants. A cette époque, la fin des années 70 donc, le modèle cosmologique qui prévaut est celui du big-bang, à savoir une expansion qui aurait débuté il y a 13,8 milliards d’années. Il ne s’agit pas d’une grande explosion, comme on a parfois tendance à se l’imaginer, mais d’un état très dense et très chaud de l’univers qui n’aurait cessé depuis de s’étendre pour aboutir à ce que nous connaissons aujourd’hui. Mais ce modèle pose plusieurs problèmes, notamment celui de l’horizon. Si on regarde très loin, aux limites de l’univers observable, dans n’importe quelle direction, on capte un rayonnement très ancien qu’on appelle «fond diffus cosmologique». Et si on l’observe dans deux directions opposées, on voit des zones si éloignées qu’elles n’ont aucun moyen d’avoir échangé la moindre information entre elles. Aucune raison, du coup, que leurs caractéristiques, comme par exemple la température, soient les mêmes. Et pourtant, cette température est identique partout : 2,7 degrés Kelvin (au-dessus du zéro absolu). Inexplicable.

Phase d’expansion

En 1979, le physicien Alan Guth propose donc une théorie, l’inflation, qui, on ne va pas se mentir, à de quoi surprendre au premier abord. Entre 10-35 et 10-33 secondes après le big-bang (on parle bien du premier millionième de milliardième de milliardième de milliardième de seconde), une région de l’univers aurait brutalement connu une phase d’expansion monumentale. Par «monumentale», il faut comprendre que sa taille aurait été multipliée par un nombre totalement délirant, du genre 1 avec 26 zéros derrière. Voire plus. Voire beaucoup plus. Du coup, ces deux zones très éloignées ont pu papoter ensemble avant de se perdre brutalement de vue. Face à une telle idée, nous, on aurait trouvé ça un poil saugrenu. Les astrophysiciens, eux, ont fait les calculs, lancé des observations, et validé la cohérence de cette inflation qui, aujourd’hui, fait partie intégrante du modèle cosmologique standard, «Lambda CDM» de son petit nom.
La cosmologie, c’est un voyage dans le temps. Et on remonte très loin. Pour y arriver, il faut donc observer la seule trace visible disponible, ce fond diffus cosmologique. Celui-ci ne date pas de l’inflation elle-même car même après cette croissance soudaine, l’univers est toujours si dense que rien ne peut s’échapper, pas même la lumière. Il faut attendre 380 000 ans pour que les premiers signaux puissent être émis. Ce sont eux qui arrivent aujourd’hui jusqu’à nous. «Quand on regarde ce qu’on reçoit du cosmos, de l’extérieur de notre galaxie, 95 % de l’énergie vient de ce fond très uniforme, explique Jean-Loup Puget. Pas étonnant que ce soit devenu un outil essentiel pour essayer de comprendre le début de l’univers.»
Son observation a donc été un des enjeux majeurs de l’astrophysique du XXIe siècle. D’abord avec des ballons stratosphériques, puis en 2001, avec le satellite américain WMAP, et enfin avec Planck, lancé par l’agence spatiale européenne en 2009. Les mesures se sont faites plus précises et il a été possible d’y trouver énormément d’informations. D’abord, une correspondance parfaite avec les prédictions effectuées à partir des modèles théoriques : l’image observée correspond très exactement à celle attendue. Ensuite, il est possible d’affiner ce qu’on appelle les paramètres cosmologiques. Les scientifiques peuvent y lire avec précision l’âge de l’univers, estimé aujourd’hui à 13,799 milliards d’années.

Ondes gravitationnelles

Enfin, on peut y chercher d’autres informations, comme la répartition de toutes les masses de l’univers observable par rapport à nous. Ou encore les traces des ondes gravitationnelles primordiales, celles qui ont dû accompagner l’inflation. L’univers n’a en effet pas pu faire «shpouing» (onomatopée moyennement rigoureuse au niveau scientifique) sans laisser quelques traces. «Si on arrivait à détecter ces ondes gravitationnelles, ça donnerait un boost phénoménal au modèle de l’inflation,s’enthousiasme Jean-Loup Puget. C’est de plus un porteur de signal qui est peu affecté quand on veut remonter dans le temps. Ce serait un outil formidable pour étudier la physique de l’univers primordial, de la physique à des énergies très élevées.»
C’est pour ça qu’en mars 2014, lorsque l’équipe du télescope BICEPT 2, installé en Antarctique, annonce avoir détecté ces fameuses ondes, le retentissement est mondial. C’est une nouvelle validation pour l’inflation d’Alan Guth et pour la relativité générale d’Einstein qui prédit l’existence de ces ondes. Las, un an plus tard, les équipes de Planck expliquent que rien de tel n’a été détecté. Il s’agissait en fait d’un signal beaucoup plus proche de nous, généré par la poussière qui peuple notre galaxie. C’est le moment idéal pour présenter deux autres scientifiques présents autour de la table, François Levrier et François Boulanger, spécialistes de la matière interstellaire, celle qui donne naissance aux étoiles, et dont une composante est cette fameuse poussière. «L’équipe de BICEPT 2 avait bien repéré un signal, mais il a été faussement interprété comme étant d’origine cosmologique, raconte François Levrier. C’est un signal d’origine galactique. Quand on regarde dans une direction dans le ciel, nous n’avons accès qu’à la somme de tous les signaux qui nous arrivent. Aux mêmes fréquences, on a des signaux qui sont les uns d’origine cosmologique et les autres d’origine galactique, et il faut arriver à séparer les deux pour éviter de mal interpréter nos observations.»Mais c’est loin d’être évident. Si le fond diffus cosmologique est assez bien prédit par les modèles, ce n’est pas le cas pour le signal d’origine galactique. «Au niveau de sensibilité qui nous intéresse, on ne connaît pas ses caractéristiques, explique François Boulanger. On veut construire un modèle qui permette de le prédire, et c’est un problème qui est aussi à la frontière des connaissances en mathématique.» C’est là qu’intervient Erwan Allys, le plus jeune des chercheurs présents, qui travaille à la frontière de l’astrophysique et de la science des données : «Il faut qu’on puisse décrire ces avant-plans galactiques, parce qu’ils cachent le fond diffus cosmologique. C’est compliqué. On est démuni, on a très peu d’outils pour décrire ce qu’il se passe. On a en plus besoin d’une très grande précision, car ce qu’on veut détecter derrière est très faible.»

Brouhaha interstellaire

13,8 milliards d’années plus tard, nous en sommes donc là, à essayer de faire parler un signal venu du fond des âges perdu au milieu d’un brouhaha interstellaire. Le croisement des disciplines nécessaire à la résolution de ce genre de problèmes, c’est d’ailleurs la raison d’être de la fusion en janvier 2019 de quatre laboratoires pour donner un seul et unique Laboratoire de physique de l’ENS. «L’aspect moderne de ce qui se passe ici, c’est le fait de s’être mis ensemble avec nos compétences scientifiques différentes pour créer cette interdisciplinarité, se réjouit François Boulanger. Cette multiplicité de compétences, c’est la nouvelle dimension.» C’est d’autant plus important que les années qui viennent risquent d’être agitées. Le télescope spatial Euclid sera lancé en 2022. La même année, le projet américain Large Synoptic Survey Telescope (LSST) devrait être opérationnel au nord du Chili. Et un peu plus tard, ce sera au tour du Square Kilometre Array (SKA) d’envoyer ses premières observations depuis l’Afrique du Sud et l’Australie. En attendant le projet Litebird, validé fin mai par le Japon, prévu pour être lancé en 2027, et successeur direct du satellite Planck. Nick Kaiser se réjouit : «Nous allons avoir beaucoup de jouets avec lesquels nous amuser.» Mais les physiciens s’attendent surtout à un tsunami de données inédit dans l’histoire de l’astronomie. «Il y a dix ans, le facteur limitant dans nos recherches, c’était la quantité d’informations qu’on avait, explique Erwan Allys. Dans dix ans, le facteur limitant quand on voudra valider des modèles physiques avec des données en astrophysique, ce sera le temps de calcul disponible. Pour SKA, le flux de données sera proche du trafic internet mondial.» Rien de très surprenant pour François Boulanger : «Cette révolution de l’information que l’on vit dans la société en général, elle est aussi présente dans les sciences.»
Et la tentation est grande, quand on parle de grands volumes de données, de s’en servir pour nourrir des systèmes basés sur l’intelligence artificielle (IA) en espérant qu’il en ressortira quelque chose. Le problème, c’est que si ces réseaux de neurones sont capables de reconnaître un chat dans une image, on connaît mal la logique qui leur a permis d’arriver à cette conclusion. Ils fonctionnent un peu comme une boîte noire. «Une nouvelle idée, elle ne viendra jamais d’une IA, soutient Nick Kaiser, mais d’une intelligence humaine.» Erwan Allys va dans le même sens : «En physique, on préfère ne pas utiliser de boîte noire, on veut savoir ce qui se passe.» Avec le mathématicien Stéphane Mallat, titulaire de la chaire de sciences des données au Collège de France, il essaie donc de mettre au point une méthode qui s’inspire de l’apprentissage artificiel, mais dont on pourrait maîtriser les rouages. Une piste prometteuse parmi d’autres, qui montre que cet afflux de données à venir est pris très au sérieux. «Les communautés de cosmologie et d’astrophysique commencent à se structurer autour de ce genre de thématique, continue Allys, pour développer l’expertise nécessaire pour traiter ce genre de données, il faut s’y prendre en avance.»
Et quelle aiguille espère-t-on trouver dans ces bottes de foin de datas astrophysiques ? Et surtout, cherche-t-on seulement ce qui peut confirmer des théories vieilles de quelques décennies, ou de plus d’un siècle, comme la relativité générale d’Einstein ? «Au contraire, on cherche à casser le modèle et on n’y arrive pas, corrige Jean-Loup Puget. A la sortie des données du satellite WMAP, Lyman Page, un des responsables, avait dit : "Le problème, c’est qu’il n’y a pas de surprise". Et effectivement, ce qu’on espère toujours, c’est de trouver quelque chose qui ne marche pas et qui nous conduise à pouvoir expliquer cette physique non comprise de l’énergie noire et de la matière noire.» Ce sont en effet les deux plus grands mystères du modèle cosmologique Lambda-CDM. Ils lui ont d’ailleurs donné son nom. La lettre grecque lambda désigne la constante cosmologique nécessaire pour prendre en compte l’accélération de l’expansion de l’univers, observée en 1998. Jusqu’alors, on pensait que l’expansion de l’univers ne pouvait que décélérer et qu’il pourrait même, peut-être, se contracter à nouveau. Cette accélération qu’on ne sait pas expliquer nécessite une énergie (noire) gigantesque. «CDM», c’est pour «Cold Dark Matter», la matière noire théorisée à cause de la rotation des galaxies, si rapide qu’elle devrait éjecter les étoiles périphériques. On a donc supposé la présence d’une matière inconnue au sein des galaxies pour que la gravitation soit capable de retenir les étoiles. Selon le modèle Lamba-CDM, l’univers serait donc composé de 69 % d’énergie noire et de 26 % de matière noire. Les 5 % restants correspondent donc à tout ce qu’on peut observer. Une situation qui ne satisfait pas grand monde, malgré une concordance quasi parfaite avec les observations.
«Beaucoup de cosmologistes font la comparaison avec les épicycles d’avant Copernic», avance Nick Kaiser. Avant que l’astronome polonais ne modélise au XVIe siècle un système centré sur le Soleil, il fallait, en effet, pour pouvoir garder la Terre au centre de l’univers tout en restant cohérent avec les observations du mouvement des planètes, utiliser des épicycles, des cercles imbriqués dans d’autres cercles, pour décrire la rotation de ces dernières. L’image en dit long sur les interrogations actuelles des chercheurs. «Dans les nouvelles expériences et les nouvelles données d’observation, on compte justement sur les découvertes non prévues, qui vont nous permettre de dire qu’il y a un truc qui ne va pas, abonde François Levrier. Il faut alors qu’on revienne à la table de travail pour construire une théorie plus proche de l’observation.» Jean-Loup Puget : «On espère toujours une surprise !»
13,8 milliards d’années plus tard, on attend donc la surprise, l’observation inattendue qui fera progresser la compréhension de cet univers dans lequel nous évoluons. Mais on ne sait pas d’où elle viendra. De ce fond diffus cosmologique qui pourrait permettre d’avoir accès à l’univers primordial et à ses niveaux d’énergie inaccessibles sur Terre ? De l’observation des grandes structures, ces amas de galaxies qui regroupent les étoiles par centaines de milliards ? D’une idée géniale compatible avec les observations ultraprécises d’aujourd’hui ? «Ça me rappelle une histoire, s’amuse Nick Kaiser. Un homme ivre rentre chez lui. Il fait nuit et il se rend compte qu’il a perdu ses clefs. Un de ses amis le croise plus tard, et il est en train de chercher ses clefs sous un lampadaire. "Tu es sûr que tu les as perdues là ?" lui demande-t-il. L’autre lui répond : "Non, je ne crois pas, mais c’est le seul endroit où je peux éventuellement les retrouver". Nous en sommes là, à espérer trouver quelque chose sans être sûrs de chercher au bon endroit. La technologie, c’est ce qui peut allumer quelques lampadaires de plus.» 

Aucun commentaire: