Les astrophysiciens utilisent les supercalculateurs pour simuler notre Univers…mais la puissance de calcul n’est pas suffisante face à l’immensité de ce qui nous entoure. Il faut donc faire des choix, des approximations et se confronter à la réalité de ce que l’on peut observer… à travers notre petite lorgnette.
À défaut de pouvoir explorer l’Univers en s’y déplaçant, sautant de galaxie en galaxie comme un cabri, les scientifiques utilisent d’autres techniques : les télescopes et la simulation, les deux étant complémentaires.
Alors que le James Webb Space Telescop (JWST de son petit nom) va enfin prendre son envol le 24 décembre afin d’améliorer notre connaissance de l’Univers, le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) revient sur la seconde option.
Comme on peut s’en douter, « il s’agit d’une tâche extrêmement complexe »… et c’est peu de le dire : « il s’agit de simuler depuis la moindre particule jusqu’aux confins de l’Univers visible en passant par les galaxies, le milieu interstellaire, les étoiles et les exoplanètes ». Allan Sacha Brun, astrophysicien et chargé de mission HPC au CEA, donne quelques explications.
L’Univers, « un objet physique comme les autres » (ou presque…)
Le scientifique commence par rappeler que notre Univers, âgé de 13,8 milliards d’années environ, se complexifie au fil du temps :
« Que ce soit au niveau extragalactique avec une toile cosmique composée de gaz froids tombant dans les amas de galaxies ; au sein même des galaxies avec la présence de bras spiraux ou de barres centrales ainsi que de nuages interstellaires et amas d’étoiles ; ou encore dans les systèmes stellaires pouvant comporter des disques d’accrétion ou des cortèges de planètes, l’Univers est structuré et évolue à toutes les échelles ».
Néanmoins, depuis la théorie de la relativité générale d’Albert Einstein, l’Univers est « un objet physique comme les autres », explique l’Observatoire de Paris. Il n’en reste pas moins un casse-tête pour les scientifiques, car il ne dispose d’« aucune solution analytique simple ».
Cette notion mathématique signifie qu’il n’existe pas une formule avec « une ou plusieurs expressions mathématiques ou un ensemble de variables et de constantes [qui] expriment la solution du problème recherché », précise l’Institut de minéralogie, de physique des matériaux et de cosmochimie de la Sorbonne.
Néanmoins, grâce à la relativité générale à grandes échelles (structuration de l’Univers), à la physique des fluides et des plasmas on connait les équations « régissant l’Univers, sa structuration et son évolution ainsi que la formation et l’évolution de ses composants », mais « elles ne sont pas simples à résoudre », précise le chercheur. Le CEA rappelle tout de même une exception à nos connaissances : « l’intérieur des trous noirs qui requiert une théorie de la gravitation quantique pas encore finalisée ».
Un gloubi-boulga galactique
Dans les simulations, astrophysiciens numériciens et théoriciens « s’intéressent à la formation, à la structure et à l’évolution des nombreux objets cosmiques composant l’Univers ainsi qu’à leurs interactions », précise Allan Sacha Brun. C’est un travail de titans et de nombreuses équipes planchent sur le sujet. Une solution pour avancer tout de même est de passer par une « approche numérique d’approximation ».
Comme nous l’avons déjà expliqué à plusieurs reprises, seuls les éléments observés font foi dans la science, le reste n’est que supposition/hypothèses. Il faut donc que les calculs s’alignent parfaitement avec les données observées par les satellites et des laboratoires au sol. C’est pour cela que les scientifiques « confrontent leurs calculs et prévisions aux myriades d’observations multi-longueurs d’ondes et multi-messagers (photons, particules, neutrinos, ondes gravitationnelles) ». On ne déforme donc pas la réalité pour la faire correspondre à ses résultats.
Dans cette vidéo, Zeste de Science explique que pour simuler l’Univers, il faut remplir un modèle virtuel avec trois ingrédients principaux :
« Une cuillère à café de gaz intergalactique qui vous servira à produire vos étoiles et vos galaxies, une grosse louche de votre ingrédient secret, la matière noire. C’est un peu le liant il faut absolument en mettre sinon ça ne marche pas. […] Saupoudrez d’une pincée d’étoiles massives. […] Laissez mijoter tout cela ensemble pendant quelques milliards d’années virtuelles dans de puissants supercalculateurs et voilà. Il n’y a plus qu’à admirer vos galaxies et vos amas de galaxies se former et à les comparer aux vraies ».
Du micro et du macro, il y en a pour tous les goûts…
Il faut prendre en compte une multiplicité de phénomènes physiques, sur des échelles allant de la physique quantique au déplacement des galaxies en passant par les déformations de l’espace-temps. Afin d’essayer d’y arriver, « les astrophysiciens ont dû développer des codes de simulation massivement parallèles extrêmement performants pour reproduire au mieux les propriétés micro et macroscopiques de ces objets célestes ».
Ils sont évidemment aidés par la montée en puissance des supercalculateurs, mais ce n’est toujours pas suffisant pour une simulation globale. Ils peuvent néanmoins travailler sur des modèles de plus en plus précis et donc de plus en plus coûteux en ressources : « passer d’une description à une puis deux dimensions spatiales à une description tridimensionnelle bien plus réaliste, mais très coûteuse en calculs ».
Pour ajouter un zeste de complexité, les embuches sont nombreuses. Allan Sacha Brun donne un exemple : « il faut souvent suivre des échelles de temps rapides pour comprendre une évolution lente, ce qui peut facilement amener à des erreurs de précision. C’est ce qu’on appelle un problème numériquement raide ».
… et ensuite on mélange le tout
De plus, plus on élargit le spectre de la simulation plus les ressources nécessaires sont gargantuesques :
« Bien que capturer les seules échelles spatio-temporelles (déjà nombreuses) d’un objet donné soit un défi en soi, il s’agira demain, par exemple, de simuler simultanément l’intérieur d’une étoile, son atmosphère étendue et l’impact de son activité sur les planètes orbitant autour d’elle ou de résoudre la formation stellaire jusqu’au disque d’accrétion (embryon de la formation planétaire) au sein même d’un bras spiral de galaxie et, à terme, de coupler dynamiquement toutes ces échelles et simulations ».
Les scientifiques peuvent actuellement simuler certains objets célestes comme une galaxie ou une étoile, mais de manière isolée. Dans l’Univers, « ils s’enchevêtrent et s’influencent mutuellement », ce qui complexifie de manière exponentielle les calculs.
On estime aujourd’hui que l’Univers contiendrait environ 2 000 milliards de galaxies, chacune avec des centaines de milliards d’étoiles et encore plus d’exoplanètes… On vous laisse imaginer la complexité des interactions sur une échelle de temps en milliards d’années, avec des distances conséquentes… rien que pour la partie observable.
Et on ne parle que de l’Univers observable
En effet, on ne parle ici que de ce qu’on appelle l’Univers observable, c’est-à-dire des planètes, étoiles et tous les objets stellaires dont l’existence a été directement établie. Roland Lehoucq, astrophysicien au CEA, revenait sur ce sujet dans un épisode « 10 minutes pour les Sciences » :
« On ne voit qu’un sous-ensemble de l’ensemble de toutes les choses qui est l’univers observable. C’est la seule chose dont les astrophysiciens peuvent parler avec quelques confiances, c’est la seule chose sur laquelle ils ont prise avec leurs instruments […]
Pour décrire cet univers observable, ils créent des modèles, des scénarios qui doivent être cohérents entre ce qu’ils observent et ce que l’on sait de la physique ici et maintenant ».
Pour établir les scénarios et simulations, les chercheurs font face à un autre obstacle important : ils se trouvent dans le système qu’ils étudient et ne disposent que d’un seul point de vue à un instant donné. Idéalement, il faudrait observer le système sous différents angles depuis l’extérieur.
C’est un peu comme si on était placé dans pièce avec une unique petite fenêtre à travers laquelle on ne voit que des arbres. On pourrait rapidement en conclure – à tort – que le monde qui nous entoure est uniquement constitué d’arbres. Il faut donc être très prudent sur les interprétations des simulations en dehors de l’Univers observable.
Une simulation avec 2 100 milliards particules de matière
Quoi qu’il en soit, la recherche progresse et des avancées ont récemment été annoncées. En septembre 2021 par exemple, une équipe internationale de chercheurs (avec la participation du Laboratoire d’Astrophysique de Marseille ou LAM) « a développé la simulation de l’Univers la plus réaliste jamais réalisée à ce jour ».
Baptisée Uchuu (Univers en japonais), elle « a été possible grâce à ATERUI II (Japon) », un supercalculateur construit par l’Observatoire astronomique national du Japon. Le résultat est impressionnant : « Cette simulation contient 2 097 152 000 000 (2 100 milliards) de particules de matière dans un cube de 9,630 millions d’années-lumière de côté. En gros, la dimension d’Uchuu est comparable à la moitié de la distance entre la Terre et les galaxies les plus éloignées observées ».
Sylvain de la Torre, chercheur au LAM, affirme qu’« aucune autre simulation n’est capable de montrer un tel volume d’Univers tout en conservant une si haute résolution. Normalement, nous devons choisir entre un grand volume avec une faible résolution ou l’inverse ».

Une simulation qui manque d’étoiles et de planètes
Autre caractéristique des plus importante de cette création virtuelle : « sa capacité à simuler l’évolution de la matière tout au long de la quasi-totalité de l’âge de l’Univers, soit 13,8 milliards d’années, environ trois fois l’âge de la Terre ».
Une précision importante des chercheurs : « L’échelle de ces structures va des plus grands amas de galaxies aux plus petites galaxies. Les étoiles et les planètes individuelles ne sont pas détaillées, alors ne vous attendez pas à trouver des civilisations extraterrestres à Uchuu ». Un tel niveau de précision aurait demandé une puissance de calcul beaucoup trop grande.
Les chercheurs ont utilisé tous les processeurs disponibles du supercalculateur ATERUI II pendant une année entière, « soit 40 200 processeurs travaillant 48 heures par mois pour faire de ce projet une réalité », indique le LAM. Le résultat occupe pas moins de 3 Po d’espace de stockage. Selon le dernier classement TOP 500, ATERUI II est en 323e position. Il était 83e lors de son entrée en juin 2018. Il est animé par des Xeon Gold 6148 (20C/40T).
Plus l’informatique et les supercalculateurs feront des progrès, plus les scientifiques pourront en profiter pour affiner leurs simulations et donc la compréhension de notre Univers.