Simuler l’Univers : enjeux et défis

Simuler l’Univers : enjeux et défis

[##0,0001%########.....]

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

21/12/2021 10 minutes
12

Simuler l’Univers : enjeux et défis

Les astrophysiciens utilisent les supercalculateurs pour simuler notre Univers…mais la puissance de calcul n’est pas suffisante face à l’immensité de ce qui nous entoure. Il faut donc faire des choix, des approximations et se confronter à la réalité de ce que l’on peut observer… à travers notre petite lorgnette.

À défaut de pouvoir explorer l’Univers en s’y déplaçant, sautant de galaxie en galaxie comme un cabri, les scientifiques utilisent d’autres techniques : les télescopes et la simulation, les deux étant complémentaires.

Alors que le James Webb Space Telescop (JWST de son petit nom) va enfin prendre son envol le 24 décembre afin d’améliorer notre connaissance de l’Univers, le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) revient sur la seconde option.

Comme on peut s’en douter, « il s’agit d’une tâche extrêmement complexe »… et c’est peu de le dire : « il s’agit de simuler depuis la moindre particule jusqu’aux confins de l’Univers visible en passant par les galaxies, le milieu interstellaire, les étoiles et les exoplanètes ». Allan Sacha Brun, astrophysicien et chargé de mission HPC au CEA, donne quelques explications.

L’Univers, « un objet physique comme les autres » (ou presque…)

Le scientifique commence par rappeler que notre Univers, âgé de 13,8 milliards d’années environ, se complexifie au fil du temps :

« Que ce soit au niveau extragalactique avec une toile cosmique composée de gaz froids tombant dans les amas de galaxies ; au sein même des galaxies avec la présence de bras spiraux ou de barres centrales ainsi que de nuages interstellaires et amas d’étoiles ; ou encore dans les systèmes stellaires pouvant comporter des disques d’accrétion ou des cortèges de planètes, l’Univers est structuré et évolue à toutes les échelles ».

Néanmoins, depuis la théorie de la relativité générale d’Albert Einstein, l’Univers est « un objet physique comme les autres », explique l’Observatoire de Paris. Il n’en reste pas moins un casse-tête pour les scientifiques, car il ne dispose d’« aucune solution analytique simple ».

Cette notion mathématique signifie qu’il n’existe pas une formule avec « une ou plusieurs expressions mathématiques ou un ensemble de variables et de constantes [qui] expriment la solution du problème recherché », précise l’Institut de minéralogie, de physique des matériaux et de cosmochimie de la Sorbonne.

Néanmoins, grâce à la relativité générale à grandes échelles (structuration de l’Univers), à la physique des fluides et des plasmas on connait les équations « régissant l’Univers, sa structuration et son évolution ainsi que la formation et l’évolution de ses composants », mais « elles ne sont pas simples à résoudre », précise le chercheur. Le CEA rappelle tout de même une exception à nos connaissances : « l’intérieur des trous noirs qui requiert une théorie de la gravitation quantique pas encore finalisée ».

Un gloubi-boulga galactique

Dans les simulations, astrophysiciens numériciens et théoriciens « s’intéressent à la formation, à la structure et à l’évolution des nombreux objets cosmiques composant l’Univers ainsi qu’à leurs interactions », précise Allan Sacha Brun. C’est un travail de titans et de nombreuses équipes planchent sur le sujet. Une solution pour avancer tout de même est de passer par une « approche numérique d’approximation ».

Comme nous l’avons déjà expliqué à plusieurs reprises, seuls les éléments observés font foi dans la science, le reste n’est que supposition/hypothèses. Il faut donc que les calculs s’alignent parfaitement avec les données observées par les satellites et des laboratoires au sol. C’est pour cela que les scientifiques « confrontent leurs calculs et prévisions aux myriades d’observations multi-longueurs d’ondes et multi-messagers (photons, particules, neutrinos, ondes gravitationnelles) ». On ne déforme donc pas la réalité pour la faire correspondre à ses résultats.

Dans cette vidéo, Zeste de Science explique que pour simuler l’Univers, il faut remplir un modèle virtuel avec trois ingrédients principaux :

« Une cuillère à café de gaz intergalactique qui vous servira à produire vos étoiles et vos galaxies, une grosse louche de votre ingrédient secret, la matière noire. C’est un peu le liant il faut absolument en mettre sinon ça ne marche pas. […] Saupoudrez d’une pincée d’étoiles massives. […] Laissez mijoter tout cela ensemble pendant quelques milliards d’années virtuelles dans de puissants supercalculateurs et voilà. Il n’y a plus qu’à admirer vos galaxies et vos amas de galaxies se former et à les comparer aux vraies ».

Du micro et du macro, il y en a pour tous les goûts…

Il faut prendre en compte une multiplicité de phénomènes physiques, sur des échelles allant de la physique quantique au déplacement des galaxies en passant par les déformations de l’espace-temps. Afin d’essayer d’y arriver, « les astrophysiciens ont dû développer des codes de simulation massivement parallèles extrêmement performants pour reproduire au mieux les propriétés micro et macroscopiques de ces objets célestes ».

Ils sont évidemment aidés par la montée en puissance des supercalculateurs, mais ce n’est toujours pas suffisant pour une simulation globale. Ils peuvent néanmoins travailler sur des modèles de plus en plus précis et donc de plus en plus coûteux en ressources : « passer d’une description à une puis deux dimensions spatiales à une description tridimensionnelle bien plus réaliste, mais très coûteuse en calculs ».

Pour ajouter un zeste de complexité, les embuches sont nombreuses. Allan Sacha Brun donne un exemple : « il faut souvent suivre des échelles de temps rapides pour comprendre une évolution lente, ce qui peut facilement amener à des erreurs de précision. C’est ce qu’on appelle un problème numériquement raide ».

… et ensuite on mélange le tout

De plus, plus on élargit le spectre de la simulation plus les ressources nécessaires sont gargantuesques :

« Bien que capturer les seules échelles spatio-temporelles (déjà nombreuses) d’un objet donné soit un défi en soi, il s’agira demain, par exemple, de simuler simultanément l’intérieur d’une étoile, son atmosphère étendue et l’impact de son activité sur les planètes orbitant autour d’elle ou de résoudre la formation stellaire jusqu’au disque d’accrétion (embryon de la formation planétaire) au sein même d’un bras spiral de galaxie et, à terme, de coupler dynamiquement toutes ces échelles et simulations ».

Les scientifiques peuvent actuellement simuler certains objets célestes comme une galaxie ou une étoile, mais de manière isolée. Dans l’Univers, « ils s’enchevêtrent et s’influencent mutuellement », ce qui complexifie de manière exponentielle les calculs.

On estime aujourd’hui que l’Univers contiendrait environ 2 000 milliards de galaxies, chacune avec des centaines de milliards d’étoiles et encore plus d’exoplanètes… On vous laisse imaginer la complexité des interactions sur une échelle de temps en milliards d’années, avec des distances conséquentes… rien que pour la partie observable.

Et on ne parle que de l’Univers observable

En effet, on ne parle ici que de ce qu’on appelle l’Univers observable, c’est-à-dire des planètes, étoiles et tous les objets stellaires dont l’existence a été directement établie. Roland Lehoucq, astrophysicien au CEA, revenait sur ce sujet dans un épisode « 10 minutes pour les Sciences » :

« On ne voit qu’un sous-ensemble de l’ensemble de toutes les choses qui est l’univers observable. C’est la seule chose dont les astrophysiciens peuvent parler avec quelques confiances, c’est la seule chose sur laquelle ils ont prise avec leurs instruments […]

Pour décrire cet univers observable, ils créent des modèles, des scénarios qui doivent être cohérents entre ce qu’ils observent et ce que l’on sait de la physique ici et maintenant ».

Pour établir les scénarios et simulations, les chercheurs font face à un autre obstacle important : ils se trouvent dans le système qu’ils étudient et ne disposent que d’un seul point de vue à un instant donné. Idéalement, il faudrait observer le système sous différents angles depuis l’extérieur.

C’est un peu comme si on était placé dans pièce avec une unique petite fenêtre à travers laquelle on ne voit que des arbres. On pourrait rapidement en conclure – à tort – que le monde qui nous entoure est uniquement constitué d’arbres. Il faut donc être très prudent sur les interprétations des simulations en dehors de l’Univers observable.

Une simulation avec 2 100 milliards particules de matière

Quoi qu’il en soit, la recherche progresse et des avancées ont récemment été annoncées. En septembre 2021 par exemple, une équipe internationale de chercheurs (avec la participation du Laboratoire d’Astrophysique de Marseille ou LAM) « a développé la simulation de l’Univers la plus réaliste jamais réalisée à ce jour ».

Baptisée Uchuu (Univers en japonais), elle « a été possible grâce à ATERUI II (Japon) », un supercalculateur construit par l’Observatoire astronomique national du Japon. Le résultat est impressionnant : « Cette simulation contient 2 097 152 000 000 (2 100 milliards) de particules de matière dans un cube de 9,630 millions d’années-lumière de côté. En gros, la dimension d’Uchuu est comparable à la moitié de la distance entre la Terre et les galaxies les plus éloignées observées ».

Sylvain de la Torre, chercheur au LAM, affirme qu’« aucune autre simulation n’est capable de montrer un tel volume d’Univers tout en conservant une si haute résolution. Normalement, nous devons choisir entre un grand volume avec une faible résolution ou l’inverse ».

Uchuu
Crédits : LAM

Une simulation qui manque d’étoiles et de planètes

Autre caractéristique des plus importante de cette création virtuelle : « sa capacité à simuler l’évolution de la matière tout au long de la quasi-totalité de l’âge de l’Univers, soit 13,8 milliards d’années, environ trois fois l’âge de la Terre ».

Une précision importante des chercheurs : « L’échelle de ces structures va des plus grands amas de galaxies aux plus petites galaxies. Les étoiles et les planètes individuelles ne sont pas détaillées, alors ne vous attendez pas à trouver des civilisations extraterrestres à Uchuu ». Un tel niveau de précision aurait demandé une puissance de calcul beaucoup trop grande.

Les chercheurs ont utilisé tous les processeurs disponibles du supercalculateur ATERUI II pendant une année entière, « soit 40 200 processeurs travaillant 48 heures par mois pour faire de ce projet une réalité », indique le LAM. Le résultat occupe pas moins de 3 Po d’espace de stockage. Selon le dernier classement TOP 500, ATERUI II est en 323e position. Il était 83e lors de son entrée en juin 2018. Il est animé par des Xeon Gold 6148 (20C/40T).

Plus l’informatique et les supercalculateurs feront des progrès, plus les scientifiques pourront en profiter pour affiner leurs simulations et donc la compréhension de notre Univers. 

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

L’Univers, « un objet physique comme les autres » (ou presque…)

Un gloubi-boulga galactique

Du micro et du macro, il y en a pour tous les goûts…

… et ensuite on mélange le tout

Et on ne parle que de l’Univers observable

Une simulation avec 2 100 milliards particules de matière

Une simulation qui manque d’étoiles et de planètes

Fermer

Commentaires (12)


Merci pour ce super article :)



2100 milliard de particules pour 9 millions d’années lumière de côté ça me parait très peu en particules non ? Ils parlent d’atome d’hydrogène quand ils disent particules ? Ou genre particule générique d’une certaine taille / masse ?



Je me suis arrêté à Univers SandBox pour les simulations :transpi:


Je me suis fais la même réflexion… Cela semble très léger en effet


Il s’agit de particules de matières noires (le papier en question). Oui c’est très peu par rapport à la réalité et formidable en même temps de simuler autant de particules.



Pour être plus générique, ça dépend des simulations (et aussi de la puissance de calculs à laquelle tu peux prétendre). Souvent une technique utilisés quand tu n’as pas les moyens de simuler de grands nombres de particules, c’est de créer des “superparticules” (une sorte d’agglomérat de N-particules) et d’adapter les équations de ton modèle à ce type de particules. Un exemple ici (Section 2.6 Particle Remapping).
D’autres méthodes existent. Mais c’est aussi parfois une question de “confort” de la part de l’utilisateur (chercheur, équipe, code existant…).


BlackLightning

Il s’agit de particules de matières noires (le papier en question). Oui c’est très peu par rapport à la réalité et formidable en même temps de simuler autant de particules.



Pour être plus générique, ça dépend des simulations (et aussi de la puissance de calculs à laquelle tu peux prétendre). Souvent une technique utilisés quand tu n’as pas les moyens de simuler de grands nombres de particules, c’est de créer des “superparticules” (une sorte d’agglomérat de N-particules) et d’adapter les équations de ton modèle à ce type de particules. Un exemple ici (Section 2.6 Particle Remapping).
D’autres méthodes existent. Mais c’est aussi parfois une question de “confort” de la part de l’utilisateur (chercheur, équipe, code existant…).


Merci pour ces précisions, c’est donc en gros des particules qui n’interagissent qu’avec l’interaction gravitationnelle.
Mais oui, j’imagine la difficulté d’une telle simulation :transpi:



eglyn a dit:


Merci pour ces précisions, c’est donc en gros des particules qui n’interagissent qu’avec l’interaction gravitationnelle.




En gros, ces particules vont “créer l’Univers” tel que nous le connaissons en utilisant La densité baryonique, la densité de matière noire, la densité d’énergie sombre, L’indice spectral des perturbations primordiales scalaires, l’amplitude des perturbations primordiales de courbure et l’épaisseur optique de réionisation. La gravitation va en quelque sorte d’écouler de cette modélisation.


Et bien merci pour tes réponses, tu as l’air d’être un spécialiste du sujet ^^


eglyn

Et bien merci pour tes réponses, tu as l’air d’être un spécialiste du sujet ^^


De rien. Spécialiste pas vraiment, mais j’ai déjà participé à des codes de recherches (développement) avec du million de molécules. Je dirais que j’ai plus une (bonne) expérience.


J’ai lu l’article en diagonale, de loin et sans mes lunettes…



Mais juste je m’interroge : je part du postulat que pour simuler l’univers il faut etre capable de simuler chacune de ces particules.
Or comment le faire avec un objet qui est contenu dans cet univers et qui dispose donc forcément moins de particules (et donc de capacité de stockage/traitement) que celui-ci ?



Un exemple facile à comprendre : nous sommes 7 milliards d’etres humains, rien que pour stocker notre état mort ou vif (1 bit) il faut 6.5 Go.
Alors si on rajoute le numéro de sécu (15 chiffres) 780Go de plus
Je vous laisse faire les calculs suivants ^^



crazytiti a dit:


Mais juste je m’interroge : je part du postulat que pour simuler l’univers il faut etre capable de simuler chacune de ces particules. Or comment le faire avec un objet qui est contenu dans cet univers et qui dispose donc forcément moins de particules (et donc de capacité de stockage/traitement) que celui-ci ?




Il existe plein de simulations qui n’arrivent pas à simuler l’intégralité des particules d’un système, et qui pourtant, donnent des résultats en accord avec les observations/expérimentations. (cf. 2eme papier que j’ai donné en exemple).



En fait, ce qui compte c’est de faire en sorte d’obtenir une solution la plus proche de la réalité avec des super-particules ou bien de connaître les limites en fonction du nombre de particules. Idéalement, si on arrive à simuler l’intégralité des particules ça serait parfait. Mais quand on ne peut pas, on passe par des “tour de passe-passe” [Enfin, ça repose quand même sur des bases mathématiques] afin d’approcher de la solution ou bien de simuler ce que l’on peut en sachant que des limites existent. (La solution sera par exemple plus bruitée, ce qui va nécessiter de faire du post-traitement avec les conséquences que ça peut avoir sur les données et ce que l’on peut en sortir).



(reply:1919155:BlackLightning) Eh bien, une question que je me pose : les ordinateurs quantiques, lorsqu’ils seront vraiment efficients, permettront-ils de faire des progrès significatifs dans ce genre de simulation ?



Il se pourrait bien que la technologie des ordinateurs quantiques puissent être intéressante pour résoudre certains problèmes algorithmiques plus efficacement que les ordinateurs classiques, problème que l’on peut retrouver dans ce type de simulation.



En pratique, je pense (ceci n’engage que mon avis) que ça se fera de la même façon que la technologie GPU, c’est-à-dire sous forme de coprocesseur quantique que l’on adressera quand il sera plus intéressant de faire le calcul dessus que sur un CPU classique. Par exemple, je pense que les problèmes de recherche d’une particules dans une liste peuvent être plus intéressante via un processeur quantique (si j’en crois l’algorithme de Grover, on est en n^12 en temps). Par contre pour du calcul pur (interaction électrostatique, gravitationnelle…), je pense que le CPU ou le GPU classique sera plus efficace.



Évidemment, quand la technologie devra véritablement disponible, il n’est pas à exclure que d’autres avancées se fassent. (Comme avec les GPU).



PS : J’omets aussi certains domaines qui pourrait naturellement tiré parti de ce genre de processeurs. (Simulation de processus quantiques, méthode d’optimisation des recuits…)


Il faut qu’ils utilisent la techno d’optimisation de star citizen