Le supercalculateur Joliot-Curie aide à comprendre l’Univers, la matière et l’énergie noires

Noir c’est noir, il n’y a plus d’espoir…

Le supercalculateur Joliot-Curie aide à comprendre l’Univers, la matière et l’énergie noires

Le supercalculateur Joliot-Curie aide à comprendre l’Univers, la matière et l’énergie noires

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Grâce au supercalculateur français Joliot-Curie, des scientifiques ont réalisé une « simulation inédite de l’évolution des structures cosmiques » de notre Univers. Il s’agit d’une nouvelle étape dans la course à la matière et l’énergie noires. Elle a conduit à une découverte sur les galaxies très compactes.

Grâce au supercalculateur du Grand Équipement National de Calcul Intensif (GENCI) installé au Très Grand Centre de Calcul (TGCC) du CEA, une équipe de chercheur a été en mesure de produire « une simulation inédite de l’évolution des structures cosmiques – galaxies, étoiles et trous noirs supermassifs – qui débute quelques instants après le Big-Bang et se poursuit jusqu’à aujourd’hui », plus de 13 milliards d’années plus tard.

Organisée dans le cadre d’un Grand Challenge, elle a duré plusieurs mois et a conduit les chercheurs à « deux résultats surprenants aux échelles galactiques et cosmologiques ». Avant de revenir sur ces découvertes, il faut rappeler ce qu’est un Grand Challenge dans le cadre de la recherche française.

Joliot-Curie augmente sa puissance avec la partition AMD EPYC (Rome)

Le GENCI explique qu'avant la mise en production d’un supercalculateur ou d’une nouvelle partition pour augmenter ses performances, « des simulations de très grande taille, dites Grands Challenges, sont exécutées sur la quasi-totalité de ses composants pour vérifier son bon fonctionnement ».

C’est une occasion « unique » pour des utilisateurs triés sur le volet d’accéder à une grande partie des ressources de la machine pendant cette période de « rodage », avec en prime le support des équipes du TGCC et du constructeur. Il y a ainsi eu un Grand Challenge en 2018 pour la mise en place de Joliot-Curie, avec une puissance de calcul de 9 PFLOPS. Il portait sur la réduction des émissions polluantes des moteurs à combustion interne.

D’autres ont eu lieu en 2015 pour la mise en service d’Occigen (2,1 PFLOPS) du CINES (Centre Informatique National de l’Enseignement Supérieur) et de son extension à 3,5 PFLOPS en 2017, mais aussi en 2012 à l’occasion du lancement des supercalculateurs Ada et Turing, en 2010 pour Jade, etc.

Dans le cas présent, c’est l’ajout d’une nouvelle partition de plus de 4 500 processeurs AMD EPYC (Rome) – passant sa puissance totale à 22 PFLOPS qui a donné le coup d’envoi d’un nouveau Grand Challenge. La simulation sur l’évolution de notre Univers dont il est question aujourd’hui a mobilisé le supercalculateur deux mois et demi environ.

Comment « observer » l’énergie et la matière noires ?

Avant de plonger dans les découvertes des scientifiques, quelques rappels sur la composition surprenante de notre Univers : « La matière visible ne constitue que 16 % de [sa] masse totale », le reste étant de la matière noire assez peu connue. Et ce n’est que la partie visible de l’iceberg.

« De manière encore plus surprenante, la masse totale de l’Univers ne représente que 30 % de son contenu énergétique », le reste étant de l’énergie noire « totalement inconnue, mais responsable de l’expansion accélérée de l’Univers ». Au final, la matière visible ne représente ainsi que 4,9 % de l’ensemble de l’Univers.

Cette partie « sombre » intrigue les scientifiques, qui n’ont de cesse d’essayer de la caractériser, mais ce n’est pas une tâche facile. « Pour sonder l’invisible, on repose sur le visible », explique la cosmologiste et physicienne Nathalie Palanque-Delabrouille, qui est également membre de l’Académie des sciences.

« Pour confronter nos données visibles et remonter à la compréhension de l’univers invisible, on est obligé de faire appel à des simulations de très grandes ampleurs, qui vont prendre en compte à la fois la physique de l’univers visible […], mais également la matière noire et l’énergie noire, qui vont interagir avec ce milieu visible et donner l’Univers que l’on observe aujourd’hui », ajoute-t-elle.

Le supercalculateur à la rescousse

Pour se lancer dans cette aventure, les scientifiques ont à leur disposition des données sur la position, la densité et la vitesse de la matière de notre Univers. Ils établissent ensuite des équations mathématiques reliant ces grandeurs entre elles. L’étape finale est de résoudre les équations.

Une partie simple en théorie, mais qui peut vite devenir un cauchemar lorsqu’elles sont trop nombreuses ou complexes, « on est contraint d’utiliser un supercalculateur » reconnait l’ingénieur du CEA Pierre-Franck Piserchia. C’est là qu’entre en jeu la collaboration Extreme-Horizon qui a profité de la période de Grand Challenge de Joliot-Curie pour « conduire une simulation de l’évolution des structures cosmiques depuis les premiers instants suivant le Big-Bang et jusqu’à aujourd’hui », soit pas moins de 13 milliards d’années.

Pour profiter au mieux des milliers de cœurs disponibles, les chercheurs ont divisé l’Univers en 25 milliards de petits cubes (ou des mailles informatiques), tandis que le temps est découpé en une succession de 400 000 « petits instants ». « Plus l’espace est subdivisé en mailles fines, plus on utilise des pas de temps fins, et plus le calcul sera juste et précis », explique l’ingénieur du CEA. Par contre, le temps nécessaire à cette simulation sera décuplé. 

Au-delà de la puissance de calcul brut, ce genre de simulation génère une gigantesque quantité de données : plus de 3 To « à chaque pas du calcul », précise Pierre-Franck Piserchia. Ce flot très important a nécessité de développer « de nouvelles techniques de lecture et d’écriture des données afin de réduire l’utilisation de l’espace disque et accélérer l’accès aux données ». Nous n’avons par contre pas plus de détails sur ce point.

Les trous noirs supermassifs sont de vilains perturbateurs

Maintenant que les bases techniques et cosmologiques sont posées, il est temps de revenir aux résultats de la simulation. Elle s’intéresse tout particulièrement à l’espace entre les galaxies, aussi appelé milieu intergalactique, « qui représentent 90 % du volume de l’Univers », rappelle le CEA.

Pour l’étudier, les scientifiques s’intéressent à la forêt Lyman-α, que nous avons déjà évoquée dans une précédente actualité. « C’est la marque de la présence d’hydrogène dans le milieu entre les galaxies. Cet hydrogène est omniprésent, c’est lui qui constitue l’essentiel de l’espace tenu entre les galaxies », précise Nathalie Palanque-Delabrouille.

Extreme-Horizon

Les scientifiques utilisent des objets extrêmement brillants, les quasars : « Toute matière baryonique [c’est-à-dire la matière visible que l’on connait, ndlr] située entre le quasar et l’observateur produit des raies d’absorption dans le spectre du quasar. Il est alors possible d’étudier les caractéristiques du gaz traversé, comme sa composition chimique, sa température ou sa densité, et de découvrir ainsi des galaxies qui seraient bien trop faibles pour être détectées en émission. Il s’agit de plus de l’unique manière de mettre en évidence le gaz intergalactique très ténu, qui n’émet qu’une faible lumière », détaille l’Institut d'Astrophysique de Paris (IAP).

« on a eu un gain d’un facteur 16 environ »

Cette technique est l’une des plus efficaces pour étudier l’Univers lointain. Problème, les trous noirs supermassifs « expulsent une quantité considérable d’énergie dans le milieu intergalactique » et peuvent donc perturber la forêt Lyman-α, ce qui n’est pas sans conséquence.

En effet, elle est notamment utilisée pour « contraindre le modèle cosmologique : combien il y a de masse de matière noire [et] d’énergie sombre dans notre Univers », explique Yohan Dubois de l’IAP. Problème, si « on n’arrive pas à bien saisir quel est l’impact de ces trous noirs sur cette forêt Lyman-α, on va se tromper sur la valeur exacte des paramètres cosmologiques. C’est un effet de parasitages dont on essaye de se débarrasser », ajoute-t-il.

Tout l’objet de la simulation du Grand Challenge était donc d’évaluer ce niveau de parasitage causé et ainsi « d’avoir une meilleure idée de comment contraindre les paramètres cosmologiques de l’univers ».

Le résultat obtenu – publié dans la revue scientifique Monthly Notices of the Royal Astronomical Society – satisfait les chercheurs : « Entre les précédentes simulations numériques de formation de l’univers et le projet Extreme-Horizon, on a eu un gain d’un facteur seize environ. À la fois sur la performance des logiciels et la capacité des supercalculateurs », affirme Pierre-Franck Piserchia.

Extreme-HorizonExtreme-Horizon

Une autre découverte « un peu par hasard »

En plus d’améliorer notre connaissance de l’Univers, le projet Extreme-Horizon a donné un second résultat, « un peu par hasard », publié dans Astronomy & Astrophysics cette fois-ci.

Il n’est plus du tout question de la forêt Lyman-α, mais de la taille des galaxies : « On s’est rendu compte, très tôt dans l’univers […] qu’une partie [des galaxies] était anormalement compactes. Quand on regarde les galaxies réelles dans l’Univers très jeune, on en voit des galaxies très compactes comme ça [détectées par le radiotélescope Alma du Chili, ndlr] et elles sont très difficiles à expliquer », explique Yohan Dubois.

Ces galaxies massives ultracompactes se sont formées lorsque l’Univers n’avait que 2 à 3 milliards d’années, « par agglomération rapide de nombreuses galaxies très petites ». Une surprise pour les chercheurs. Le CEA ajoute que « ce mode de croissance "en essaim d’abeilles" n’a pu être révélé que par la résolution exceptionnelle d’Extreme-Horizon ».

Pour résumer, la résolution beaucoup plus importante de la simulation sur le supercalculateur Joliot-Curie a permis de mettre en évidence « un effet physique nouveau de lien entre grandes échelles et petites échelles ».

Commentaires (16)



Grâce au supercalculateur du Grand Équipement National de Calcul Intensif installé au Très Grand Centre de Calcul




Très très grande emphase pour un ordinateur même pas classé dans le Top10.
.
.




la résolution beaucoup plus importante de la simulation sur le supercalculateur Joliot-Curie a permis de mettre en évidence « un effet physique nouveau de lien entre grandes échelles et petites échelles ».




Par définition, une simulation ne permet pas de « mettre en évidence » : elle suggère, au mieux, tant que des observations et/ou un important faisceau d’autres éléments concordants n’ont pas été indépendamment observés et/ou rapportés, respectivement.


Plus j’apprends et plus je sais que je ne sais rien.
On est encore LOIN de percer les secrets de l’univers.
Ça avance mais il nous faudrait un autre Einstein.


Ça devient tellement complexe aujourd’hui (et dans tous les domaines de la recherche), pas sûr qu’un unique cerveau soit capable de trouver LA solution ^^


auberjine

Ça devient tellement complexe aujourd’hui (et dans tous les domaines de la recherche), pas sûr qu’un unique cerveau soit capable de trouver LA solution ^^


Un courrier d’Einstein (1955) :
« Indubitablement, en regardant en arrière, la relativité restreinte était mûre pour être découverte en 1905. Lorentz avait déjà reconnu que la transformation qui porte maintenant son nom était essentielle pour l’analyse des équations de Maxwell, et Poincaré avait approfondi cette notion. En ce qui me concerne, je connaissais les travaux significatifs de Lorentz de 1895, mais pas ses travaux ultérieurs, ni les travaux de Poincaré s’y rapportant. En ce sens, mon travail de 1905 était original »


Ils ont créé un jeu de la vie a l’échelle galactique :incline:


ils ne se sont pas limités à l’échelle galactique (=galaxie), ils l’ont fait à l’échelle de l’Univers, c’est plus drôle.


anagrys

ils ne se sont pas limités à l’échelle galactique (=galaxie), ils l’ont fait à l’échelle de l’Univers, c’est plus drôle.


Oui à l’échelle cosmique, mais c’est vide à 90%. Ce temps de calcul est fait pour refroidir les processeurs.


Il existe d’autres projets très intéressants aussi, voir ici :



https://www.youtube.com/watch?v=VkCf1wd25eA



Futureman a dit:


Plus j’apprends et plus je sais que je ne sais rien. On est encore LOIN de percer les secrets de l’univers. Ça avance mais il nous faudrait un autre Einstein.




Ce qui me choque avec cette phrase c’est de porter un seul personnage en monument de connaissance infini.



Einstein lui aussi a fait des erreurs. Les progrès de la science et plus particulièrement de sa discipline préférée ne se serait certainement pas fait sans l’émulation (directe ou indirecte) avec d’autres scientifiques comme Dirac, Schrödinger, Bohr et j’en passe un très grand nombre. Notamment ceux qui les ont précédés.



La science c’est un chantier monté brique par brique en un temps plus long que la vie humaine moyenne. Parfois même, le parpaing il n’est pas posé avant 3 ou 4 générations.



Le tableau périodique des éléments en est une démonstration flagrante. En 2018 la science à ajouté la découverte (mise en évidence) de 4 éléments qui manquaient. Et même si on a le plus gros du gâteau personne n’est vraiment certain que cela soit fini.



tmtisfree a dit:


Très très grande emphase pour un ordinateur même pas classé dans le Top10…




Tu mélanges tout. Il ne fait aucun doute que c’est un supercalculateur, d’ailleurs l’appellation désigne plus un type de machine qu’une taille. Le Genci, c’est plus que cette machine et que le TGCC, c’est national, donc là encore, tes sarcasmes sont sans objet.
Seule l’appellation TGCC peut prêter à sourire. Mais quand tu vois l’historique, il est clair que le centre de calcul tel qu’il est maintenant est très grand, par rapport à la T3D qu’il pouvait y avoir il y a 25 ans par exemple.


Merci pour cet article.



anagrys a dit:


ils ne se sont pas limités à l’échelle galactique (=galaxie), ils l’ont fait à l’échelle de l’Univers observable, c’est plus drôle.




:cap:



(petits joueurs :transpi: )


Oui mais quelle échelle entre l’observable et l’inobservable ? :windu:



(reply:1837870:Idiogène)




Au minimum un très gros facteur, d’après ce qu’on sait…


Ce genre de simulation n’est d’aucune utilité dans la compréhension de l’univers, elle permet juste de valider les capacités de calcul du bouzin.
Le jour où une formule mathématique permettra de simuler l’univers n’est pas encore arrivé. C’est d’ailleurs le problème de la partie “sombre”, qui n’est jusqu’à preuve du contraire qu’un artefact inventé pour valider les théories actuelles. Ce n’est pas parce que les observations ne coïncident pas avec les calculs qu’il manque qq chose, c’est peut être aussi que les calculs sont faux :)



Avalin a dit:


Ce genre de simulation n’est d’aucune utilité dans la compréhension de l’univers, elle permet juste de valider les capacités de calcul du bouzin. Le jour où une formule mathématique permettra de simuler l’univers n’est pas encore arrivé. C’est d’ailleurs le problème de la partie “sombre”, qui n’est jusqu’à preuve du contraire qu’un artefact inventé pour valider les théories actuelles. Ce n’est pas parce que les observations ne coïncident pas avec les calculs qu’il manque qq chose, c’est peut être aussi que les calculs sont faux :)




Bien sûr que non cela permet d’invalider des modèles/hypothèses. Dans de nombreux cas dans l’histoire des sciences les calculs on précédés leurs validations par l’observation comme l’existence des ondes gravitationnelles, le boson de higgs etc


Fermer