Une équipe de physiciens et d’informaticiens du Laboratoire nationwide d’Argonne du Département américain de l’énergie (DOE) a réalisé l’une des cinq moreover grandes simulations cosmologiques jamais réalisées. Les données de la simulation informeront les cartes du ciel pour aider à mener des expériences cosmologiques à grande échelle.



La simulation, appelée le dernier voyage, fit la distribution de la masse à travers l’univers au fil du temps – en d’autres termes, remark la gravité amène une mystérieuse substance invisible appelée « matière noire » à s’agglutiner pour previous des constructions à as well as grande échelle appelées halos, dans lesquelles les galaxies se forment et évoluent.

Les scientifiques ont effectué la simulation sur le supercalculateur d’Argonne Mira. La même équipe de scientifiques a réalisé une précédente simulation cosmologique appelée Outer Rim en 2013, quelques jours seulement après la mise sous rigidity de Mira. Après avoir exécuté des simulations sur la machine tout au lengthy de sa durée de vie de sept ans, l’équipe a marqué la retraite de Mira avec la simulation Past Journey.



Le dernier voyage montre à quel position la technologie d’observation et de calcul a progressé en seulement sept ans, et il apportera des données et des informations à des expériences telles que l’expérience de fond de micro-ondes cosmique au sol Phase-4 (CMB-S4), le Legacy Study of Space et le temps (réalisé par l’observatoire Rubin au Chili), l’instrument spectroscopique à énergie noire et deux missions de la NASA, le télescope spatial romain et SPHEREx.

« Nous avons travaillé avec un volume énorme de l’univers et nous nous sommes intéressés aux structures à grande échelle, comme des régions de milliers ou de tens of millions de galaxies, mais nous avons également envisagé la dynamique à des échelles in addition petites », a déclaré Katrin Heitmann, directrice adjointe de la division d’Argonne’s High Division de la physique de l’énergie (HEP).

Le code qui a construit le cosmos

L’intervalle de six mois pour la simulation du dernier voyage et les principales tâches d’analyse a présenté des défis uniques pour le développement logiciel et le flux de travail. L’équipe a adapté une partie du code utilisé pour la simulation de la jante extérieure 2013 avec quelques mises à jour importantes pour utiliser efficacement Mira, un système IBM Blue Gene / Q qui était hébergé à l’Argonne Management Computing Facility (ALCF), un bureau du DOE de Installation utilisateur scientifique.

In addition précisément, les scientifiques ont utilisé le Components / Hybrid Accelerated Cosmology Code (HACC) et son cadre d’analyse, CosmoTools, pour permettre l’extraction incrémentale d’informations pertinentes en même temps que la simulation était en cours.

« Faire fonctionner la equipment complète est un défi vehicle la lecture de l’énorme quantité de données produites par la simulation est coûteuse en calcul, vous devez donc faire beaucoup d’analyses à la volée », a déclaré Heitmann. « C’est intimidant, car si vous faites une erreur avec les paramètres d’analyse, vous n’avez pas le temps de la refaire. »

L’équipe a adopté une approche intégrée pour exécuter le flux de travail pendant la simulation. HACC ferait avancer la simulation dans le temps, déterminant l’effet de la gravité sur la matière pendant de grandes functions de l’histoire de l’univers. Une fois que le HACC a déterminé les positions de billions de particules de calcul représentant la distribution globale de la matière, CosmoTools intervient pour enregistrer les informations pertinentes – telles que la recherche des milliards de halos qui hébergent les galaxies – à utiliser pour l’analyse pendant le publish-traitement.

« Lorsque nous savons où se trouvent les particules à un second donné, nous caractérisons les constructions qui se sont formées à l’aide de CosmoTools et stockons un sous-ensemble de données pour les utiliser ultérieurement », a déclaré Adrian Pope, physicien et responsable de HACC et de CosmoTools. développeur au sein de la division Computational Science (CPS) d’Argonne. « Si nous trouvons un amas dense de particules, cela indique l’emplacement d’un halo de matière noire, et des galaxies peuvent se previous à l’intérieur de ces halos de matière noire. »

Les scientifiques ont répété ce processus entrelacé – où le HACC déplace les particules et CosmoTools analyse et enregistre des données spécifiques – jusqu’à la fin de la simulation. L’équipe a ensuite utilisé les fonctionnalités de CosmoTools pour déterminer les amas de particules susceptibles d’héberger des galaxies. Pour référence, environ 100 à 1000 particules représentent des galaxies uniques dans la simulation.

« Nous déplacions des particules, effectuions des analyses, déplaçions des particules, effectuions des analyses », a déclaré Pope. « À la fin, nous reviendrions sur les sous-ensembles de données que nous avions soigneusement choisis pour stocker et exécuter des analyses supplémentaires pour mieux comprendre la dynamique de la formation de la construction, comme les halos qui fusionnaient et ceux qui finissaient par se mettre en orbite.  »

En utilisant le flux de travail optimisé avec HACC et CosmoTools, l’équipe a exécuté la simulation en deux fois moins longtemps.

Contribution communautaire

La simulation du dernier voyage fournira les données nécessaires pour d’autres expériences cosmologiques majeures à utiliser pour comparer des observations ou tirer des conclusions sur une foule de sujets. Ces informations pourraient éclairer des sujets allant des mystères cosmologiques, tels que le rôle de la matière noire et de l’énergie noire dans l’évolution de l’univers, à l’astrophysique de la formation des galaxies à travers l’univers.

« Cet énorme ensemble de données qu’ils construisent alimentera de nombreux efforts différents », a déclaré Katherine Riley, directrice scientifique de l’ALCF. « En fin de compte, c’est notre mission principale: aider à faire de la science à fort impact. Lorsque vous êtes capable non seulement de faire quelque chose de awesome, mais aussi de nourrir une communauté entière, c’est une énorme contribution qui aura un effect pour beaucoup ans. »

La simulation de l’équipe abordera de nombreuses thoughts fondamentales en cosmologie et est essentielle pour permettre le raffinement des modèles existants et le développement de nouveaux, ayant un impression à la fois sur les enquêtes cosmologiques en cours et à venir.

« Nous n’essayons pas de faire correspondre des buildings spécifiques dans l’univers réel », a déclaré Pope. « Au contraire, nous créons des buildings statistiquement équivalentes, ce qui signifie que si nous examinions nos données, nous pourrions trouver des endroits où vivraient des galaxies de la taille de la Voie lactée. Mais nous pouvons également utiliser un univers simulé comme outil de comparaison pour trouver des tensions entre notre compréhension théorique actuelle de la cosmologie et ce que nous avons observé.  »

Vous cherchez à exascale

« En repensant à l’époque où nous avons exécuté la simulation Outer Rim, vous pouvez vraiment voir jusqu’où ces apps scientifiques ont évolué », a déclaré Heitmann, qui a joué Outer Rim en 2013 avec l’équipe HACC et Salman Habib, directeur de la division CPS et Argonne Distinguished Fellow. « C’était génial de gérer quelque chose de beaucoup additionally grand et in addition complexe qui apportera tant à la communauté. »

Alors qu’Argonne travaille à l’arrivée d’Aurora, le prochain supercalculateur exascale de l’ALCF, les scientifiques se préparent à des simulations cosmologiques encore additionally poussées. Les systèmes informatiques Exascale seront capables d’effectuer un milliard de milliards de calculs par seconde – 50 fois plus vite que la plupart des supercalculateurs les moreover puissants actuellement en assistance.

« Nous avons beaucoup appris et adapté au cours de la vie de Mira, et c’est une opportunité intéressante de regarder en arrière et de regarder en avant en même temps », a déclaré Pope. « Lorsque nous nous préparons à des simulations sur des devices exascales et à une nouvelle décennie de progrès, nous peaufinons notre code et nos outils d’analyse, et nous nous demandons ce que nous ne faisions pas en raison des limitations que nous avions jusqu’à présent.

Le dernier voyage était une simulation gravitationnelle, ce qui signifie qu’il ne prenait pas en compte les interactions telles que la dynamique des gaz et la physique de la formation des étoiles. La gravité est le principal acteur de la cosmologie à grande échelle, mais les scientifiques espèrent intégrer d’autres physiques dans les simulations futures pour observer les différences qu’elles font dans la façon dont la matière se déplace et se distribue à travers l’univers au fil du temps.

« De moreover en as well as, nous trouvons des relations étroitement couplées dans le monde physique, et pour simuler ces interactions, les scientifiques doivent développer des flux de travail créatifs pour le traitement et l’analyse », a déclaré Riley. « Avec ces itérations, vous êtes en mesure d’arriver à vos réponses – et vos percées – encore moreover rapidement. »