En utilisant un peu de magie d’apprentissage automatique, les astrophysiciens peuvent désormais simuler des univers vastes et complexes en un millième du temps nécessaire avec les méthodes conventionnelles. La nouvelle approche aidera à inaugurer une nouvelle ère dans les simulations cosmologiques à haute résolution, rapportent ses créateurs dans une étude publiée en ligne le 4 mai dans Proceedings of the National Academy of Sciences.



« Pour le second, les contraintes sur le temps de calcul signifient généralement que nous ne pouvons pas simuler l’univers à la fois à haute résolution et à grand volume », explique l’auteur principal de l’étude Yin Li, astrophysicien au Flatiron Institute de New York. « Avec notre nouvelle procedure, il est probable d’avoir les deux efficacement. À l’avenir, ces méthodes basées sur l’IA deviendront la norme pour certaines programs. »

La nouvelle méthode développée par Li et ses collègues alimente un algorithme d’apprentissage automatique avec des modèles d’une petite région de l’espace à basse et haute résolution. L’algorithme apprend à mettre à l’échelle les modèles basse résolution pour qu’ils correspondent aux détails trouvés dans les versions haute résolution. Une fois entraîné, le code peut prendre des modèles basse résolution à grande échelle et générer des simulations de « super-résolution » contenant jusqu’à 512 fois additionally de particules. Pour une région de l’univers d’environ 500 millions d’années-lumière contenant 134 thousands and thousands de particules, les méthodes existantes nécessiteraient 560 heures pour produire une simulation haute résolution à l’aide d’un seul cœur de traitement. Avec la nouvelle approche, les chercheurs n’ont besoin que de 36 minutes.



Les résultats étaient encore moreover spectaculaires lorsque davantage de particules étaient ajoutées à la simulation. Pour un univers 1 000 fois moreover grand avec 134 milliards de particules, la nouvelle méthode des chercheurs a nécessité 16 heures sur une seule unité de traitement graphique. Les méthodes existantes prendraient tellement de temps qu’elles ne valent même pas la peine d’être exécutées sans ressources de calcul intensif dédiées, dit Li.

Une nouvelle software de l'IA vient de supprimer l'un des moreover grands road blocks en astrophysique

Li est chercheur conjoint au Heart for Computational Astrophysics du Flatiron Institute et au Center for Computational Mathematics. Il a co-écrit l’étude avec Yueying Ni, Rupert Croft et Tiziana Di Matteo de l’Université Carnegie Mellon Simeon Chicken de l’Université de Californie, Riverside et Yu Feng de l’Université de Californie, Berkeley.

Les scientifiques utilisent les simulations pour prédire à quoi ressemblerait l’univers dans divers scénarios, par exemple si l’énergie sombre séparant l’univers variait au fil du temps. Les observations au télescope peuvent alors confirmer si les prévisions des simulations correspondent à la réalité. La création de prédictions testables nécessite d’exécuter des simulations des milliers de fois, une modélisation plus rapide serait donc une grande aubaine pour le terrain.

Réduire le temps nécessaire pour exécuter des simulations cosmologiques « a le potentiel de fournir des avancées majeures en cosmologie numérique et en astrophysique », déclare Di Matteo. « Les simulations cosmologiques suivent l’histoire et le destin de l’univers, jusqu’à la development de toutes les galaxies et de leurs trous noirs. »

Jusqu’à présent, les nouvelles simulations ne prennent en compte que la matière noire et la pressure de gravité. Bien que cela puisse sembler une simplification extreme, la gravité est de loin la drive dominante de l’univers à grande échelle, et la matière noire représente 85% de toutes les « choses » du cosmos. Les particules de la simulation ne sont pas des particules de matière noire littérales, mais sont plutôt utilisées comme des trackers pour montrer comment des morceaux de matière noire se déplacent dans l’univers.

Le code de l’équipe a utilisé des réseaux de neurones pour prédire remark la gravité déplacerait la matière noire au fil du temps. Ces réseaux ingèrent des données d’entraînement et exécutent des calculs à l’aide des informations. Les résultats sont ensuite comparés au résultat attendu. Avec la development carry on, les réseaux s’adaptent et deviennent in addition précis.

L’approche spécifique utilisée par les chercheurs, appelée réseau antagoniste génératif, oppose deux réseaux de neurones l’un à l’autre. Un réseau prend des simulations à basse résolution de l’univers et les utilise pour générer des modèles à haute résolution. L’autre réseau essaie de distinguer ces simulations de celles faites par des méthodes conventionnelles. Au fil du temps, les deux réseaux de neurones s’améliorent de in addition en additionally jusqu’à ce que, finalement, le générateur de simulation l’emporte et crée des simulations rapides qui ressemblent aux lentes conventionnelles.

« Nous n’avons pas pu le faire fonctionner pendant deux ans », dit Li, « et tout à coup, cela a commencé à fonctionner. Nous avons obtenu de beaux résultats qui correspondaient à ce que nous attendions. Nous avons même fait des exams à l’aveugle nous-mêmes, et la plupart d’entre nous ne pouvaient pas le dire. lequel était ‘réel’ et lequel était ‘faux’.  »

Bien qu’ils n’aient été entraînés qu’en utilisant de petites zones de l’espace, les réseaux de neurones ont reproduit avec précision les constructions à grande échelle qui n’apparaissent que dans d’énormes simulations. Parce qu’ils se concentrent uniquement sur la matière noire et la gravité, les phénomènes à furthermore petite échelle – tels que la development d’étoiles, les supernovae et les effets des trous noirs – sont laissés de côté. Les chercheurs prévoient d’étendre leurs méthodes pour inclure les forces responsables de tels phénomènes et de faire fonctionner leurs réseaux de neurones « à la volée » parallèlement aux simulations conventionnelles pour améliorer la précision. « Nous ne savons pas encore exactement remark faire cela, mais nous faisons des progrès », dit Li.