Lorsque les ondes gravitationnelles ont été détectées pour la première fois en 2015 par le Laser Interferometer Gravitational-Wave Observatory (LIGO), elles ont fait feeling dans la communauté scientifique, car or truck elles ont confirmé une autre théorie d’Einstein et marqué la naissance de l’astronomie des ondes gravitationnelles. Cinq ans moreover tard, de nombreuses resources d’ondes gravitationnelles ont été détectées, dont la première observation de deux étoiles à neutrons en collision dans des ondes gravitationnelles et électromagnétiques.



Alors que LIGO et ses partenaires internationaux continuent d’améliorer la sensibilité de leurs détecteurs aux ondes gravitationnelles, ils seront en mesure de sonder un plus grand volume de l’univers, faisant ainsi de la détection des sources d’ondes gravitationnelles un événement quotidien. Ce déluge de découvertes lancera l’ère de l’astronomie de précision qui prend en considération les phénomènes de messagers extrasolaires, notamment le rayonnement électromagnétique, les ondes gravitationnelles, les neutrinos et les rayons cosmiques. La réalisation de cet objectif, cependant, nécessitera une refonte radicale des méthodes existantes utilisées pour rechercher et trouver des ondes gravitationnelles.

Récemment, informaticien et responsable de l’intelligence artificielle translationnelle (IA), Eliu Huerta du Laboratoire nationwide d’Argonne du Département américain de l’énergie (DOE), en collaboration avec des collaborateurs d’Argonne, de l’Université de Chicago, de l’Université de l’Illinois à Urbana-Champaign, NVIDIA et IBM ont développé un nouveau cadre d’IA à l’échelle de la output qui permet une détection accélérée, évolutive et reproductible des ondes gravitationnelles.



Ce nouveau cadre indique que les modèles d’IA pourraient être aussi sensibles que les algorithmes de correspondance de modèles traditionnels, mais des ordres de grandeur moreover rapides. De in addition, ces algorithmes d’IA ne nécessiteraient qu’une unité de traitement graphique (GPU) peu coûteuse, comme celles que l’on trouve dans les systèmes de jeux vidéo, pour traiter les données LIGO avancées additionally rapidement qu’en temps réel.

L’ensemble d’IA utilisé pour cette étude a traité un mois entier – août 2017 – de données LIGO avancées en moins de sept minutes, distribuant l’ensemble de données sur 64 GPU NVIDIA V100. L’ensemble d’IA utilisé par l’équipe pour cette analyse a identifié les quatre fusions de trous noirs binaires précédemment identifiées dans cet ensemble de données et n’a signalé aucune erreur de classification.

« En tant qu’informaticien, ce qui m’enthousiasme dans ce projet », a déclaré Ian Foster, directeur de la division Knowledge Science and Understanding (DSL) d’Argonne, « c’est qu’il montre remark, avec les bons outils, les méthodes d’IA peuvent être intégrées naturellement dans les flux de travail des scientifiques – leur permettant de faire leur travail as well as rapidement et mieux – en augmentant, et non en remplaçant, l’intelligence humaine. »

Mettant à contribution des ressources disparates, cette équipe interdisciplinaire et multi-institutionnelle de collaborateurs a publié un posting dans Character Astronomy présentant une approche basée sur les données qui merge les ressources de supercalcul collectives de l’équipe pour permettre une détection des ondes gravitationnelles reproductible, accélérée et pilotée par l’IA.

« Dans cette étude, nous avons utilisé la puissance combinée de l’IA et de la superinformatique pour aider à résoudre des expériences de mégadonnées opportunes et pertinentes. Nous rendons maintenant les études d’IA entièrement reproductibles, pas seulement en vérifiant si l’IA peut fournir une nouvelle option aux grands défis,  » a déclaré Huerta.

S’appuyant sur la mother nature interdisciplinaire de ce projet, l’équipe show up at avec impatience de nouvelles programs de ce cadre axé sur les données au-delà des défis liés aux mégadonnées en physique.

« Ce travail fulfilled en évidence la valeur significative de l’infrastructure de données pour la communauté scientifique », a déclaré Ben Blaiszik, chercheur à Argonne et à l’Université de Chicago. « Les investissements à prolonged terme qui ont été faits par le DOE, la Countrywide Science Basis (NSF), les National Institutes of Requirements and Technological innovation et d’autres ont créé un ensemble de blocs de building. Il nous est attainable de rassembler ces blocs de design dans des moyens nouveaux et passionnants de faire évoluer cette analyse et d’aider à fournir ces capacités à d’autres à l’avenir.  »

Huerta et son équipe de recherche ont développé leur nouveau cadre grâce au soutien de la NSF, du programme de recherche et développement dirigé en laboratoire (LDRD) d’Argonne et du programme INCITE (Progressive and Novel Computational Affect on Idea and Experiment) du DOE.

 » Ces investissements de la NSF contiennent des idées originales et innovantes qui promettent de transformer la façon dont les données scientifiques arrivant en flux rapides sont traitées. Les activités prévues apportent une technologie informatique accélérée et hétérogène à de nombreuses communautés scientifiques de pratique « , a déclaré Manish Parashar, directeur de le Bureau de la cyberinfrastructure avancée de la NSF.