Informations générales
Événement : 90e Congrès de l'Acfas
Type : Colloque
Section : Section 200 - Sciences naturelles, mathématiques et génie
Description :Au cours des dernières décennies, l’astrophysique a révolutionné notre compréhension de l’Univers. Nous savons maintenant que notre Univers est principalement constitué de matière noire et d’énergie noire, responsables respectivement de la formation des galaxies et de l’expansion accélérée de l’Univers. Pour la première fois, des ondes gravitationnelles provenant de la fusion de trous noirs binaires ont été détectées, et les régions les plus internes des trous noirs à proximité ont été imagées. Nous avons cartographié le fond diffus cosmologique, une image de l’Univers datant d’il y a 13,6 milliards d’années, révélant la structure de l’Univers avant la naissance des étoiles et des galaxies. Des milliers de planètes en orbite autour d’étoiles lointaines ont été détectées et, dans certains cas, leurs atmosphères ont été analysées.
Malgré ces percées, de nombreuses questions fondamentales sur l’Univers restent sans réponse. Près d’un siècle après sa découverte, la nature de la matière noire nous reste totalement inconnue. Ainsi, mesurer les propriétés de ces particules mystérieuses est l’une des principales priorités de la cosmologie moderne, car cela pourrait nous en apprendre plus sur la physique fondamentale. L’existence de la matière noire, quant à elle, expose l’incomplétude du modèle standard de la physique des particules. Dans l’Univers plus proche, la réponse à l’une des questions les plus anciennes façonne le domaine : y a-t-il de la vie au-delà de la Terre? La détection de milliers d’exoplanètes a rendu plus que jamais palpable la possibilité d’une réponse à cette question. Ces questions fondamentales, qui visent à éclairer notre compréhension de la physique fondamentale et peut-être de la vie, et les façons tangibles d’y répondre, seront au cœur de la prochaine décennie en astrophysique. Ce colloque constitue un lieu de rencontre pour discuter des problèmes et des méthodologies auxquels les astrophysiciens font face dans leurs domaines respectifs.
Étant une science ancrée dans les données, l’astrophysique et la cosmologie modernes cherchent à collecter et à analyser plus de données que jamais auparavant pour répondre à ces questions clés. Une nouvelle génération de télescopes, d’observatoires et de relevés du ciel est à la veille de transfigurer ce domaine en produisant des volumes colossaux de données d’une qualité sans précédent et inestimable. Malgré les promesses de découvertes, l’analyse de ces données pour y arriver présentera un défi de taille. La précision des analyses est un autre obstacle majeur à l’aube de cette nouvelle ère des grandes données en astrophysique. Ces défis sous-tendent le besoin crucial de développer de nouvelles méthodes de calcul et d’analyse de données en astrophysique et en cosmologie, particulièrement des méthodes basées sur l’apprentissage automatique et l’intelligence artificielle.
Date :Format : Sur place et en ligne
Responsables :- Laurence Perreault Levasseur (UdeM - Université de Montréal)
- Stéphanie Luna (UdeM - Université de Montréal)
- Yashar Hezaveh (UdeM - Université de Montréal)
Programme
Bloc 1
-
Communication orale
Mot de bienvenue et l'astrophysique à l'aube d'une nouvelle ère des mégadonnéesLaurence Perreault Levasseur (UdeM - Université de Montréal)
-
Communication orale
Apprentissage automatique et lentilles gravitationnelles fortesYashar Hezaveh (UdeM - Université de Montréal)
Ces dernières années, l'apprentissage automatique a progressé à un rythme époustouflant, et il a été démontré qu'il est un outil critique pour l'analyse de grands ensembles de données astrophysiques. Dans cette présentation, je vais discuter du travail que notre groupe mène pour développer des méthodes d'apprentissage automatique pour l'analyse des données de lentilles gravitationnelles fortes, un outil qui sera critique dans la prochaine décennie pour lever le voile sur les mystères de la matière noire.
Bloc 2
-
Communication orale
Relier la théorie aux observations dans la cosmologie 21cm : développement d'outils théoriques et atténuation de la systématiqueMichael Pagano (Université McGill)
L'Epoque de Réionisation (EoR) est la période de l'histoire de notre Univers où l'hydrogène neutre dans le Milieu Inter Galactique (IGM) est ionisé. Malgré son importance pour notre compréhension de l'Univers, il reste sans contrainte d'observation et mal compris. Une méthode pour observer directement l'EoR consiste à mesurer les photons de 21 cm émis par la transition hyperfine de l'hydrogène neutre lorsque l'électron inverse son spin par rapport au noyau atomique. La cartographie de la ligne de 21 cm dans l'IGM en fonction du décalage vers le rouge peut sonder directement l'EoR. Dans cette thèse, nous considérons deux méthodes pour mesurer la ligne de 21 cm. Une méthode consiste à mesurer les fluctuations spatiales de la luminosité de 21 cm dans l'IGM à l'aide d'instruments interférométriques, tandis qu'une autre méthode consiste à faire une moyenne spatiale sur les fluctuations de 21 cm à l'aide d'une expérience de signal global. Ces deux méthodes sont entravées par des systématiques telles que les "foregrounds" d'émission synchrotron galactique.
-
Communication orale
Vers une science des données sûre et optimisée: Le Deep Learning et l'évolution de galaxies à l’aube des grands relevés.Hubert Bretonniere (University of California Santa Cruz (UCSC))
Le Machine Learning a déjà prouvé son utilité en astrophysique par le passé, notamment pour la classification morphologique des galaxies ou leur détection. Il est maintenant largement utilisé dans un nombre croissant de champs de l’astrophysique (galaxy fitting, séparation de sources, réduction de dimensionnalité, échantillonnage de distributions, prédiction de redshifts photométriques…). Avec l'arrivée de la prochaine génération de télescopes, comme Euclid, Rubin, ou JWST, on entre dans une ère de science orientée vers les données. Les années à venir vont être déterminantes pour l’évolution de notre utilisation de ces techniques. En tant que chercheurs universitaires, nous devons réfléchir à quand et comment utiliser le machine learning pour une utilisation sûre et optimisée. Durant cette présentation, je proposerai quelques réponses possibles au travers de trois projets.D'abord, je montrerai que le deep learning peut être un compromis entre complexité et rapidité, notamment pour affronter la préparation de missions astrophysiques et cosmologiques à l'ère du Big Data. Ensuite, je montrerai comment le deep learning peut réaliser des tâches de réduction de données pour lesquelles le résultat final importe davantage que la méthode employée. Finalement, je montrerai une manière sûre et excitante d'utiliser le Deep Learning : chercher l'inconnu inconnu illustré par la détection d'anomalies morphologiques dans les images JWST.
Bloc 3
-
Communication orale
Défis et opportunités pour les prochaines générations d’instruments astronomiquesAnne-Sophie Poulin-Girard (ABB)
Les découvertes en astronomie et en astrophysique sont rendues possibles en partie grâce à des instruments toujours plus puissants et sophistiqués. La prochaine génération de très grands télescopes (ELT, TMT et GMT) apporte déjà son lot de défis pour les ingénieur×e×s et scientifiques qui conçoivent et réaliseront ces instruments qui permettront aux astronomes de repousser les limites de la connaissance. Des technologies émergentes et des domaines en pleine croissance représentent des avenues intéressantes pour voir toujours plus loin. Cette présentation abordera les défis et opportunités que présentent des domaines comme l’intelligence artificielle et les nouveaux matériaux pour construire les instruments astronomiques de demain.
-
Communication orale
Les premiers résultats du télescope spatial James WebbRene Doyon (UdeM - Université de Montréal)
Après plus de deux décennies de développement, le télescope spatial James Webb fut finalement lancé le jour de Noël 2021 dans une trajectoire presque parfaite vers sa destination finale au deuxième point de Lagrange, 1.5 million de km de la Terre. Son déploiement complexe fut sans faille de même que la période de six mois de mise en service qui a suivi pour caractériser les performances du télescope et de ses quatre instruments dont l’un de fabrication canadienne. Webb fonctionne tel qu’attendu voire même mieux. Ses premières images et données spectroscopiques de démonstration sont spectaculaires et ont fait le tour de planète l’été dernier. Je ferai un bref survol de la mission Webb en présentant quelques résultats sur les galaxies lointaines et la caractérisation atmosphérique d’exoplanètes.
-
Communication orale
Les secrets des trous noirs révélés par l'apprentissage automatiqueJulie Hlavacek-Larrondo (UdeM - Université de Montréal)
Ne laissez pas le nom vous tromper : les trous noirs ne sont pas que de l’espace vide. Ce sont les objets les plus étranges et les plus fascinants de l’Univers, si étranges qu’Einstein lui-même ne crut pas en leur existence. Pourtant, il est maintenant établi, hors de tout doute, que les trous noirs existent et qu’ils jouent un rôle fondamental dans l’Univers. Remplis d’une quantité d’énergie exceptionnelle, ils peuvent facilement et rapidement détruire des galaxies entières. Cette conférence se concentrera sur les trous noirs les plus massifs de l’Univers, les titans parmi les géants, et présentera les découvertes les plus récentes sur ces objets. Elle montrera le rôle révolutionnaire que l’apprentissage automatique est en train de jouer en astrophysique des trous noirs, contribuant ainsi irrévocablement à l’expansion de l’univers du possible.
Bloc 4
-
Communication orale
Apprentissage automatique informé par la physique : l’importance de la préservation des symmetriesTara Akhound-Sadegh (Université McGill)
Les réseaux neuronaux se sont avérés très efficaces dans diverses applications, telles que la reconnaissance d'images et la traduction. Cependant, ils ont encore du mal à modéliser des systèmes physiques complexes. Les développements récents de l'apprentissage automatique, et plus particulièrement de l'apprentissage profond, se sont inspirés de concepts de la physique pour améliorer les performances des modèles. Par exemple, certains de ces modèles se sont inspirés des lois de conservation de la physique en construisant des modèles équivariants par rapport à des transformations de symétrie spécifiques. Dans cet exposé, je discuterai de la manière dont les symétries peuvent être utilisées comme biais inductif dans l'apprentissage profond. Plus précisément, je parlerai des symétries des équations différentielles et de la façon dont elles peuvent être exploitées dans les solveurs neuronaux d' équations différentielles partielles.
-
Communication orale
Interprétabilité des modèles d'apprentissage automatique en astrophysique : modélisation dynamique des étoiles variables et des amas stellairesMario Pasquato (UdeM - Université de Montréal)
Cette présentation aborde deux aspects de l'interpretabilité en apprentissage automatique (ML) appliquée à l'astronomie. Le premier concerne la modélisation automatique de courbes de lumière stellaires variables (en particulier les RR Lyrae) en termes d'équations différentielles et de méthodes connexes (par exemple, la théorie de Koopman et la décomposition en modes dynamiques - DMD). Cette approche produit des descriptions interprétables de la dynamique stellaire dans un langage bien connu des astronomes, leur permettant de poursuivre des études plus avancées (par exemple, en utilisant des méthodes de systèmes complexes pour étudier les oscillateurs non linéaires ou en utilisant l'analyse topologique des attracteurs). Le deuxième aspect concerne la détection des trous noirs intermédiaires (IMBH) à partir des propriétés des amas stellaires. Nous utilisons des arbres de décision optimaux et interprétables - construits à l'aide de l'algorithme CORELS - pour comprendre pourquoi un classificateur affirme qu'il y a un IMBH dans un amas donné. En outre, le deuxième aspect illustre une difficulté courante en astronomie : la généralisation à des données réelles à partir d'un ensemble de données simulées, qui peut entraîner des problèmes de distribution.