Bayesian deep learning for weak lensing analyses : overlapping galaxies separation and galaxy parameters estimation from blended scenes - Archive ouverte HAL Access content directly
Theses Year : 2021

Bayesian deep learning for weak lensing analyses : overlapping galaxies separation and galaxy parameters estimation from blended scenes

Apprentissage profond bayésien pour les analyses de lentillage faible : séparation de galaxies se recouvrant et estimation de paramètres des galaxies à partir de sources superposées

(1)
1

Abstract

Weak gravitational lensing is one of the most promising probes to constrain dark energy parameters. It corresponds to the distortion of a source image, induced by the bending of space-time, thus of the light path, generated by the presence of mass along the line of sight. This effect is small and can only be detected measuring the correlation of the shapes of a group of background galaxies. The value of this correlation yields the value of the cosmic shear. Several surveys dedicated to its study are going to start soon, such as the Vera Rubin Legacy Surveys of Space and Time (LSST), and Euclid. These surveys have been built with particular requirements, especially about the treatment of systematic errors, in order to reach an extreme precision on the dark energy equation of state parameters. This thesis happened in the context of the Dark Energy Science Collaboration (DESC), inside the LSST experiment. It focuses on the issue of blending, the overlap of astronomical sources. The blending of galaxies introduces a dominant systematic uncertainty on the cosmic shear measurement. This systematic effect impacts the shape and the redshift measurements, both necessary for weak gravitational lensing analysis. We propose two avenues based on Bayesian deep learning methods. The first one is a deblending algorithm which uses a deep generative network called variational autoencoder. This neural network allows to learn a prior for the generation of isolated galaxy images. The latter is used in a second network to perform the deblending of the centred galaxy on images of simulated galaxies. We show that the pixel joint analysis of LSST and Euclid data decreases the median error on galaxy shape reconstruction from 8 to 47%. Blending of sources being closely linked to detection, we demonstrate that our method is robust to small decentring. Also we test our method on images of real galaxies artificially blended showing the interest of transfer learning from a neural network trained on simulated galaxy images. An iterative process is then designed in order to separate all the galaxies in an image going through detection, classification and deblending of sources. Finally this deblending algorithm is tested on images extracted from the DC2 simulation, generated within the DESC to prepare for the analysis of futures images taken by LSST. Our results show an improvement of 70 to 120% on the median error on galaxy shape reconstruction compared to the generic method used in the current LSST pipeline. Then, inspired by this first method, we propose a neural network allowing for the direct estimation of galaxy shape and redshift parameters from DC2 images, without going through the deblending. We show that this neural network allows for a precise measurement of these parameters, even when sources are blended, and we compare these results to the ones obtained with deblending. Then we present the first application of a Bayesian neural network to galaxy shapes estimation. This kind of network provides the estimation of the epistemic uncertainty which characterizes the uncertainty coming from the training sample. It can be viewed as a confidence level in the measurement performed by the network, a primordial information for the application of neural networks in science and in cosmology. It can be used to decrease the importance (or reject) of an incorrect measurement in the analysis.
Le lentillage gravitationnel faible est l'une des sondes cosmologiques les plus prometteuses pour contraindre les paramètres de l'énergie noire. Il correspond à la modification de l'image d'une source, induite par la courbure de l'espace-temps, et donc du passage des rayons lumineux, générée par la présence de masse le long de la ligne de visée. Cet effet est très faible et ne peut être détecté qu'en mesurant la corrélation des formes d'un ensemble de sources en arrière-plan. La valeur de cette corrélation donne la mesure du cisaillement gravitationnel. Plusieurs relevés dédiés à son étude vont bientôt démarrer, tels que le Vera Rubin Legacy Survey of Space and Time (LSST), et Euclid. Ces relevés ont été construits avec des exigences particulières, notamment sur le traitement des erreurs systématiques, afin d'atteindre une précision extrême sur les paramètres de l'équation d'état de l'énergie noire. Cette thèse s'est déroulée dans le contexte de la Dark Energy Science Collaboration (DESC), au sein de l'expérience LSST. Elle se focalise sur la problématique de la superposition de sources. Cet effet génère une incertitude systématique dominante dans la mesure du cisaillement gravitationnel. Cette systématique impacte à la fois les mesures de forme et celles du décalage vers le rouge des galaxies, deux mesures nécessaires à l'étude du lentillage gravitationnel faible. Nous proposons deux solutions basées sur les méthodes bayésiennes d'apprentissage profond. La première est un algorithme de séparation de galaxies qui utilise un réseau de neurones génératif appelé autoencodeur variationnel. Ce réseau de neurones permet l'apprentissage d'un prior pour la génération d'images de galaxie isolée. Celui-ci est utilisé dans un second réseau qui fait la séparation de la galaxie centrale sur des images de galaxies simulées. Nous montrons que l'analyse jointe des pixels des données LSST et Euclid permet une diminution de l'erreur médiane de reconstruction des formes des galaxies de 8 à 47%. La superposition de sources étant étroitement liée à l'étape de détection, nous démontrons la robustesse de notre méthode à de petits décentrages. Nous avons aussi testé notre méthode sur des images de vraies galaxies artificiellement superposées, montrant l'intérêt du transfert d'apprentissage à partir d'un réseau de neurones entraîné sur des images de galaxies simulées. Une processus itératif est ensuite mis en place afin de pouvoir séparer toutes les galaxies d'une image en passant par des étapes de détection, classification, et séparation des sources. Enfin, cet algorithme de séparation de galaxies est testé sur des images extraites de la simulation DC2, générée au sein de DESC dans le but de préparer à l'analyse des futures images prises par LSST. Nos résultats montrent une amélioration de 70 à 120% sur l'erreur médiane de reconstruction des formes comparée à la méthode générique utilisée dans la pipeline LSST actuellement. Ensuite, inspirés de cette première méthode, nous proposons un réseau de neurones permettant de faire directement l'estimation des paramètres de forme et de décalage vers le rouge d'une galaxie à partir des images DC2, sans appliquer de méthode de séparation de sources. Nous montrons que ce réseau permet des mesures précises de ces paramètres, même lorsque les sources sont superposées, et comparons ces résultats à ceux obtenus avec séparation de source. Par la suite, nous présentons une première application d'un réseau de neurones bayésien à l'estimation des formes des galaxies. Ce type de réseau permet l'estimation de l'incertitude épistémique qui représente l'incertitude liée à l'échantillon d'entraînement. Celle-ci peut être vue comme un niveau de confiance dans la mesure réalisée par le réseau, une information cruciale à l'utilisation des réseaux de neurones en science et en cosmologie. Elle permet de diminuer l'importance (voir de rejeter) d'une mesure qui a de fortes probabilités d'être erronée dans l'analyse.
Fichier principal
Vignette du fichier
va_Arcelin_Bastien.pdf (43.93 Mo) Télécharger le fichier
Origin : Version validated by the jury (STAR)

Dates and versions

tel-03553937 , version 1 (03-02-2022)

Identifiers

  • HAL Id : tel-03553937 , version 1

Cite

Bastien Arcelin. Bayesian deep learning for weak lensing analyses : overlapping galaxies separation and galaxy parameters estimation from blended scenes. Cosmology and Extra-Galactic Astrophysics [astro-ph.CO]. Université Paris Cité, 2021. English. ⟨NNT : 2021UNIP7033⟩. ⟨tel-03553937⟩
46 View
3 Download

Share

Gmail Facebook Twitter LinkedIn More