Détail de l'éditeur
Institut Polytechnique de Paris
localisé à :
Paris
|
Documents disponibles chez cet éditeur (6)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Apprentissage profond pour l'imagerie SAR : du débruitage à l'interprétation de scène / Emanuele Dalsasso (2022)
Titre : Apprentissage profond pour l'imagerie SAR : du débruitage à l'interprétation de scène Titre original : Deep Learning for SAR Imagery: from denoising to scene understanding Type de document : Thèse/HDR Auteurs : Emanuele Dalsasso, Auteur ; Florence Tupin, Directeur de thèse ; Loïc Denis, Directeur de thèse Editeur : Paris [France] : Télécom ParisTech Année de publication : 2022 Autre Editeur : Paris : Institut Polytechnique de Paris Importance : 165 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] apprentissage profond
[Termes IGN] chatoiement
[Termes IGN] image radar moiréeIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Le Radar à Synthèse d’Ouverture (RSO, aussi appelé SAR en anglais) permet d’acquérir des données pour l’observation de la Terre de jour comme de nuit, quelles que soient les conditions météorologiques. Grâce notamment au programme Copernicus de l’Agence Spatiale Européenne, nous disposons aujourd’hui d’un grand nombre de données distribuées librement. Cependant, l’exploitation de données satellitaires radar est limitée par la présence de très fortes fluctuations du signal rétrodiffusé par la scène imagée. En effet, les images SAR sont entachées par un phénomène intrinsèque aux systèmes d’imagerie cohérente : le chatoiement, communément appelé speckle. Dans cette thèse, nous visons à faciliter l’interprétation des images SAR grâce au développement de techniques de réduction de speckle. Les approches existantes reposent sur le modèle de Goodman, décrivant le speckle comme un bruit multiplicatif et spatialement non corrélé. Dans le domaine de la vision par ordinateur, les méthodes de débruitage s’appuyant sur un réseau neuronal convolutif (approches d’apprentissage profond) ont permis des grandes avancées et représentent aujourd’hui l’état de l’art. Nous proposons donc d’utiliser les techniques de débruitage basées sur les algorithmes d’apprentissage profond pour la réduction de speckle dans les images SAR (méthodes de despeckling). Premièrement, nous étudions l’adaptation des techniques dites supervisées, c.à.d. visant à minimiser l’écart, selon un certain critère, entre l’estimation fournie par le réseau et une image de référence, dite vérité terrain. Nous proposons la création d’une base de données d’images de référence en moyennant des piles d’images multi-temporelles acquises sur la même zone. Des paires d’images pour entraîner un réseau peuvent être générées en synthétisant du speckle selon le modèle de Goodman. Cependant, dans les images réelles le speckle est spatialement corrélé. La corrélation peut être typiquement réduite par un sous-échantillonnage d’un facteur 2, mais cela engendre une perte de résolution. Au vu des limites des approches supervisées, inspirés par la méthode auto-supervisée noise2noise, nous proposons d’apprendre un réseau directement sur des données réelles. Le principe des méthodes de débruitage auto-supervisées est le suivant : si un signal contient une composante déterministe et une composante aléatoire, un réseau entraîné à prédire une nouvelle réalisation de ce signal à partir d’une première réalisation indépendante ne pourra prédire que la composante déterministe, c.à.d. la scène sous-jacente, supprimant ainsi le speckle. Dans la méthode que nous développons, SAR2SAR, nous utilisons des séries multi-temporelles sous hypothèse de speckle temporellement décorrélé pour obtenir des réalisations indépendantes. Les changements sont compensés en recourant à une stratégie d’entraînement itérative. Le réseau SAR2SAR est donc entraîné sur des images dont le speckle est corrélé spatialement et peut être par conséquent appliqué directement sur les images radar, donnant des performances de très bonne qualité en termes de préservation de la résolution spatiale. L’apprentissage de SAR2SAR reste cependant lourd : la stratégie se déroule en plusieurs étapes pour compenser les changements et un jeu de données contenant des piles d’images doit être constitué. Avec l’approche MERLIN, nous relâchons ces contraintes en proposant une méthode d’apprentissage auto-supervisée mono-image. En effet dans les images SAR complexes, les partie réelles et imaginaires sont mutuellement indépendantes et elles peuvent être naturellement utilisées pour apprendre un réseau de manière auto-supervisée. Nous montrons la simplicité de mise en œuvre d’un tel cadre en entraînant un réseau pour trois modalités d’acquisitions, présentant des différences en termes de résolution spatiale, de textures et de corrélation spatiale du speckle. Numéro de notice : 17717 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse : Signal, Images, Automatique et robotique : Institut Polytechnique de Paris : 2022 Organisme de stage : Laboratoire Traitement et Communication de l'Information LTCI DOI : sans Date de publication en ligne : 12/05/2022 En ligne : https://theses.hal.science/tel-03666646 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100034
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Towards expressive graph neural networks : Theory, algorithms, and applications / Georgios Dasoulas (2022)
Titre : Towards expressive graph neural networks : Theory, algorithms, and applications Type de document : Thèse/HDR Auteurs : Georgios Dasoulas, Auteur ; Michalis Vazirgiannis, Directeur de thèse ; Aladin Virmaux, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Note générale : bibliographie
These de doctorat de l’Institut Polytechnique de Paris préparée à l’Ecole Polytechnique, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage automatique
[Termes IGN] attention (apprentissage automatique)
[Termes IGN] entropie
[Termes IGN] graphe
[Termes IGN] isomorphisme
[Termes IGN] noeud
[Termes IGN] réseau neuronal de graphes
[Termes IGN] théorie des graphesIndex. décimale : THESE Thèses et HDR Résumé : (auteur) As the technological evolution of machine learning is accelerating nowadays, data plays a vital role in building intelligent models, being able to simulate phenomena, predict values and make decisions. In an increasing number of applications, data take the form of networks. The inherent graph structure of network data motivated the evolution of the graph representation learning field. Its scope includes generating meaningful representations for graphs and their components, i.e., the nodes and the edges. The research on graph representation learning was accelerated with the success of message passing frameworks applied on graphs, namely the Graph Neural Networks. Learning informative and expressive representations on graphs plays a critical role in a wide range of real-world applications, from telecommunication and social networks, urban design, chemistry, and biology. In this thesis, we study various aspects from which Graph Neural Networks can be more expressive, and we propose novel approaches to improve their performance in standard graph learning tasks. The main branches of the present thesis include: the universality of graph representations, the increase of the receptive field of graph neural networks, the design of stable deeper graph learning models, and alternatives to the standard message-passing framework. Performing both theoretical and experimental studies, we show how the proposed approaches can become valuable and efficient tools for designing more powerful graph learning models.In the first part of the thesis, we study the quality of graph representations as a function of their discrimination power, i.e., how easily we can differentiate graphs that are not isomorphic. Firstly, we show that standard message-passing schemes are not universal due to the inability of simple aggregators to separate nodes with ambiguities (similar attribute vectors and neighborhood structures). Based on the found limitations, we propose a simple coloring scheme that can provide universal representations with theoretical guarantees and experimental validations of the performance superiority. Secondly, moving beyond the standard message-passing paradigm, we propose an approach for treating a corpus of graphs as a whole instead of examining graph pairs. To do so, we learn a soft permutation matrix for each graph, and we project all graphs in a common vector space, achieving a solid performance on graph classification tasks.In the second part of the thesis, our primary focus is concentrated around the receptive field of the graph neural networks, i.e., how much information a node has in order to update its representation. To begin with, we study the spectral properties of operators that encode adjacency information. We propose a novel parametric family of operators that can adapt throughout training and provide a flexible framework for data-dependent neighborhood representations. We show that the incorporation of this approach has a substantial impact on both node classification and graph classification tasks. Next, we study how considering the k-hop neighborhood information for a node representation can output more powerful graph neural network models. The resulted models are proven capable of identifying structural properties, such as connectivity and triangle-freeness.In the third part of the thesis, we address the problem of long-range interactions, where nodes that lie in distant parts of the graph can affect each other. In this problem, we either need the design of deeper models or the reformulation of how proximity is defined in the graph. Firstly, we study the design of deeper attention models, focusing on graph attention. We calibrate the gradient flow of the model by introducing a novel normalization that enforces Lipschitz continuity. Next, we propose a data augmentation method for enriching the node attributes with information that encloses structural information based on local entropy measures. Note de contenu : 1. Introduction
2. Preliminaries
I- Discrimination power
3. Universal approximation on graphs
4. Learning soft permutations for graph representations
II- Receptive field
5. Learning graph shift operators
6. Increasing the receptive field with multiple hops
III- Beyond local interactions
7. Lipschitz continuity of graph attention
8. Structural symmetries in graphs
9. Conclusions and outlookNuméro de notice : 24076 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE/MATHEMATIQUE Nature : Thèse française Note de thèse : Thèse de doctorat : Informatique : Palaiseau : 2022 DOI : sans En ligne : https://theses.hal.science/tel-03666690 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102200 Use of multi-temporal and multi-sensor data for continental water body extraction in the context of the SWOT mission / Nicolas Gasnier (2022)
Titre : Use of multi-temporal and multi-sensor data for continental water body extraction in the context of the SWOT mission Type de document : Thèse/HDR Auteurs : Nicolas Gasnier, Auteur ; Florence Tupin, Directeur de thèse ; Loïc Denis, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 213 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de doctorat présentée à l’Institut Polytechnique de Paris, spécialité ImagesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] base de données localisées
[Termes IGN] détection d'objet
[Termes IGN] détection de changement
[Termes IGN] données hydrographiques
[Termes IGN] hauteurs de mer
[Termes IGN] image multitemporelle
[Termes IGN] image radar moirée
[Termes IGN] image Sentinel-SAR
[Termes IGN] image SWOT
[Termes IGN] lac
[Termes IGN] rivière
[Termes IGN] série temporelle
[Termes IGN] télédétection en hyperfréquenceIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Spaceborne remote sensing provides hydrologists and decision-makers with data that are essential for understanding the water cycle and managing the associated resources and risks. The SWOT satellite, which is a collaboration between the French (CNES) and American (NASA, JPL) space agencies, is scheduled for launch in 2022 and will measure the height of lakes, rivers, and oceans with high spatial resolution. It will complement existing sensors, such as the SAR and optical constellations Sentinel-1 and 2, and in situ measurements. SWOT represents a technological breakthrough as it is the first satellite to carry a near-nadir swath altimeter. The estimation of water levels is done by interferometry on the SAR images acquired by SWOT. Detecting water in these images is therefore an essential step in processing SWOT data, but it can be very difficult, especially with low signal-to-noise ratios, or in the presence of unusual radiometries. In this thesis, we seek to develop new methods to make water detection more robust. To this end, we focus on the use of exogenous data to guide detection, the combination of multi-temporal and multi-sensor data and denoising approaches. The first proposed method exploits information from the river database used by SWOT (derived from GRWL) to detect narrow rivers in the image in a way that is robust to both noise in the image, potential errors in the database, and temporal changes. This method relies on a new linear structure detector, a least-cost path algorithm, and a new Conditional Random Field segmentation method that combines data attachment and regularization terms adapted to the problem. We also proposed a method derived from GrabCut that uses an a priori polygon containing a lake to detect it on a SAR image or a time series of SAR images. Within this framework, we also studied the use of a multi-temporal and multi-sensor combination between Sentinel-1 SAR and Sentinel-2 optical images. Finally, as part of a preliminary study on denoising methods applied to water detection, we studied the statistical properties of the geometric temporal mean and proposed an adaptation of the variational method MuLoG to denoise it. Note de contenu : 1. Introduction
1.1 Context
1.2 Contributions
1.3 Organization of the manuscript
I BACKGROUND ON SAR REMOTE SENSING AND WATER SURFACE MONITORING WITH SAR IMAGES
2. SAR images
2.1 Physics and statistics of SAR images
2.2 The SWOT mission
2.3 Sentinel-1
3. SAR water detection and hydrological prior
3.1 Water detection in SAR images
3.2 SWOT processing and products
3.3 Prior water masks and databases
4. Methodological background
4.1 Markov random fields
4.2 Variational methods for image denoising
PROPOSED APPROACHES
5. Guided extraction of narrow rivers on SAR images using an exogenous river database
5.1 Introduction
5.2 Proposed river segmentation pipeline
5.3 Experimental results
5.4 Conclusion
6. Adaptation of the GrabCut method to SAR images: lake detection from a priori polygon
6.1 Single-date GrabCut method for lake detection from a priori polygon
6.2 Multitemporal and multi-sensor adaptations of the method
6.3 2D+T GrabCut of SAR images with temporal regularization for lake detection within an a priori mask
6.4 Joint 2D+T segmentation of SAR and optical images
7. Denoising of the temporal geometric mean
7.1 Introduction
7.2 Statistics of the temporal geometric mean of SAR intensities
7.3 Denoising method
7.4 Experiments
7.5 Application to change detection
7.6 Application to ratio-based denoising of single SAR images within a time series
7.7 Conclusion
8 Conclusion and perspectivesNuméro de notice : 26762 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Images : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 17/02/2022 En ligne : https://tel.hal.science/tel-03578831/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99823
Titre : 3D point cloud compression Type de document : Thèse/HDR Auteurs : Chao Cao, Auteur ; Titus Zaharia, Directeur de thèse ; Marius Preda, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2021 Importance : 165 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de doctorat de l’Institut polytechnique de Paris, Spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] compression d'image
[Termes IGN] corrélation automatique de points homologues
[Termes IGN] couleur (variable spectrale)
[Termes IGN] état de l'art
[Termes IGN] objet 3D
[Termes IGN] précision géométrique (imagerie)
[Termes IGN] scène 3D
[Termes IGN] segmentation d'image
[Termes IGN] semis de points
[Termes IGN] structure-from-motionIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) With the rapid growth of multimedia content, 3D objects are becoming more and more popular. Most of the time, they are modeled as complex polygonal meshes or dense point clouds, providing immersive experiences in different industrial and consumer multimedia applications. The point cloud, which is easier to acquire than mesh and is widely applicable, has raised many interests in both the academic and commercial worlds.A point cloud is a set of points with different properties such as their geometrical locations and the associated attributes (e.g., color, material properties, etc.). The number of the points within a point cloud can range from a thousand, to constitute simple 3D objects, up to billions, to realistically represent complex 3D scenes. Such huge amounts of data bring great technological challenges in terms of transmission, processing, and storage of point clouds.In recent years, numerous research works focused their efforts on the compression of meshes, while less was addressed for point clouds. We have identified two main approaches in the literature: a purely geometric one based on octree decomposition, and a hybrid one based on both geometry and video coding. The first approach can provide accurate 3D geometry information but contains weak temporal consistency. The second one can efficiently remove the temporal redundancy yet a decrease of geometrical precision can be observed after the projection. Thus, the tradeoff between compression efficiency and accurate prediction needs to be optimized.We focused on exploring the temporal correlations between dynamic dense point clouds. We proposed different approaches to improve the compression performance of the MPEG (Moving Picture Experts Group) V-PCC (Video-based Point Cloud Compression) test model, which provides state-of-the-art compression on dynamic dense point clouds.First, an octree-based adaptive segmentation is proposed to cluster the points with different motion amplitudes into 3D cubes. Then, motion estimation is applied to these cubes using affine transformation. Gains in terms of rate-distortion (RD) performance have been observed in sequences with relatively low motion amplitudes. However, the cost of building an octree for the dense point cloud remains expensive while the resulting octree structures contain poor temporal consistency for the sequences with higher motion amplitudes.An anatomical structure is then proposed to model the motion of the point clouds representing humanoids more inherently. With the help of 2D pose estimation tools, the motion is estimated from 14 anatomical segments using affine transformation.Moreover, we propose a novel solution for color prediction and discuss the residual coding from prediction. It is shown that instead of encoding redundant texture information, it is more valuable to code the residuals, which leads to a better RD performance.Although our contributions have improved the performances of the V-PCC test models, the temporal compression of dynamic point clouds remains a highly challenging task. Due to the limitations of the current acquisition technology, the acquired point clouds can be noisy in both geometry and attribute domains, which makes it challenging to achieve accurate motion estimation. In future studies, the technologies used for 3D meshes may be exploited and adapted to provide temporal-consistent connectivity information between dynamic 3D point clouds. Note de contenu : Chapter 1 - Introduction
1.1. Background and motivation
1.2. Outline of the thesis and contributions
Chapter 2 - 3D Point Cloud Compression: State of the art
2.1. The 3D PCC “Universe Map” for methods
2.2. 1D methods: geometry traversal
2.3. 2D methods: Projection and mapping onto 2D planar domains
2.4. 3D methods: Direct exploitation of 3D correlations
2.5. DL-based methods
2.6. 3D PCC: What is missing?
2.7. MPEG 3D PCC standards
Chapter 3 - Extended Study of MPEG V-PCC and G-PCC Approaches
3.1. V-PCC methodology
3.2. Experimental evaluation of V-PCC
3.3. G-PCC methodology
3.4. Experimental evaluation of G-PCC
3.5. Experiments on the V-PCC inter-coding mode
3.6. Conclusion
Chapter 4 - Octree-based RDO segmentation
4.1. Pipeline
4.2. RDO-based octree segmentation
4.3. Prediction modeS
4.4. Experimental results
4.5. Conclusion
Chapter 5 - Skeleton-based motion estimation and compensation
5.1. Introduction
5.2. 3D Skeleton Generation
5.3. Motion estimation and compression
5.4. Experimental results
5.5. Conclusion
Chapter 6 - Temporal prediction using anatomical segmentation
6.1. Introduction
6.2. A novel dynamic 3D point cloud dataset
6.3. Prediction structure
6.4. Improved anatomy segmentation
6.5. Experimental results
6.6. Conclusion
Chapter 7 - A novel color compression for point clouds using affine transformation
7.1. Introduction
7.2. The residuals from both geometry and color
7.3. The prediction structure
7.4. Compression of the color residuals
7.5. Experimental results
7.6. Conclusion
Chapter 8 - Conclusion and future work
8.1. Conclusion
8.2. Future workNuméro de notice : 26821 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : informatique : Paris : 2021 Organisme de stage : Telecom SudParis nature-HAL : Thèse DOI : sans Date de publication en ligne : 13/04/2022 En ligne : https://tel.hal.science/tel-03524521 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100476 Convolutional neural networks for change analysis in earth observation images with noisy labels and domain shifts / Rodrigo Caye Daudt (2020)Permalink