Descripteur
Termes IGN > mathématiques > statistique mathématique > analyse de données > segmentation > segmentation sémantique
segmentation sémantiqueSynonyme(s)étiquetage sémantique étiquetage de données |
Documents disponibles dans cette catégorie (204)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Deep learning architectures for onboard satellite image analysis Type de document : Thèse/HDR Auteurs : Gaétan Bahl, Auteur ; Florent Lafarge, Directeur de thèse Editeur : Nice : Université Côte d'Azur Année de publication : 2022 Importance : 120 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de Doctorat de l'Université Côte d’Azur, Spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] contour
[Termes IGN] détection d'objet
[Termes IGN] extraction du réseau routier
[Termes IGN] forêt
[Termes IGN] image satellite
[Termes IGN] nuage
[Termes IGN] régression
[Termes IGN] réseau neuronal convolutif
[Termes IGN] réseau neuronal de graphes
[Termes IGN] réseau neuronal récurrent
[Termes IGN] segmentation sémantiqueIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Les progrès des satellites d'observation de la Terre à haute résolution et la réduction des temps de revisite introduite par la création de constellations de satellites ont conduit à la création quotidienne de grandes quantités d'images (des centaines de Teraoctets par jour). Simultanément, la popularisation des techniques de Deep Learning a permis le développement d'architectures capables d'extraire le contenu sémantique des images. Bien que ces algorithmes nécessitent généralement l'utilisation de matériel puissant, des accélérateurs d'inférence IA de faible puissance ont récemment été développés et ont le potentiel d'être utilisés dans les prochaines générations de satellites, ouvrant ainsi la possibilité d'une analyse embarquée des images satellite. En extrayant les informations intéressantes des images satellite directement à bord, il est possible de réduire considérablement l'utilisation de la bande passante, du stockage et de la mémoire. Les applications actuelles et futures, telles que la réponse aux catastrophes, l'agriculture de précision et la surveillance du climat, bénéficieraient d'une latence de traitement plus faible, voire d'alertes en temps réel. Dans cette thèse, notre objectif est double : D'une part, nous concevons des architectures de Deep Learning efficaces, capables de fonctionner sur des périphériques de faible puissance, tels que des satellites ou des drones, tout en conservant une précision suffisante. D'autre part, nous concevons nos algorithmes en gardant à l'esprit l'importance d'avoir une sortie compacte qui peut être efficacement calculée, stockée, transmise au sol ou à d'autres satellites dans une constellation. Tout d'abord, en utilisant des convolutions séparables en profondeur et des réseaux neuronaux récurrents convolutionnels, nous concevons des réseaux neuronaux de segmentation sémantique efficaces avec un faible nombre de paramètres et une faible utilisation de la mémoire. Nous appliquons ces architectures à la segmentation des nuages et des forêts dans les images satellites. Nous concevons également une architecture spécifique pour la segmentation des nuages sur le FPGA d'OPS-SAT, un satellite lancé par l'ESA en 2019, et réalisons des expériences à bord à distance. Deuxièmement, nous développons une architecture de segmentation d'instance pour la régression de contours lisses basée sur une représentation à coefficients de Fourier, qui permet de stocker et de transmettre efficacement les formes des objets détectés. Nous évaluons la performance de notre méthode sur une variété de dispositifs informatiques à faible puissance. Enfin, nous proposons une architecture d'extraction de graphes routiers basée sur une combinaison de Fully Convolutional Networks et de Graph Neural Networks. Nous montrons que notre méthode est nettement plus rapide que les méthodes concurrentes, tout en conservant une bonne précision. Note de contenu : 1. Introduction
1.1 Context and motivation
1.2 Methods and Challenges
1.3 Contributions and outline
2. On-board image segmentation with compact networks
2.1 Introduction
2.2 Related works
2.3 Proposed architectures
2.4 Experiments on cloud segmentation
2.5 Experiments on forest segmentation
2.6 Conclusion
3. Recurrent convolutional networks for semantic segmentation
3.1 Introduction
3.2 Method
3.3 Experiments
3.4 Conclusion and future works
4. Regression of compact object contours
4.1 Introduction
4.2 Related Work
4.3 Method
4.4 Experiments
4.5 Conclusion
5. Road graph extraction
5.1 Introduction
5.2 Related Works
5.3 Method
5.4 Experiments
5.5 Limitations
5.6 Other uses of our method
5.7 Conclusion
6. Conclusion and Perspectives
6.1 Summary
6.2 Limitations and perspectives
6.3 Publications
6.4 Carbon Impact StatementNuméro de notice : 26912 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Côte d'Azur : 2022 Organisme de stage : Inria Sophia-Antipolis Méditerranée nature-HAL : Thèse DOI : sans Date de publication en ligne : 27/09/2022 En ligne : https://tel.hal.science/tel-03789667v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101955
Titre : Deep-learning based multiple land-cover map translation Type de document : Article/Communication Auteurs : Luc Baudoux , Auteur ; Jordi Inglada, Auteur ; Clément Mallet , Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2022 Projets : 1-Pas de projet / Conférence : IGARSS 2022, IEEE International Geoscience And Remote Sensing Symposium 17/07/2022 22/07/2022 Kuala Lumpur Malaysie Proceedings IEEE Importance : pp 1260 - 1263 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Bases de données localisées
[Termes IGN] apprentissage profond
[Termes IGN] base de données d'occupation du sol
[Termes IGN] cadre conceptuel
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] segmentation sémantiqueRésumé : (auteur) This paper presents a framework for simultaneously translating multiple land-cover maps into a given one in a supervised way. Conversely to existing approaches working on 1–1 translation, we propose a multi-translation setup that increases the generalizability and translation performance, especially on land-cover maps covering restricted spatial extents. The proposed method mainly assumes that the map of interest spatially overlaps at least with one of the other maps. High performance translation is achieved with a Convolutional Neural Network (CNN) based encoder-decoder frame-work trained with three goals: (i) high-quality translation; (ii) self-reconstruction ability; (iii) mapping of all datasets into a common representation space. Country-scale experimental results show the method effectiveness in translating six highly heterogeneous land-cover maps, achieving significantly better results than the traditional semantic-based method and better results than CNN trained for a 1–1 translation task (+ 9.7% in Overall Accuracy (OA) and +12% in macro F1-score (mF1)). Numéro de notice : C2022-039 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : https://hal.science/hal-03983066v1/document Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IGARSS46834.2022.9883056 En ligne : https://doi.org/10.1109/IGARSS46834.2022.9883056 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101765
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Detection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks / Stefan Reder in Remote sensing, vol 14 n° 1 (January-1 2022)
[article]
Titre : Detection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks Type de document : Article/Communication Auteurs : Stefan Reder, Auteur ; J.P. Mund, Auteur ; Nicole Albert, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 75 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] branche (arbre)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] dommage forestier causé par facteurs naturels
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] image captée par drone
[Termes IGN] orthophotoplan numérique
[Termes IGN] segmentation sémantique
[Termes IGN] tempête
[Termes IGN] troncRésumé : (auteur) The increasing number of severe storm events is threatening European forests. Besides the primary damages directly caused by storms, there are secondary damages such as bark beetle outbreaks and tertiary damages due to negative effects on the market. These subsequent damages can be minimized if a detailed overview of the affected area and the amount of damaged wood can be obtained quickly and included in the planning of clearance measures. The present work utilizes UAV-orthophotos and an adaptation of the U-Net architecture for the semantic segmentation and localization of windthrown stems. The network was pre-trained with generic datasets, randomly combining stems and background samples in a copy–paste augmentation, and afterwards trained with a specific dataset of a particular windthrow. The models pre-trained with generic datasets containing 10, 50 and 100 augmentations per annotated windthrown stems achieved F1-scores of 73.9% (S1Mod10), 74.3% (S1Mod50) and 75.6% (S1Mod100), outperforming the baseline model (F1-score 72.6%), which was not pre-trained. These results emphasize the applicability of the method to correctly identify windthrown trees and suggest the collection of training samples from other tree species and windthrow areas to improve the ability to generalize. Further enhancements of the network architecture are considered to improve the classification performance and to minimize the calculative costs. Numéro de notice : A2022-082 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article DOI : 10.3390/rs14010075 En ligne : https://doi.org/10.3390/rs14010075 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99476
in Remote sensing > vol 14 n° 1 (January-1 2022) . - n° 75[article]
Titre : Domain adaptation for urban scene segmentation Type de document : Thèse/HDR Auteurs : Antoine Saporta, Auteur ; Matthieu Cord, Directeur de thèse Editeur : Paris : Sorbonne Université Année de publication : 2022 Importance : 147 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de Sorbonne Université, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification non dirigée
[Termes IGN] entropie
[Termes IGN] Mapillary
[Termes IGN] navigation autonome
[Termes IGN] réseau antagoniste génératif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) This thesis tackles some of the scientific locks of perception systems based on neural networks for autonomous vehicles. This dissertation discusses domain adaptation, a class of tools aiming at minimizing the need for labeled data. Domain adaptation allows generalization to so-called target data that share structures with the labeled so-called source data allowing supervision but nevertheless following a different statistical distribution. First, we study the introduction of privileged information in the source data, for instance, depth labels. The proposed strategy, BerMuDA, bases its domain adaptation on a multimodal representation obtained by bilinear fusion, modeling complex interactions between segmentation and depth. Next, we examine self-supervised learning strategies in domain adaptation, relying on selecting predictions on the unlabeled target data, serving as pseudo-labels. We propose two new selection criteria: first, an entropic criterion with ESL; then, with ConDA, using an estimate of the true class probability. Finally, the extension of adaptation scenarios to several target domains as well as in a continual learning framework is proposed. Two approaches are presented to extend traditional adversarial methods to multi-target domain adaptation: Multi-Dis. and MTKT. In a continual learning setting for which the target domains are discovered sequentially and without rehearsal, the proposed CTKT approach adapts MTKT to this new problem to tackle catastrophic forgetting. Note de contenu : 1- Introduction
2- Unsupervised domain adaptation
3- Leveraging priviledge information for unsupervised domain adaptation
4- Estimating and exploiting confident pseudo-labels for self-training
5- Adaptation to multiple domains
6- ConclusionNuméro de notice : 24079 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Sorbonne Université : 2022 Organisme de stage : Institut des Systèmes Intelligents et de Robotique DOI : sans En ligne : https://theses.hal.science/tel-03886201 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102213 FLAIR: French Land cover from Aerial ImageRy - Challenge FLAIR #1: semantic segmentation and domain adaptation / Anatol Garioud (2022)PermalinkInteractive semantic segmentation of aerial images with deep neural networks / Gaston Lenczner (2022)PermalinkLearning multi-view aggregation in the wild for large-scale 3D semantic segmentation / Damien Robert (2022)PermalinkLearning spatio-temporal representations of satellite time series for large-scale crop mapping / Vivien Sainte Fare Garnot (2022)PermalinkMonitoring leaf phenology in moist tropical forests by applying a superpixel-based deep learning method to time-series images of tree canopies / Guangqin Song in ISPRS Journal of photogrammetry and remote sensing, vol 183 (January 2022)PermalinkPhotogrammetric point clouds: quality assessment, filtering, and change detection / Zhenchao Zhang (2022)PermalinkSemantic segmentation of high-resolution remote sensing images based on a class feature attention mechanism fused with Deeplabv3+ / Zhimin Wang in Computers & geosciences, vol 158 (January 2022)PermalinkA hierarchical deep neural network with iterative features for semantic labeling of airborne LiDAR point clouds / Yetao Yang in Computers & geosciences, vol 157 (December 2021)PermalinkLithological mapping based on fully convolutional network and multi-source geological data / Ziye Wang in Remote sensing, vol 13 n° 23 (December-1 2021)PermalinkMSegnet, a practical network for building detection from high spatial resolution images / Bo Yu in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 12 (December 2021)PermalinkMultigranularity multiclass-layer Markov random field model for semantic segmentation of remote sensing images / Chen Zheng in IEEE Transactions on geoscience and remote sensing, vol 59 n° 12 (December 2021)PermalinkAdaptive edge preserving maps in Markov random fields for hyperspectral image classification / Chao Pan in IEEE Transactions on geoscience and remote sensing, vol 59 n° 10 (October 2021)PermalinkLandslide susceptibility prediction based on image semantic segmentation / Bowen Du in Computers & geosciences, vol 155 (October 2021)PermalinkAutomatic building detection with polygonizing and attribute extraction from high-resolution images / Samitha Daranagama in ISPRS International journal of geo-information, vol 10 n° 9 (September 2021)PermalinkMulti-task fully convolutional network for tree species mapping in dense forests using small training hyperspectral data / Laura Elena Cué La Rosa in ISPRS Journal of photogrammetry and remote sensing, vol 179 (September 2021)PermalinkSingle annotated pixel based weakly supervised semantic segmentation under driving scenes / Xi Li in Pattern recognition, vol 116 (August 2021)PermalinkCNN-based RGB-D salient object detection: Learn, select, and fuse / Hao Chen in International journal of computer vision, vol 129 n° 7 (July 2021)PermalinkSemantic-aware label placement for augmented reality in street view / Jianqing Jia in The Visual Computer, vol 37 n° 7 (July 2021)PermalinkSemiCDNet: A semisupervised convolutional neural network for change detection in high resolution remote-sensing images / Daifeng Peng in IEEE Transactions on geoscience and remote sensing, Vol 59 n° 7 (July 2021)PermalinkVectorized indoor surface reconstruction from 3D point cloud with multistep 2D optimization / Jiali Han in ISPRS Journal of photogrammetry and remote sensing, vol 177 (July 2021)PermalinkMarrying deep learning and data fusion for accurate semantic labeling of Sentinel-2 images / Guillemette Fonteix in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-2-2021 (July 2021)PermalinkDomain adaptive transfer attack-based segmentation networks for building extraction from aerial images / Younghwan Na in IEEE Transactions on geoscience and remote sensing, vol 59 n° 6 (June 2021)PermalinkMultiscale cloud detection in remote sensing images using a dual convolutional neural network / Markku Luotamo in IEEE Transactions on geoscience and remote sensing, vol 59 n° 6 (June 2021)PermalinkSemantic signatures for large-scale visual localization / Li Weng in Multimedia tools and applications, vol 80 n° 15 (June 2021)PermalinkLearning deep semantic segmentation network under multiple weakly-supervised constraints for cross-domain remote sensing image semantic segmentation / Yansheng Li in ISPRS Journal of photogrammetry and remote sensing, vol 175 (May 2021)PermalinkLearning from multimodal and multitemporal earth observation data for building damage mapping / Bruno Adriano in ISPRS Journal of photogrammetry and remote sensing, vol 175 (May 2021)PermalinkSemantic hierarchy emerges in deep generative representations for scene synthesis / Ceyuan Yang in International journal of computer vision, vol 129 n° 5 (May 2021)PermalinkA stacked dense denoising–segmentation network for undersampled tomograms and knowledge transfer using synthetic tomograms / Dimitrios Bellos in Machine Vision and Applications, vol 32 n° 3 (May 2021)PermalinkA graph-based semi-supervised approach to classification learning in digital geographies / Pengyuan Liu in Computers, Environment and Urban Systems, vol 86 (March 2021)PermalinkOntology-based semantic conceptualisation of historical built heritage to generate parametric structured models from point clouds / Elisabetta Colucci in Applied sciences, vol 11 n° 6 (March 2021)PermalinkRecognition of varying size scene images using semantic analysis of deep activation maps / Shikha Gupta in Machine Vision and Applications, vol 32 n° 2 (March 2021)PermalinkLand cover harmonization using Latent Dirichlet Allocation / Zhan Li in International journal of geographical information science IJGIS, vol 35 n° 2 (February 2021)Permalink3D urban scene understanding by analysis of LiDAR, color and hyperspectral data / David Duque-Arias (2021)PermalinkPermalinkApprentissage profond et IA pour l’amélioration de la robustesse des techniques de localisation par vision artificielle / Achref Elouni (2021)PermalinkPermalinkPermalinkBuilding extraction from Lidar data using statistical methods / Haval Abdul-Jabbar Sadeq in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 1 (January 2021)PermalinkClustering et apprentissage profond sous contraintes pour l’analyse de séries temporelles : Application à l’analyse temporelle incrémentale en télédétection / Baptiste Lafabregue (2021)PermalinkPermalinkPermalinkDeep convolutional neural networks for scene understanding and motion planning for self-driving vehicles / Abdelhak Loukkal (2021)PermalinkDétection d’ouvertures par segmentation sémantique de nuages de points 3D : apport de l’apprentissage profond / Camille Lhenry (2021)PermalinkDétection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)PermalinkPermalink