Descripteur
Documents disponibles dans cette catégorie (173)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : De la navigation visuelle à l’analyse sémantique pour véhicules autonomes Type de document : Thèse/HDR Auteurs : Emir Hrustic, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Auteur Editeur : Toulouse : Université de Toulouse Année de publication : 2021 Importance : 193 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse délivré par l'Institut Supérieur de l’Aéronautique et de l’Espace, spécialité Informatique et TélécommunicationsLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] capteur optique
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] détection d'objet
[Termes IGN] filtre de Kalman
[Termes IGN] information sémantique
[Termes IGN] navigation autonome
[Termes IGN] segmentation sémantique
[Termes IGN] signalisation routière
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les travaux actuels dans le domaine de la navigation autonome s’intéressent principalement à l’étude d’algorithmes de localisation sur la base d’hybridation multi-capteurs ou d’approche de type localisation et cartographie simultanées (SLAM). Aujourd’hui des méthodes bien connues et assez fiables existent comme par exemple ORB-SLAM, SVO, PTAM. L’ensemble de ces méthodes peut être considéré comme des approches « bas niveau » dans le sens où l’interprétation de la scène reste très limitée. En effet, celle-ci est représentée par des nuages de points 3D ou au mieux des amers géométriques.Il est à noter qu’avec le machine learning et plus récemment l’engouement pour le Deep-Learning, des techniques d’analyse d’image émergent avec l’extraction d’objets statiques ou mobiles (détection de piétons, de panneaux, de marquages au sol. Ces approches restent cependant encore décorrélées de l’étape de navigation à proprement parlé. L’ambition de ce projet est d’intégrer les couches d’analyse de scène dans le cadre de la navigation autonome, à savoir intégrer les informations sémantiques dans l’étape de calcul de position. Nous souhaitons donc mettre en place une cartographie d'objets, dite sémantique, qu'ils soient routiers (panneau, feux, marquages au sol particuliers...), urbains (enseignes de magasin...) et éventuellement d’événements (accidents, travaux, déviations...). Ce type de cartographie permettra la navigation par amers visuels de haut niveau bien plus robustes dans le temps mais également plus facilement détectable en cas de variation de luminosité (jour nuit). Ce projet se situe ainsi à l’intersection de diverses thématiques : - L’apprentissage automatique, l’analyse d’image et la détection d’objets - La localisation par vision (odométrie visuelle, hybridation) - La cartographie sémantique géolocalisée (SLAM+GNSS). Note de contenu : 1- Introduction
2- La navigation autonome de véhicule par capteurs optiques
3- Extraction d’amers sémantiques
4- Intégration d’amers sémantiques dans un framework de type SLAM
5- Intégration de contraintes pour compenser les erreurs de modélisation d’un système
ConclusionNuméro de notice : 28597 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2021 Organisme de stage : ISAE-ONERA SCANR DOI : sans En ligne : http://www.theses.fr/2021ESAE0008 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99356 Panoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)
Titre : Panoptic segmentation of satellite image time series with convolutional temporal attention networks Type de document : Article/Communication Auteurs : Vivien Sainte Fare Garnot , Auteur ; Loïc Landrieu , Auteur Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Année de publication : 2021 Projets : 1-Pas de projet / Conférence : ICCV 2021, IEEE/CVF International Conference on Computer Vision 11/10/2021 17/10/2021 programme Importance : 17 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] contour
[Termes IGN] Pastis
[Termes IGN] Perceptron multicouche
[Termes IGN] segmentation d'image
[Termes IGN] segmentation sémantique
[Termes IGN] série temporelleRésumé : (auteur) Unprecedented access to multi-temporal satellite imagery has opened new perspectives for a variety of Earth observation tasks. Among them, pixel-precise panoptic segmentation of agricultural parcels has major economic and environmental implications. While researchers have explored this problem for single images, we argue that the complex temporal patterns of crop phenology are better addressed with temporal sequences of images. In this paper, we present the first end-to-end, single-stage method for panoptic segmentation of Satellite Image Time Series (SITS). This module can be combined with our novel image sequence encoding network which relies on temporal self- attention to extract rich and adaptive multi-scale spatio- temporal features. We also introduce PASTIS, the first open- access SITS dataset with panoptic annotations. We demonstrate the superiority of our encoder for semantic segmentation against multiple competing architectures, and set up the first state-of-the-art of panoptic segmentation of SITS. Our implementation and PASTIS are publicly available. Numéro de notice : C2021-029 Affiliation des auteurs : UGE-LASTIG (2020- ) Autre URL associée : vers ArXiv Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.48550/arXiv.2107.07933 En ligne : https://doi.org/10.1109/ICCV48922.2021.00483 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98978 Real-time multimodal semantic scene understanding for autonomous UGV navigation / Yifei Zhang (2021)
Titre : Real-time multimodal semantic scene understanding for autonomous UGV navigation Type de document : Thèse/HDR Auteurs : Yifei Zhang, Auteur ; Fabrice Mériaudeau, Directeur de thèse ; Désiré Sidibé, Directeur de thèse Editeur : Dijon : Université Bourgogne Franche-Comté UBFC Année de publication : 2021 Importance : 114 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le doctorat de l'Université Bourgogne Franche-Comté, Spécialité Instrumentation et informatique d’imageLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] données polarimétriques
[Termes IGN] fusion d'images
[Termes IGN] image RVB
[Termes IGN] intégration de données
[Termes IGN] navigation autonome
[Termes IGN] segmentation sémantique
[Termes IGN] temps réel
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Robust semantic scene understanding is challenging due to complex object types, as well as environmental changes caused by varying illumination and weather conditions. This thesis studies the problem of deep semantic segmentation with multimodal image inputs. Multimodal images captured from various sensory modalities provide complementary information for complete scene understanding. We provided effective solutions for fully-supervised multimodal image segmentation and few-shot semantic segmentation of the outdoor road scene. Regarding the former case, we proposed a multi-level fusion network to integrate RGB and polarimetric images. A central fusion framework was also introduced to adaptively learn the joint representations of modality-specific features and reduce model uncertainty via statistical post-processing.In the case of semi-supervised semantic scene understanding, we first proposed a novel few-shot segmentation method based on the prototypical network, which employs multiscale feature enhancement and the attention mechanism. Then we extended the RGB-centric algorithms to take advantage of supplementary depth cues. Comprehensive empirical evaluations on different benchmark datasets demonstrate that all the proposed algorithms achieve superior performance in terms of accuracy as well as demonstrating the effectiveness of complementary modalities for outdoor scene understanding for autonomous navigation. Note de contenu : 1. Introduction
1.1 Context and Motivation
1.2 Background and Challenges
1.3 Contributions
1.4 Organization
2. Background on Neural Networks
2.1 Basic Concepts
2.2 Neural Network Layers
2.3 Optimization
2.4 Model Training
2.5 Evaluation Metrics
2.6 Summary
3. Literature Review
3.1 Fully-supervised Semantic Image
3.2 Datasets
3.3 Summary
4. Deep Multimodal Fusion for Semantic Image Segmentation
4.1 CMNet: Deep Multimodal Fusion
4.2 A Central Multimodal Fusion Framework
4.3 Summary
5. Few-shot Semantic Image Segmentation
5.1 Introduction on Few-shot Segmentation
5.2 MAPnet: A Multiscale Attention-Based Prototypical Network
5.3 RDNet: Incorporating Depth Information into Few-shot Segmentation
5.4 Summary
6. Conclusion and Future Work
6.1 General Conclusion
6.2 Future PerspectivesNuméro de notice : 26527 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Instrumentation et informatique d’image : Bourgogne : 2021 nature-HAL : Thèse Date de publication en ligne : 02/03/2021 En ligne : https://hal.science/tel-03154783v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97556
Titre : Representing shape collections with alignment-aware linear models Type de document : Article/Communication Auteurs : Romain Loiseau , Auteur ; Tom Monnier, Auteur ; Loïc Landrieu , Auteur ; Mathieu Aubry, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2021 Autre Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Projets : READY3D / Landrieu, Loïc Conférence : 3DV 2021, International Conference on 3D Vision 01/12/2021 03/12/2021 Londres online Royaume-Uni Proceedings IEEE Importance : pp 1044 - 1053 Format : 21 x 30 cm Note générale : bibliographie
This work was supported in part by ANR project READY3D ANR-19-CE23-0007 and HPC resources from GENCI-IDRIS (Grant 2020-AD011012096).Langues : Anglais (eng) Descripteur : [Termes IGN] analyse de données
[Termes IGN] apprentissage profond
[Termes IGN] données localisées 3D
[Termes IGN] modèle linéaire
[Termes IGN] réseau neuronal profond
[Termes IGN] segmentation
[Termes IGN] semis de points
[Termes IGN] transformation affineRésumé : (auteur) In this paper, we revisit the classical representation of 3D point clouds as linear shape models. Our key insight is to leverage deep learning to represent a collection of shapes as affine transformations of low-dimensional linear shape models. Each linear model is characterized by a shape prototype, a low-dimensional shape basis and two neural networks. The networks take as input a point cloud and predict the coordinates of a shape in the linear basis and the affine transformation which best approximate the input. Both linear models and neural networks are learned end-to-end using a single reconstruction loss. The main advantage of our approach is that, in contrast to many recent deep approaches which learn feature-based complex shape representations, our model is explicit and every operation occurs in 3D space. As a result, our linear shape models can be easily visualized and annotated, and failure cases can be visually understood. While our main goal is to introduce a compact and interpretable representation of shape collections, we show it leads to state of the art results for few-shot segmentation. Code and data are available at: https://romainloiseau.github.io/deep-linear-shapes Numéro de notice : C2021-036 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers ArXiv Thématique : INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/3DV53792.2021.00112 Date de publication en ligne : 03/12/2021 En ligne : https://doi.org/10.1109/3DV53792.2021.00112 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98385 Semantic segmentation of sea ice type on Sentinel-1 SAR data using convolutional neural networks / Alissa Kouraeva (2021)
Titre : Semantic segmentation of sea ice type on Sentinel-1 SAR data using convolutional neural networks Type de document : Mémoire Auteurs : Alissa Kouraeva, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2021 Importance : 40 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet pluridisciplinaire, cycle ING2Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] carte thématique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] eau de mer
[Termes IGN] géovisualisation
[Termes IGN] glace de mer
[Termes IGN] image Aqua-AMSR
[Termes IGN] image Sentinel-SAR
[Termes IGN] matrice de confusion
[Termes IGN] restauration d'image
[Termes IGN] segmentation sémantiqueIndex. décimale : PROJET Mémoires : Rapports de projet - stage des ingénieurs de 2e année Résumé : (Auteur) La classification des types de glace marine est une composante essentielle de l’observation de la banquise dans les régions polaires. La présente étude cherche à améliorer l’automatisation de la construction de cartes de type de glace (ice charts), d’habitude manuellement réalisées par des experts, en utilisant des réseaux de neurones convolutifs (CNN). Les réseaux utilisent des données radar issues des missions Sentinel-1, et des données micro-ondes passif (AMSR2) en entrée. La cible de ces réseaux est composée de cartes de type de glace utilisées pour la navigation. Une carte de types de glace se présente sous la forme de multiples polygones. Elle montre les concentrations partielles, les stades de développement ainsi que les formes des trois types de glaces dominants. La glace est considérée comme uniforme au sein d’un polygone. Cependant, les cartes de type de glaces ne sont pas une fidèle représentation de la réalité, car les pixels au sein d’un polygone appartiennent à différentes classes. De plus, le niveau de détail d’un polygone est grossier et les experts peuvent faire des erreurs dans la classification du type de glace. Afin de minimiser ce type d’erreur, nous utilisons deux types d’encodage one-hot (binaire et continu) qui améliorent la représentation des types de glace et prennent en compte les incertitudes. Plusieurs configurations de réseaux de neurones sont testées lors de tests de sensibilité. Parmi elles, deux sont retenues car les plus performantes pour trois types de surfaces (eau, glace de première année, glace de plusieurs années) en termes de valeur de précision, de fonction de perte et de visualisation. Note de contenu :
Introduction
1. Data
1.1 Sentinel-1 SAR data
1.2 AMSR2 PMW data
1.3 Ice charts
2. Methods
2.1 Data preprocessing
2.2 Experiments with CNN architecture
3. Results
3.1 Evolution of validation loss
3.2 Evolution of accuracy
3.3 Optimal CNN architectures
3.4 Individual patches inferred from a test image
3.5 Maps of sea ice types inferred from test images
4. Discussion
4.1 Interpretation of SIGRID codes
4.2 Evaluation of CNN performance
4.3 Selection of the best network
4.4 Future work
5. Internship feedback
5.1 General feedback
5.2 Organisation during the internship
A Confusion Matrices
B FiguresNuméro de notice : 26608 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : Nansen Environmental and Remote Sensing Center NERSC Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98534 Documents numériques
peut être téléchargé
Semantic segmentation of sea ice type on Sentinel-1 SAR data... - pdf auteurAdobe Acrobat PDF Sensitivity of segmentation of GNSS IWV time series and trend estimates to data properties / Khanh Ninh Nguyen (2021)PermalinkSherloc: a knowledge-driven algorithm for geolocating microblog messages at sub-city level / Laura Di Rocco in International journal of geographical information science IJGIS, vol 35 n° 1 (January 2021)PermalinkSupplementary material for: Panoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)PermalinkAutomated labeling of schematic maps by optimization with knowledge acquired from existing maps / Tian Lan in Transactions in GIS, Vol 24 n° 6 (December 2020)PermalinkMapping forest tree species in high resolution UAV-based RGB-imagery by means of convolutional neural networks / Felix Schiefer in ISPRS Journal of photogrammetry and remote sensing, vol 170 (December 2020)PermalinkMS-RRFSegNetMultiscale regional relation feature segmentation network for semantic segmentation of urban scene point clouds / Haifeng Luo in IEEE Transactions on geoscience and remote sensing, Vol 58 n° 12 (December 2020)PermalinkParsing very high resolution urban scene images by learning deep ConvNets with edge-aware loss / Xianwei Zheng in ISPRS Journal of photogrammetry and remote sensing, vol 170 (December 2020)PermalinkSemantic trajectory segmentation based on change-point detection and ontology / Yuan Gao in International journal of geographical information science IJGIS, vol 34 n° 12 (December 2020)PermalinkSemi-supervised PolSAR image classification based on improved tri-training with a minimum spanning tree / Shuang Wang in IEEE Transactions on geoscience and remote sensing, Vol 58 n° 12 (December 2020)PermalinkTowards a new generation of digital cartography: The development of neocartography and the geoweb / Marina Tavra in Cartographica, vol 55 n° 4 (Winter 2020)Permalink