Descripteur
Documents disponibles dans cette catégorie (1887)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Titre : Learning to map street-side objects using multiple views Type de document : Thèse/HDR Auteurs : Ahmed Samy Nassar, Auteur ; Sébastien Lefèvre, Directeur de thèse ; Jan Dirk Wegner, Directeur de thèse Editeur : Vannes : Université de Bretagne Sud Année de publication : 2021 Importance : 139 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Bretagne Sud, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] arbre urbain
[Termes IGN] cartographie par internet
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] données multisources
[Termes IGN] estimation de pose
[Termes IGN] géolocalisation
[Termes IGN] graphe
[Termes IGN] image Streetview
[Termes IGN] inventaire
[Termes IGN] mobilier urbain
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Creating inventories of street-side objects and their monitoring in cities is a labor-intensive and costly process. Field workers are known to conduct this process on-site to record properties about the object. These properties can be the location, species, height, and health of a tree as an example. To monitor cities, gathering such information on a large scale becomes challenging. With the abundance of imagery, adequate coverage of a city is achieved from different views provided by online mapping services (e.g., Google Maps and Street View, Mapillary). The availability of such imagery allows efficient creation and updating of inventories of street-side objects status by using computer vision methods such as object detection and multiple object tracking. This thesis aims at detecting and geo-localizing street-side objects, especially trees and street signs, from multiple views using novel deep learning methods. Note de contenu : 1- Introduction
2- Background
3- Multi-view instance matching with learned geometric soft-constraints
4- Simultaneous multi-view instance detection with learned geometric softconstraints
5- GeoGraphV2: Graph-based aerial & street view multi-view object detection with geometric cues end-to-end
6- ConclusionNuméro de notice : 28674 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Université de Bretagne Sud : 2021 Organisme de stage : IRISA DOI : sans En ligne : https://hal.science/tel-03523658 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99920 Mask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors / Emilio Guirado in Sensors, vol 21 n° 1 (January 2021)
![]()
[article]
Titre : Mask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors Type de document : Article/Communication Auteurs : Emilio Guirado, Auteur ; Javier Blanco-Sacristán, Auteur ; Emilio Rodríguez-Caballero, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : n° 320 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] arbuste
[Termes IGN] capteur optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de changement
[Termes IGN] image à très haute résolution
[Termes IGN] segmentation d'image
[Termes IGN] service écosystémique
[Termes IGN] surveillance de la végétation
[Termes IGN] zone arideRésumé : (auteur) Vegetation generally appears scattered in drylands. Its structure, composition and spatial patterns are key controls of biotic interactions, water, and nutrient cycles. Applying segmentation methods to very high-resolution images for monitoring changes in vegetation cover can provide relevant information for dryland conservation ecology. For this reason, improving segmentation methods and understanding the effect of spatial resolution on segmentation results is key to improve dryland vegetation monitoring. We explored and analyzed the accuracy of Object-Based Image Analysis (OBIA) and Mask Region-based Convolutional Neural Networks (Mask R-CNN) and the fusion of both methods in the segmentation of scattered vegetation in a dryland ecosystem. As a case study, we mapped Ziziphus lotus, the dominant shrub of a habitat of conservation priority in one of the driest areas of Europe. Our results show for the first time that the fusion of the results from OBIA and Mask R-CNN increases the accuracy of the segmentation of scattered shrubs up to 25% compared to both methods separately. Hence, by fusing OBIA and Mask R-CNNs on very high-resolution images, the improved segmentation accuracy of vegetation mapping would lead to more precise and sensitive monitoring of changes in biodiversity and ecosystem services in drylands. Numéro de notice : A2021-157 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/s21010320 Date de publication en ligne : 05/01/2021 En ligne : https://doi.org/10.3390/s21010320 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97072
in Sensors > vol 21 n° 1 (January 2021) . - n° 320[article]Multi-modal temporal attention models for crop mapping from satellite time series / Vivien Sainte Fare Garnot (2021)
![]()
Titre : Multi-modal temporal attention models for crop mapping from satellite time series Type de document : Article/Communication Auteurs : Vivien Sainte Fare Garnot , Auteur ; Loïc Landrieu
, Auteur ; Nesrine Chehata
, Auteur
Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2021 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] base de données d'images
[Termes IGN] carte agricole
[Termes IGN] image optique
[Termes IGN] image radar
[Termes IGN] Pastis
[Termes IGN] segmentation d'imageRésumé : (auteur) Optical and radar satellite time series are synergetic: optical images contain rich spectral information, while C-band radar captures useful geometrical information and is immune to cloud cover. Motivated by the recent success of temporal attention-based methods across multiple crop mapping tasks, we propose to investigate how these models can be adapted to operate on several modalities. We implement and evaluate multiple fusion schemes, including a novel approach and simple adjustments to the training procedure, significantly improving performance and efficiency with little added complexity. We show that most fusion schemes have advantages and drawbacks, making them relevant for specific settings. We then evaluate the benefit of multimodality across several tasks: parcel classification, pixel-based segmentation, and panoptic parcel segmentation. We show that by leveraging both optical and radar time series, multimodal temporal attention-based models can outmatch single-modality models in terms of performance and resilience to cloud cover. To conduct these experiments, we augment the PASTIS dataset with spatially aligned radar image time series. The resulting dataset, PASTIS-R, constitutes the first large-scale, multimodal, and open-access satellite time series dataset with semantic and instance annotations. Numéro de notice : P2021-005 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE Nature : Preprint nature-HAL : Préprint DOI : sans Date de publication en ligne : 14/12/2021 En ligne : https://arxiv.org/abs/2112.07558v1 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99392
Titre : Multispectral object detection Type de document : Thèse/HDR Auteurs : Heng Zhang, Auteur ; Elisa Fromont, Directeur de thèse ; Sébastien Lefèvre, Directeur de thèse Editeur : Rennes : Université de Rennes 1 Année de publication : 2021 Importance : 114 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse présentée en vue de l’obtention du grade de docteur en Informatique de l'Université de Rennes 1Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] chambre de prise de vue thermique
[Termes IGN] détection d'objet
[Termes IGN] données d'entrainement sans étiquette
[Termes IGN] efficacité
[Termes IGN] fusion de données multisource
[Termes IGN] image multibande
[Termes IGN] précision de la classification
[Termes IGN] qualité du modèle
[Termes IGN] segmentation sémantiqueIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Only using RGB cameras for automatic outdoor scene analysis is challenging when, for example, facing insufficient illumination or adverse weather. To improve the recognition reliability, multispectral systems add additional cameras (e.g. infra-red) and perform object detection from multispectral data. Although multispectral scene analysis with deep learning has been shown to have a great potential, there are still many open research questions and it has not been widely deployed in industrial contexts. In this thesis, we investigated three main challenges about multispectral object detection: (1) the fast and accurate detection of objects of interest from images; (2) the dynamic and adaptive fusion of information from different modalities;(3) low-cost and low-energy multispectral object detection and the reduction of its manual annotation efforts. In terms of the first challenge, we first optimize the label assignment of the object detection training with a mutual guidance strategy between the classification and localization tasks; we then realize an efficient compression of object detection models including the teacher-student prediction disagreements in a feature-based knowledge distillation framework. With regard to the second challenge, three different multispectral feature fusion schemes are proposed to deal with the most difficult fusion cases where different cameras provide contradictory information. For the third challenge, a novel modality distillation framework is firstly presented to tackle the hardware and software constraints of current multispectral systems; then a multi-sensor-based active learning strategy is designed to reduce the labeling costs when constructing multispectral datasets. Note de contenu : 1. Introduction
1.1 Context and motivations
1.2 Thesis outline
2. Deep learning background
2.1 General object detection
2.2 Multispectral object detection
2.3 Knowledge distillation
2.4 Active learning
2.5 Datasets
3. Efficient object detection on embedded devices
3.1 Best practices for training object detection models
3.2 Mutual Guidance for Anchor Matching
3.3 Prediction Disagreement aware Feature Distillation
3.4 Experimental results
4. Information fusion from multispectral data
4.1 Multispectral Fusion with Cyclic Fuse-and-Refine
4.2 Progressive Spectral Fusion
4.3 Experimental results for CFR and PS-Fuse
4.4 Guided Attentive Feature Fusion
4.5 Experimental results for GAFF
5. Sensors and annotations: low cost multispectral data processing
5.1 Deep Active Learning from Multispectral Data
5.2 Low-cost Multispectral Scene Analysis with Modality Distillation
6. Conclusions and future works
6.1 Conclusions
6.2 Application to remote sensing data
6.3 PerspectivesNuméro de notice : 26765 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Rennes 1 : 2021 Organisme de stage : (IRISA) INRIA nature-HAL : Thèse DOI : sans Date de publication en ligne : 17/01/2022 En ligne : https://hal.science/tel-03530257/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99855
Titre : De la navigation visuelle à l’analyse sémantique pour véhicules autonomes Type de document : Thèse/HDR Auteurs : Emir Hrustic, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Auteur Editeur : Toulouse : Université de Toulouse Année de publication : 2021 Importance : 193 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse délivré par l'Institut Supérieur de l’Aéronautique et de l’Espace, spécialité Informatique et TélécommunicationsLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] capteur optique
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] détection d'objet
[Termes IGN] filtre de Kalman
[Termes IGN] information sémantique
[Termes IGN] navigation autonome
[Termes IGN] segmentation sémantique
[Termes IGN] signalisation routière
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les travaux actuels dans le domaine de la navigation autonome s’intéressent principalement à l’étude d’algorithmes de localisation sur la base d’hybridation multi-capteurs ou d’approche de type localisation et cartographie simultanées (SLAM). Aujourd’hui des méthodes bien connues et assez fiables existent comme par exemple ORB-SLAM, SVO, PTAM. L’ensemble de ces méthodes peut être considéré comme des approches « bas niveau » dans le sens où l’interprétation de la scène reste très limitée. En effet, celle-ci est représentée par des nuages de points 3D ou au mieux des amers géométriques.Il est à noter qu’avec le machine learning et plus récemment l’engouement pour le Deep-Learning, des techniques d’analyse d’image émergent avec l’extraction d’objets statiques ou mobiles (détection de piétons, de panneaux, de marquages au sol. Ces approches restent cependant encore décorrélées de l’étape de navigation à proprement parlé. L’ambition de ce projet est d’intégrer les couches d’analyse de scène dans le cadre de la navigation autonome, à savoir intégrer les informations sémantiques dans l’étape de calcul de position. Nous souhaitons donc mettre en place une cartographie d'objets, dite sémantique, qu'ils soient routiers (panneau, feux, marquages au sol particuliers...), urbains (enseignes de magasin...) et éventuellement d’événements (accidents, travaux, déviations...). Ce type de cartographie permettra la navigation par amers visuels de haut niveau bien plus robustes dans le temps mais également plus facilement détectable en cas de variation de luminosité (jour nuit). Ce projet se situe ainsi à l’intersection de diverses thématiques : - L’apprentissage automatique, l’analyse d’image et la détection d’objets - La localisation par vision (odométrie visuelle, hybridation) - La cartographie sémantique géolocalisée (SLAM+GNSS). Note de contenu : 1- Introduction
2- La navigation autonome de véhicule par capteurs optiques
3- Extraction d’amers sémantiques
4- Intégration d’amers sémantiques dans un framework de type SLAM
5- Intégration de contraintes pour compenser les erreurs de modélisation d’un système
ConclusionNuméro de notice : 28597 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2021 Organisme de stage : ISAE-ONERA SCANR DOI : sans En ligne : http://www.theses.fr/2021ESAE0008 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99356 Object detection using component-graphs and ConvNets with application to astronomical images / Thanh Xuan Nguyen (2021)
PermalinkPanoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)
PermalinkPerception de scène par un système multi-capteurs, application à la navigation dans des environnements d'intérieur structuré / Marwa Chakroun (2021)
PermalinkPermalinkProposition d’un référentiel de description et de détection de la végétation dans une agglomération / Mathilde Segaud (2021)
PermalinkReconnaissance spécifique et cartographie des arbres de la canopée en forêt tropicale en Guyane française par fusion de données lidar et hyperspectrales appliquées aux besoins de la gestion forestière / Anthony Laybros (2021)
PermalinkRelation-constrained 3D reconstruction of buildings in metropolitan areas from photogrammetric point clouds / Yuan Li in Remote sensing, vol 13 n° 1 (January-1 2021)
PermalinkPermalinkRemote sensing analysis of small scale dynamic phenomena in the atmospheric boundary layer / Kostas Cheliotis (2021)
PermalinkReprésentation sémantique de données géospatiales au service de l'analyse de changements / Jordan Dorne (2021)
PermalinkSpectral variability in hyperspectral unmixing : Multiscale, tensor, and neural network-based approaches / Ricardo Augusto Borsoi (2021)
PermalinkSteps-based tree crown delineation by analyzing local minima for counting the trees in very high resolution satellite imagery / Debasish Chakraborty in Geocarto international, vol 36 n° 1 ([01/01/2021])
PermalinkStudy of an integrated pre-processing architecture for smart-imaging-systems, in the context of lowpower computer vision and embedded object detection / Luis Cubero Montealegre (2021)
PermalinkSuivi des vignes par télédétection de proximité : le deep learning au service de l’agriculture de précision / Sami Beniaouf (2021)
PermalinkSUMAC'21: Proceedings of the 3rd Workshop on Structuring and Understanding of Multimedia heritAge Contents / Valérie Gouet-Brunet (2021)
PermalinkSupplementary material for: Panoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)
PermalinkTélédétection et intégration de connaissances via la modélisation spatiale pour une cartographie plus cohérente des systèmes agricoles complexes / Arthur Crespin-Boucaud (2021)
PermalinkPermalinkUnderwater object detection and reconstruction based on active single-pixel imaging and super-resolution convolutional neural network / Mengdi Li in Sensors, vol 21 n° 1 (January 2021)
PermalinkUnifying remote sensing image retrieval and classification with robust fine-tuning / Dimitri Gominski (2021)
Permalink