Descripteur
Documents disponibles dans cette catégorie (139)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Adaptive Statistical Superpixel Merging With Edge Penalty for PolSAR Image Segmentation / Deliang Xiang in IEEE Transactions on geoscience and remote sensing, vol 58 n° 4 (April 2020)
[article]
Titre : Adaptive Statistical Superpixel Merging With Edge Penalty for PolSAR Image Segmentation Type de document : Article/Communication Auteurs : Deliang Xiang, Auteur ; Wei Wang, Auteur ; Tao Tang, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 2412 - 2429 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] chatoiement
[Termes IGN] contour
[Termes IGN] fusion de données
[Termes IGN] image radar
[Termes IGN] polarimétrie radar
[Termes IGN] radar à antenne synthétique
[Termes IGN] segmentation d'image
[Termes IGN] superpixel
[Termes IGN] vision par ordinateurRésumé : (auteur) This article proposes an efficient and adaptive statistical superpixel merging approach with edge penalty for polarimetric synthetic aperture radar (PolSAR) image segmentation. Based on the initial superpixel over-segmentation result obtained by our previously proposed adaptive polarimetric superpixel generation algorithm (Pol-ASLIC), this work achieves efficient and accurate PolSAR image segmentation by merging superpixels using the statistical region merging (SRM) framework. This article proposes to define a new dissimilarity measure between superpixels, which takes the edge penalty into consideration, leading to a reasonable and accurate merging order for superpixel pairs. With regard to the merging predicate of superpixels, a polarimetric homogeneity measurement (HoM) is used to define the merging threshold, making the merging predicate and merging threshold adaptive to the PolSAR image content. Experimental results on three airborne and one spaceborne PolSAR data sets demonstrate that the proposed approach can effectively improve the computation efficiency and segmentation accuracy in comparison with state-of-the-art merging-based methods for PolSAR data. More importantly, the proposed approach is free of parameters and easy to use. Numéro de notice : A2020-196 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2019.2949066 Date de publication en ligne : 14/11/2019 En ligne : https://doi.org/10.1109/TGRS.2019.2949066 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94864
in IEEE Transactions on geoscience and remote sensing > vol 58 n° 4 (April 2020) . - pp 2412 - 2429[article]Directionally constrained fully convolutional neural network for airborne LiDAR point cloud classification / Congcong Wen in ISPRS Journal of photogrammetry and remote sensing, vol 162 (April 2020)
[article]
Titre : Directionally constrained fully convolutional neural network for airborne LiDAR point cloud classification Type de document : Article/Communication Auteurs : Congcong Wen, Auteur ; Lina Yang, Auteur ; Xiang Li, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 50 - 62 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage automatique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] données lidar
[Termes IGN] fusion de données
[Termes IGN] plus proche voisin, algorithme du
[Termes IGN] précision de la classification
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] traitement de semis de pointsRésumé : (auteur) Point cloud classification plays an important role in a wide range of airborne light detection and ranging (LiDAR) applications, such as topographic mapping, forest monitoring, power line detection, and road detection. However, due to the sensor noise, high redundancy, incompleteness, and complexity of airborne LiDAR systems, point cloud classification is challenging. Traditional point cloud classification methods mostly focus on the development of handcrafted point geometry features and employ machine learning-based classification models to conduct point classification. In recent years, the advances of deep learning models have caused researchers to shift their focus towards machine learning-based models, specifically deep neural networks, to classify airborne LiDAR point clouds. These learning-based methods start by transforming the unstructured 3D point sets to regular 2D representations, such as collections of feature images, and then employ a 2D CNN for point classification. Moreover, these methods usually need to calculate additional local geometry features, such as planarity, sphericity and roughness, to make use of the local structural information in the original 3D space. Nonetheless, the 3D to 2D conversion results in information loss. In this paper, we propose a directionally constrained fully convolutional neural network (D-FCN) that can take the original 3D coordinates and LiDAR intensity as input; thus, it can directly apply to unstructured 3D point clouds for semantic labeling. Specifically, we first introduce a novel directionally constrained point convolution (D-Conv) module to extract locally representative features of 3D point sets from the projected 2D receptive fields. To make full use of the orientation information of neighborhood points, the proposed D-Conv module performs convolution in an orientation-aware manner by using a directionally constrained nearest neighborhood search. Then, we design a multiscale fully convolutional neural network with downsampling and upsampling blocks to enable multiscale point feature learning. The proposed D-FCN model can therefore process input point cloud with arbitrary sizes and directly predict the semantic labels for all the input points in an end-to-end manner. Without involving additional geometry features as input, the proposed method demonstrates superior performance on the International Society for Photogrammetry and Remote Sensing (ISPRS) 3D labeling benchmark dataset. The results show that our model achieves a new state-of-the-art performance on powerline, car, and facade categories. Moreover, to demonstrate the generalization abilities of the proposed method, we conduct further experiments on the 2019 Data Fusion Contest Dataset. Our proposed method achieves superior performance than the comparing methods and accomplishes an overall accuracy of 95.6% and an average F1 score of 0.810. Numéro de notice : A2020-119 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2020.02.004 Date de publication en ligne : 18/02/2020 En ligne : https://doi.org/10.1016/j.isprsjprs.2020.02.004 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94743
in ISPRS Journal of photogrammetry and remote sensing > vol 162 (April 2020) . - pp 50 - 62[article]A LiDAR–optical data fusion approach for identifying and measuring small stream impoundments and dams / Benjamin Swan in Transactions in GIS, Vol 24 n° 1 (February 2020)
[article]
Titre : A LiDAR–optical data fusion approach for identifying and measuring small stream impoundments and dams Type de document : Article/Communication Auteurs : Benjamin Swan, Auteur ; Robert Griffin, Auteur Année de publication : 2020 Article en page(s) : pp 174 - 188 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] Alabama (Etats-Unis)
[Termes IGN] barrage
[Termes IGN] cours d'eau
[Termes IGN] données lidar
[Termes IGN] écosystème
[Termes IGN] fusion de données
[Termes IGN] image à haute résolution
[Termes IGN] image optique
[Termes IGN] image Sentinel-MSI
[Termes IGN] modèle numérique de surface
[Termes IGN] Normalized Difference Water Index
[Termes IGN] ressources en eau
[Termes IGN] semis de points
[Termes IGN] surveillance hydrologique
[Termes IGN] système d'information géographiqueRésumé : (auteur) This article outlines a semi‐autonomous approach for using a fusion of light detection and ranging (LiDAR) and optical remote sensing data to identify and measure small impoundments (SIs) and their dams. Quantifying such water bodies as hydrologic network features is critical for ecosystem and species conservation, emergency management, and water resource planning; however, such features are incompletely mapped at national and state levels. By merging an airborne LiDAR‐derived point cloud with a normalized water index using airborne optical imagery we demonstrate an improvement upon single‐source methods for identifying these water bodies; classification accuracies increased over 10% by using this multi‐source fusion method. Furthermore, the method presented here illustrates a cost‐effective pathway to improve the National Inventory of Dams (NID) and includes a framework for estimating dam heights, with results showing strong correlations between derived dam heights and those recorded in the NID (r=.78). With the steady increase in available LiDAR coverage, the 87,000+ dams in the NID could be updated using this technique, a method which could also be expanded for global inventories of SIs and dams. Numéro de notice : A2020-103 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/tgis.12595 Date de publication en ligne : 13/11/2019 En ligne : https://doi.org/10.1111/tgis.12595 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94694
in Transactions in GIS > Vol 24 n° 1 (February 2020) . - pp 174 - 188[article]Cartographie sémantique hybride de scènes urbaines à partir de données image et Lidar / Mohamed Boussaha (2020)
Titre : Cartographie sémantique hybride de scènes urbaines à partir de données image et Lidar Titre original : 3D hybrid urban scene semantic mapping from multi-modal data Type de document : Thèse/HDR Auteurs : Mohamed Boussaha , Auteur ; Bruno Vallet , Directeur de thèse ; Patrick Rives, Directeur de thèse Editeur : Champs/Marne : Université Paris-Est Année de publication : 2020 Projets : PLaTINUM / Gouet-Brunet, Valérie Note générale : bibliographie
Dissertation submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy delivered by Université Paris-EstLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage dirigé
[Termes IGN] carte de profondeur
[Termes IGN] descripteur
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données multisource
[Termes IGN] image panoramique
[Termes IGN] maillage par triangles
[Termes IGN] reconstruction 3D du bâti
[Termes IGN] réflectance
[Termes IGN] scène intérieure
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] système de numérisation mobile
[Termes IGN] texturage
[Termes IGN] traitement de semis de pointsIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Avec la démocratisation des applications collaboratives d'assistance à la navigation et l'avènement de robots autonomes, la cartographie mobile suscite ces dernières années une attention croissante, tant dans les milieux académiques qu'industriels. La numérisation de l'environnement offre non seulement une connaissance fine et exhaustive permettant aux usagers d'anticiper et de planifier leurs déplacements, mais garantit aussi la disponibilité d'informations fiables notamment en cas d'éventuelle défaillance des capteurs visuels d'un véhicule autonome. S'agissant d'un enjeu crucial pour une navigation fiable, la cartographie mobile soulève en revanche de nombreux défis en matière de robustesse, de précision et de passage à l'échelle. Cette problématique fait appel à des méthodes qui requièrent une capacité de traitement de données massives avec une précision centimétrique tout en gérant les spécificités de l'acquisition (la variabilité du niveau de détails, des occultations et des fortes variations de luminosité).
Cette thèse porte sur le développement d'un référentiel global géolocalisé de l'environnement urbain constitué de représentations 3D géométriques, photométriques et sémantiques. Dans un premier temps, une investigation approfondie de la représentation la plus adaptée à un tel référentiel, permet une reconstruction d'une carte haute définition à large échelle sous forme d'un maillage 3D texturé. Cette représentation est mise en place par fusion multimodale d'images orientées et de balayages LiDAR géo-référencés acquis depuis une plateforme de cartographie mobile terrestre. Par la suite, nous proposons d'intégrer l'aspect sémantique au référentiel 3D reconstruit en exploitant la complémentarité entre les modalités d'acquisition photométriques et géométriques. À travers la riche littérature sur le sujet, nous identifions l'absence d'un jeu de données urbain multimodal annoté incluant un maillage texturé à large échelle. Nous abordons ce verrou par la production d'un jeu de données composé de nuages de point 3D, d'images 2D perspectives et panoramiques, de cartes de profondeur et de reflectance ainsi qu'un maillage texturé avec les annotations correspondantes à chaque modalité. Dans un second temps, nous considérons le référentiel comme un nuage de points structuré par un graphe d'adjacence. Nous introduisons une nouvelle approche de sur-segmentation par apprentissage supervisé. Cette méthode opère en deux temps: calcul de descripteurs locaux des points 3D par apprentissage profond de métrique, puis partition du nuage de points en zones uniformes, appelées superpoints. Les descripteurs sont appris de telle sorte qu'ils présentent de forts contrastes à l'interface entre objets, incitant la partition résultante à suivre leurs contours naturels. Nos expériences sur des scènes intérieures et extérieures montrent la nette supériorité de notre approche sur les méthodes de partition de nuage de points de l'état de l'art, qui ne reposaient pas jusqu'à là sur l'apprentissage machine. Nous montrons également que notre méthode peut être combinée à un algorithme de classification de superpoints pour obtenir d'excellents résultats en terme de segmentation sémantique, améliorant aussi l'état de l'art sur ce sujet. Enfin, nous étendons cette approche aux maillages texturés. Les triangles, structurés cette fois-ci par le graphe d'adjacence du maillage, sont partitionnés en groupes homogènes appelés superfacettes. À l'instar des nuages de points, des descripteurs locaux du maillage texturé sont appris de façon à ce que les frontières d'objets sémantiquement distincts présentent un contraste élevé. Ces descripteurs sont le résultat d'une fusion des descripteurs appris sur le maillage par convolution des arêtes d'une part, et des descripteurs de texture d'autre part. Les expériences réalisées sur notre jeu de données illustrent la supériorité de notre approche par rapport aux méthodes de l'état de l'art de sur-segmentation de maillage.Numéro de notice : 17674 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Geographical Information Sciences and technologies : UPE : 2020 Organisme de stage : LaSTIG (IGN) nature-HAL : Thèse En ligne : https://hal.science/tel-03276242v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98009 Fusion of 3D point clouds and hyperspectral data for the extraction of geometric and radiometric features of trees / Eduardo Alejandro Tusa Jumbo (2020)
Titre : Fusion of 3D point clouds and hyperspectral data for the extraction of geometric and radiometric features of trees Type de document : Thèse/HDR Auteurs : Eduardo Alejandro Tusa Jumbo, Auteur ; Jocelyn Chanussot, Directeur de thèse ; Jean-Matthieu Monnet, Encadrant ; Mauro Dalla Mura, Encadrant ; Jean-Baptiste Barré, Encadrant Editeur : Grenoble : Université de Grenoble Année de publication : 2020 Importance : 153 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de docteur de l'Université Grenoble Alpes, Signal image parole TelecomsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] Alpes (France)
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] espèce végétale
[Termes IGN] extraction de la végétation
[Termes IGN] forêt alpestre
[Termes IGN] fusion de données multisource
[Termes IGN] image hyperspectrale
[Termes IGN] inventaire forestier (techniques et méthodes)
[Termes IGN] inventaire forestier local
[Termes IGN] semis de points
[Termes IGN] télédétection par lidar
[Termes IGN] télédétection spatialeIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Mountain forests provide environmental ecosystem services (EES) to communities: supplying of recreational landscapes, protection against natural hazards, supporting biodiversity conservation, among others. The preservation of these EES through space and time requires a good characterization of the resources. Especially in mountains, stands are very heterogeneous and timber harvesting is economically possible thanks to trees of higher value. This is why we want to be able to map each tree and estimate its characteristics, including quality, which is related to its shape and growth conditions. Field inventories are not able to provide a wall to wall cover of detailed tree-level information on a large scale. On the other hand, remote sensing tools seem to be a promising technology because of the time efficient and the affordable costs for studying forest areas. LiDAR data provide detailed information from the vertical distribution and location of the trees, but it is limited for mapping species. Hyperspectral data are associated to absorption features in the canopy reflectance spectrum, but is not effective for characterizing tree geometry. Hyperspectral and LiDAR systems provide independent and complementary data that are relevant for the assessment of biophysical and biochemical attributes of forest areas. This PhD thesis deals with the fusion of LiDAR and hyperspectral data to characterize individual forest trees. The leading idea is to improve methods to derive forest information at tree-level by extracting geometric and radiometric features. The contributions of this research work relies on: i) an updated review of data fusion methods of LiDAR and hyperspectral data for forest monitoring, ii) an improved 3D segmentation algorithm for delineating individual tree crowns based on Adaptive Mean Shift (AMS3D) and an ellipsoid crown shape model, iii) a criterion for feature selection based on random forests score, 5-fold cross validation and a cumulative error function for forest tree species classification. The two main methods used to derive forest information at tree level are tested with remote sensing data acquired in the French Alps. Note de contenu : 1 Introduction
1.1 Forest
1.2 Principles of remote sensing
1.3 Motivation
1.4 Objectives
1.5 Thesis structure
2. Data Fusion 15
2.1 Principles of fusion
2.2 Low-level
2.3 Medium-level
2.4 High-level
2.5 Applications
3. Material 32
3.1 Field data
3.2 Study areas
3.3 ALS and hyperspectral data
4 ITC Delineation
4.1 Introduction
4.2 MS segmentation
4.3 AMS3D based on crown shape model
4.4 Experimental analysis
4.5 Conclusion
5. Tree Species Classification
5.1 Introduction
5.2 Study area
5.3 Methodology
5.4 Results and discussion
5.5 Conclusions
6. Conclusion and work perspectives
6.1 How data processing methods are applied in each level of data fusion for forest monitoring?
6.2 How a crown shape model can improve the segmentation of individual tree crowns?
6.3 Which feature combination contribute to characterize the forest tree species composition?Numéro de notice : 26582 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Signal image parole Telecoms : Grenoble : 2020 Organisme de stage : Grenoble Images Parole Signal Automatique GIPSA-lab nature-HAL : Thèse DOI : sans Date de publication en ligne : 30/07/2021 En ligne : https://tel.archives-ouvertes.fr/tel-03212453/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98403 De l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond / Lionel Matteo (2020)PermalinkMoving objects aware sensor mesh fusion for indoor reconstruction from a couple of 2D lidar scans / Teng Wu (2020)PermalinkPermalinkOn the adjustment, calibration and orientation of drone photogrammetry and laser-scanning / Emmanuel Clédat (2020)PermalinkOn the joint exploitation of optical and SAR satellite imagery for grassland monitoring / Anatol Garioud (2020)PermalinkRelevés par Lidar mobile de cours d’eau et intégration des profils aux relevés bathymétriques réalisés par sondeur mono-faisceau / Guillaume Didier (2020)PermalinkRestitution de profils verticaux de la distribution de gouttes de pluie à partir de mesures au sol et en altitude / Christophe Samboun (2020)PermalinkA versatile and efficient data fusion methodology for heterogeneous airborne LiDAR and optical imagery data acquired under unconstrained conditions / Thanh Huy Nguyen (2020)PermalinkUnsupervised classification of multispectral images embedded with a segmentation of panchromatic images using localized clusters / Ting Mao in IEEE Transactions on geoscience and remote sensing, vol 57 n° 11 (November 2019)PermalinkAutomated fusion of forest airborne and terrestrial point clouds through canopy density analysis / Wenxia Dai in ISPRS Journal of photogrammetry and remote sensing, vol 156 (October 2019)Permalink