Descripteur
Termes IGN > informatique > traitement automatique de données > fusion de données > fusion de données multisource
fusion de données multisource |
Documents disponibles dans cette catégorie (67)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Automatic registration method of multi-source point clouds based on building facades matching in urban scenes / Yumin Tan in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 12 (December 2022)
[article]
Titre : Automatic registration method of multi-source point clouds based on building facades matching in urban scenes Type de document : Article/Communication Auteurs : Yumin Tan, Auteur ; Yanzhe Shi, Auteur ; Yunxin Li, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 767 - 782 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie
[Termes IGN] algorithme ICP
[Termes IGN] appariement de formes
[Termes IGN] appariement de points
[Termes IGN] données lidar
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] façade
[Termes IGN] fusion de données multisource
[Termes IGN] modélisation 3D
[Termes IGN] photogrammétrie aérienne
[Termes IGN] points registration
[Termes IGN] Ransac (algorithme)
[Termes IGN] recalage de données localisées
[Termes IGN] scène urbaine
[Termes IGN] superposition de donnéesRésumé : (auteur) Both UAV photogrammetry and lidar have become common in deriv- ing three-dimensional models of urban scenes, and each has its own advantages and disadvantages. However, the fusion of these multisource data is still challenging, in which registration is one of the most important stages. In this paper, we propose a method of coarse point cloud registration which consists of two steps. The first step is to extract urban building facades in both an oblique photogrammetric point cloud and a lidar point cloud. The second step is to align the two point clouds using the extracted building facades. Object Vicinity Distribution Feature (Dijkman and Van Den Heuvel 2002) is introduced to describe the distribution of building facades and register the two heterologous point clouds. This method provides a good initial state for later refined registration process and is translation, rotation, and scale invariant. Experiment results show that the accuracy of this proposed automatic registration method is equiva- lent to the accuracy of manual registration with control points. Numéro de notice : A2022-882 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.22-00069R3 Date de publication en ligne : 01/12/2022 En ligne : https://doi.org/10.14358/PERS.22-00069R3 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102206
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 12 (December 2022) . - pp 767 - 782[article]Land surface phenology retrieval through spectral and angular harmonization of Landsat-8, Sentinel-2 and Gaofen-1 data / Jun Lu in Remote sensing, vol 14 n° 5 (March-1 2022)
[article]
Titre : Land surface phenology retrieval through spectral and angular harmonization of Landsat-8, Sentinel-2 and Gaofen-1 data Type de document : Article/Communication Auteurs : Jun Lu, Auteur ; Tao He, Auteur ; Dan-Xia Song, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 1296 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] distribution du coefficient de réflexion bidirectionnelle BRDF
[Termes IGN] fusion de données multisource
[Termes IGN] harmonisation des données
[Termes IGN] image Gaofen
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Terra-MODIS
[Termes IGN] indice de végétation
[Termes IGN] phénologie
[Termes IGN] réflectance spectrale
[Termes IGN] série temporelleRésumé : (auteur) Land Surface Phenology is an important characteristic of vegetation, which can be informative of its response to climate change. However, satellite-based identification of vegetation transition dates is hindered by inconsistencies in different observation platforms, including band settings, viewing angles, and scale effects. Therefore, time-series data with high consistency are necessary for monitoring vegetation phenology. This study proposes a data harmonization approach that involves band conversion and bidirectional reflectance distribution function (BRDF) correction to create normalized reflectance from Landsat-8, Sentinel-2A, and Gaofen-1 (GF-1) satellite data, characterized by the same spectral and illumination-viewing angles as the Moderate-Resolution Imaging Spectroradiometer (MODIS) and Nadir BRDF Adjusted Reflectance (NBAR). The harmonized data are then subjected to the spatial and temporal adaptive reflectance fusion model (STARFM) to produce time-series data with high spatio–temporal resolution. Finally, the transition date of typical vegetation was estimated using regular 30 m spatial resolution data. The results show that the data harmonization method proposed in this study assists in improving the consistency of different observations under different viewing angles. The fusion result of STARFM was improved after eliminating differences in the input data, and the accuracy of the remote-sensing-based vegetation transition date was improved by the fused time-series curve with the input of harmonized data. The root mean square error (RMSE) estimation of the vegetation transition date decreased by 9.58 days. We concluded that data harmonization eliminates the viewing-angle effect and is essential for time-series vegetation monitoring through improved data fusion. Numéro de notice : A2022-209 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs14051296 Date de publication en ligne : 07/03/2022 En ligne : https://doi.org/10.3390/rs14051296 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100027
in Remote sensing > vol 14 n° 5 (March-1 2022) . - n° 1296[article]Spatiotemporal temperature fusion based on a deep convolutional network / Xuehan Wang in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 2 (February 2022)
[article]
Titre : Spatiotemporal temperature fusion based on a deep convolutional network Type de document : Article/Communication Auteurs : Xuehan Wang, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; Deren Li, Auteur Année de publication : 2022 Article en page(s) : pp 93 - 101 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] apprentissage profond
[Termes IGN] Chine
[Termes IGN] données spatiotemporelles
[Termes IGN] fusion de données multisource
[Termes IGN] image Landsat
[Termes IGN] image Terra-MODIS
[Termes IGN] réseau neuronal convolutif
[Termes IGN] série temporelle
[Termes IGN] température au sol
[Termes IGN] température de surfaceRésumé : (Auteur) High-spatiotemporal-resolution land surface temperature (LST) images are essential in various fields of study. However, due to technical constraints, sensing systems have difficulty in providing LSTs with both high spatial and high temporal resolution. In this study, we propose a multi-scale spatiotemporal temperature-image fusion network (MSTTIFN) to generate high-spatial-resolution LST products. The MSTTIFN builds nonlinear mappings between the input Moderate Resolution Imaging Spectroradiometer (MODIS) LSTs and the out- put Landsat LSTs at the target date with two pairs of references and therefore enhances the resolution of time-series LSTs. We conduct experiments on the actual Landsat and MODIS data in two study areas (Beijing and Shandong) and compare our proposed MSTTIFN with four competing methods: the Spatial and Temporal Adaptive Reflectance Fusion Model, the Flexible Spatiotemporal Data Fusion Model, a two-stream convolutional neural network (StfNet), and a deep learning-based spatiotemporal temperature-fusion network. Results reveal that the MSTTIFN achieves the best and most stable performance. Numéro de notice : A2022-064 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00023R2 Date de publication en ligne : 01/02/2022 En ligne : https://doi.org/10.14358/PERS.21-00023R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99724
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 2 (February 2022) . - pp 93 - 101[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022021 SL Revue Centre de documentation Revues en salle Disponible
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy / Qing Ding in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
[article]
Titre : Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy Type de document : Article/Communication Auteurs : Qing Ding, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 17 - 28 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] analyse comparative
[Termes IGN] carte d'occupation du sol
[Termes IGN] cartographie urbaine
[Termes IGN] Chine
[Termes IGN] fusion de données multisource
[Termes IGN] image optique
[Termes IGN] image radar
[Termes IGN] précision de la classificationRésumé : (Auteur) Taking the Futian District as the research area, this study proposed an effective urban land cover mapping framework fusing optical and SAR data. To simplify the model complexity and improve the mapping results, various feature selection methods were compared and evaluated. The results showed that feature selection can eliminate irrelevant features, increase the mean correlation between features slightly, and improve the classification accuracy and computational efficiency significantly. The recursive feature elimination-support vector machine (RFE-SVM) model obtained the best results, with an overall accuracy of 89.17% and a kappa coefficient of 0.8695, respectively. In addition, this study proved that the fusion of optical and SAR data can effectively improve mapping and reduce the confusion between different land covers. The novelty of this study is with the insight into the merits of multi-source data fusion and feature selection in the land cover mapping process over complex urban environments, and to evaluate the performance differences between different feature selection methods. Numéro de notice : A2022-061 Affiliation des auteurs : non IGN Thématique : URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00030R2 Date de publication en ligne : 01/01/2022 En ligne : https://doi.org/10.14358/PERS.21-00030R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99703
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 1 (January 2022) . - pp 17 - 28[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022011 SL Revue Centre de documentation Revues en salle Disponible Multi-view urban scene classification with a complementary-information learning model / Wanxuan Geng in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)PermalinkLithological mapping based on fully convolutional network and multi-source geological data / Ziye Wang in Remote sensing, vol 13 n° 23 (December-1 2021)PermalinkDisaster Image Classification by Fusing Multimodal Social Media Data / Zhiqiang Zou in ISPRS International journal of geo-information, vol 10 n° 10 (October 2021)PermalinkUtilisation de l'apprentissage profond dans la modélisation 3D urbaine [Partie 1] / Hamza Ben Addou in Géomatique expert, n° 135 (septembre 2021)PermalinkAn improved computerized ionospheric tomography model fusing 3-D multisource ionospheric data enabled quantifying the evolution of magnetic storm / Jian Kong in IEEE Transactions on geoscience and remote sensing, vol 59 n° 5 (May 2021)PermalinkDeep convolutional neural networks for scene understanding and motion planning for self-driving vehicles / Abdelhak Loukkal (2021)PermalinkPermalinkOptimisation des protocoles de numérisation 3D multi-capteurs et de fusion de données hétérogènes au sein de l'entreprise Premier plan / Elisa Gautron (2021)PermalinkPermalinkReconnaissance spécifique et cartographie des arbres de la canopée en forêt tropicale en Guyane française par fusion de données lidar et hyperspectrales appliquées aux besoins de la gestion forestière / Anthony Laybros (2021)Permalink