Descripteur
Termes IGN > informatique > traitement automatique de données > fusion de données > fusion de données multisource
fusion de données multisource |
Documents disponibles dans cette catégorie (46)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Automatic registration method of multi-source point clouds based on building facades matching in urban scenes / Yumin Tan in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 12 (December 2022)
[article]
Titre : Automatic registration method of multi-source point clouds based on building facades matching in urban scenes Type de document : Article/Communication Auteurs : Yumin Tan, Auteur ; Yanzhe Shi, Auteur ; Yunxin Li, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 767 - 782 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie
[Termes IGN] algorithme ICP
[Termes IGN] appariement de formes
[Termes IGN] appariement de points
[Termes IGN] données lidar
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] façade
[Termes IGN] fusion de données multisource
[Termes IGN] modélisation 3D
[Termes IGN] photogrammétrie aérienne
[Termes IGN] points registration
[Termes IGN] Ransac (algorithme)
[Termes IGN] recalage de données localisées
[Termes IGN] scène urbaine
[Termes IGN] superposition de donnéesRésumé : (auteur) Both UAV photogrammetry and lidar have become common in deriv- ing three-dimensional models of urban scenes, and each has its own advantages and disadvantages. However, the fusion of these multisource data is still challenging, in which registration is one of the most important stages. In this paper, we propose a method of coarse point cloud registration which consists of two steps. The first step is to extract urban building facades in both an oblique photogrammetric point cloud and a lidar point cloud. The second step is to align the two point clouds using the extracted building facades. Object Vicinity Distribution Feature (Dijkman and Van Den Heuvel 2002) is introduced to describe the distribution of building facades and register the two heterologous point clouds. This method provides a good initial state for later refined registration process and is translation, rotation, and scale invariant. Experiment results show that the accuracy of this proposed automatic registration method is equiva- lent to the accuracy of manual registration with control points. Numéro de notice : A2022-882 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.22-00069R3 Date de publication en ligne : 01/12/2022 En ligne : https://doi.org/10.14358/PERS.22-00069R3 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102206
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 12 (December 2022) . - pp 767 - 782[article]Land surface phenology retrieval through spectral and angular harmonization of Landsat-8, Sentinel-2 and Gaofen-1 data / Jun Lu in Remote sensing, vol 14 n° 5 (March-1 2022)
[article]
Titre : Land surface phenology retrieval through spectral and angular harmonization of Landsat-8, Sentinel-2 and Gaofen-1 data Type de document : Article/Communication Auteurs : Jun Lu, Auteur ; Tao He, Auteur ; Dan-Xia Song, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 1296 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] distribution du coefficient de réflexion bidirectionnelle BRDF
[Termes IGN] fusion de données multisource
[Termes IGN] harmonisation des données
[Termes IGN] image Gaofen
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Terra-MODIS
[Termes IGN] indice de végétation
[Termes IGN] phénologie
[Termes IGN] réflectance spectrale
[Termes IGN] série temporelleRésumé : (auteur) Land Surface Phenology is an important characteristic of vegetation, which can be informative of its response to climate change. However, satellite-based identification of vegetation transition dates is hindered by inconsistencies in different observation platforms, including band settings, viewing angles, and scale effects. Therefore, time-series data with high consistency are necessary for monitoring vegetation phenology. This study proposes a data harmonization approach that involves band conversion and bidirectional reflectance distribution function (BRDF) correction to create normalized reflectance from Landsat-8, Sentinel-2A, and Gaofen-1 (GF-1) satellite data, characterized by the same spectral and illumination-viewing angles as the Moderate-Resolution Imaging Spectroradiometer (MODIS) and Nadir BRDF Adjusted Reflectance (NBAR). The harmonized data are then subjected to the spatial and temporal adaptive reflectance fusion model (STARFM) to produce time-series data with high spatio–temporal resolution. Finally, the transition date of typical vegetation was estimated using regular 30 m spatial resolution data. The results show that the data harmonization method proposed in this study assists in improving the consistency of different observations under different viewing angles. The fusion result of STARFM was improved after eliminating differences in the input data, and the accuracy of the remote-sensing-based vegetation transition date was improved by the fused time-series curve with the input of harmonized data. The root mean square error (RMSE) estimation of the vegetation transition date decreased by 9.58 days. We concluded that data harmonization eliminates the viewing-angle effect and is essential for time-series vegetation monitoring through improved data fusion. Numéro de notice : A2022-209 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs14051296 Date de publication en ligne : 07/03/2022 En ligne : https://doi.org/10.3390/rs14051296 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100027
in Remote sensing > vol 14 n° 5 (March-1 2022) . - n° 1296[article]Spatiotemporal temperature fusion based on a deep convolutional network / Xuehan Wang in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 2 (February 2022)
[article]
Titre : Spatiotemporal temperature fusion based on a deep convolutional network Type de document : Article/Communication Auteurs : Xuehan Wang, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; Deren Li, Auteur Année de publication : 2022 Article en page(s) : pp 93 - 101 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] apprentissage profond
[Termes IGN] Chine
[Termes IGN] données spatiotemporelles
[Termes IGN] fusion de données multisource
[Termes IGN] image Landsat
[Termes IGN] image Terra-MODIS
[Termes IGN] réseau neuronal convolutif
[Termes IGN] série temporelle
[Termes IGN] température au sol
[Termes IGN] température de surfaceRésumé : (Auteur) High-spatiotemporal-resolution land surface temperature (LST) images are essential in various fields of study. However, due to technical constraints, sensing systems have difficulty in providing LSTs with both high spatial and high temporal resolution. In this study, we propose a multi-scale spatiotemporal temperature-image fusion network (MSTTIFN) to generate high-spatial-resolution LST products. The MSTTIFN builds nonlinear mappings between the input Moderate Resolution Imaging Spectroradiometer (MODIS) LSTs and the out- put Landsat LSTs at the target date with two pairs of references and therefore enhances the resolution of time-series LSTs. We conduct experiments on the actual Landsat and MODIS data in two study areas (Beijing and Shandong) and compare our proposed MSTTIFN with four competing methods: the Spatial and Temporal Adaptive Reflectance Fusion Model, the Flexible Spatiotemporal Data Fusion Model, a two-stream convolutional neural network (StfNet), and a deep learning-based spatiotemporal temperature-fusion network. Results reveal that the MSTTIFN achieves the best and most stable performance. Numéro de notice : A2022-064 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00023R2 Date de publication en ligne : 01/02/2022 En ligne : https://doi.org/10.14358/PERS.21-00023R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99724
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 2 (February 2022) . - pp 93 - 101[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022021 SL Revue Centre de documentation Revues en salle Disponible
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy / Qing Ding in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
[article]
Titre : Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy Type de document : Article/Communication Auteurs : Qing Ding, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 17 - 28 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] analyse comparative
[Termes IGN] carte d'occupation du sol
[Termes IGN] cartographie urbaine
[Termes IGN] Chine
[Termes IGN] fusion de données multisource
[Termes IGN] image optique
[Termes IGN] image radar
[Termes IGN] précision de la classificationRésumé : (Auteur) Taking the Futian District as the research area, this study proposed an effective urban land cover mapping framework fusing optical and SAR data. To simplify the model complexity and improve the mapping results, various feature selection methods were compared and evaluated. The results showed that feature selection can eliminate irrelevant features, increase the mean correlation between features slightly, and improve the classification accuracy and computational efficiency significantly. The recursive feature elimination-support vector machine (RFE-SVM) model obtained the best results, with an overall accuracy of 89.17% and a kappa coefficient of 0.8695, respectively. In addition, this study proved that the fusion of optical and SAR data can effectively improve mapping and reduce the confusion between different land covers. The novelty of this study is with the insight into the merits of multi-source data fusion and feature selection in the land cover mapping process over complex urban environments, and to evaluate the performance differences between different feature selection methods. Numéro de notice : A2022-061 Affiliation des auteurs : non IGN Thématique : URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00030R2 Date de publication en ligne : 01/01/2022 En ligne : https://doi.org/10.14358/PERS.21-00030R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99703
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 1 (January 2022) . - pp 17 - 28[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022011 SL Revue Centre de documentation Revues en salle Disponible Multi-view urban scene classification with a complementary-information learning model / Wanxuan Geng in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)PermalinkLithological mapping based on fully convolutional network and multi-source geological data / Ziye Wang in Remote sensing, vol 13 n° 23 (December-1 2021)PermalinkDisaster Image Classification by Fusing Multimodal Social Media Data / Zhiqiang Zou in ISPRS International journal of geo-information, vol 10 n° 10 (October 2021)PermalinkUtilisation de l'apprentissage profond dans la modélisation 3D urbaine [Partie 1] / Hamza Ben Addou in Géomatique expert, n° 135 (septembre 2021)PermalinkAn improved computerized ionospheric tomography model fusing 3-D multisource ionospheric data enabled quantifying the evolution of magnetic storm / Jian Kong in IEEE Transactions on geoscience and remote sensing, vol 59 n° 5 (May 2021)PermalinkDeep convolutional neural networks for scene understanding and motion planning for self-driving vehicles / Abdelhak Loukkal (2021)PermalinkPermalinkOptimisation des protocoles de numérisation 3D multi-capteurs et de fusion de données hétérogènes au sein de l'entreprise Premier plan / Elisa Gautron (2021)PermalinkPermalinkReconnaissance spécifique et cartographie des arbres de la canopée en forêt tropicale en Guyane française par fusion de données lidar et hyperspectrales appliquées aux besoins de la gestion forestière / Anthony Laybros (2021)PermalinkPermalinkStructure from motion for complex image sets / Mario Michelini in ISPRS Journal of photogrammetry and remote sensing, vol 166 (August 2020)PermalinkCartographie sémantique hybride de scènes urbaines à partir de données image et Lidar / Mohamed Boussaha (2020)PermalinkFusion of 3D point clouds and hyperspectral data for the extraction of geometric and radiometric features of trees / Eduardo Alejandro Tusa Jumbo (2020)PermalinkDe l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond / Lionel Matteo (2020)PermalinkPermalinkAutomated fusion of forest airborne and terrestrial point clouds through canopy density analysis / Wenxia Dai in ISPRS Journal of photogrammetry and remote sensing, vol 156 (October 2019)PermalinkA CNN-based subpixel level DSM generation approach via single image super-resolution / Yongjun Zhang in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 10 (October 2019)PermalinkMultimodal scene understanding: algorithms, applications and deep learning, ch. 11. Decision fusion of remote-sensing data for land cover classification / Arnaud Le Bris (2019)PermalinkA TV prior for high-quality scalable multi-view stereo reconstruction / Andreas Kuhn in International journal of computer vision, vol 124 n° 1 (August 2017)PermalinkContributions méthodologiques pour la caractérisation des milieux par imagerie optique et lidar / Nesrine Chehata (2017)PermalinkFusion of graph embedding and sparse representation for feature extraction and classification of hyperspectral imagery / Fulin Luo in Photogrammetric Engineering & Remote Sensing, PERS, vol 83 n° 1 (January 2017)PermalinkAn integrated framework for the spatio–temporal–spectral fusion of remote sensing images / Huanfeng Shen in IEEE Transactions on geoscience and remote sensing, vol 54 n° 12 (December 2016)PermalinkOn the impact of airborne gravity data to fused gravity field models / Dimitrios Bolkas in Journal of geodesy, vol 90 n° 6 (June 2016)PermalinkMapping nocturnal light pollution / Jordi Corbera in GIM international [en ligne], vol 29 n° 11 (November 2015)PermalinkRegistration of aerial imagery and lidar data in desert areas using sand ridges / Na Li in Photogrammetric record, vol 30 n° 151 (September - November 2015)PermalinkReconstruction de modèles 3D photoréalistes de façades à partir de données image et laser terrestre / Jérôme Demantké (2014)Permalink3D range scan enhancement using image-based methods / Steffen Herbort in ISPRS Journal of photogrammetry and remote sensing, vol 84 (October 2013)PermalinkObject-based fusion of multitemporal multiangle ENVISAT ASAR and HJ-1B multispectral data for urban land-cover mapping / Yifang Ban in IEEE Transactions on geoscience and remote sensing, vol 51 n° 4 Tome 1 (April 2013)PermalinkA quality prediction method for building model reconstruction using LiDAR data and topographic maps / R. You in IEEE Transactions on geoscience and remote sensing, vol 49 n° 9 (September 2011)PermalinkElectromagnetic land surface classification through integration of optical and radar remote sensing data / J. Baek in IEEE Transactions on geoscience and remote sensing, vol 49 n° 4 (April 2011)PermalinkThe power of full motion vidéo: fusing with other intelligent data / L. Wood in Geoinformatics, vol 13 n° 2 (01/03/2010)PermalinkCollective detection: enhancing GNSS receiver sensitivity by combining signals from multiple satellites / Penina Axelrad in GPS world, vol 21 n° 1 (January 2010)PermalinkPré-étude pour la constitution d'une base de données d'occupation du sol / Clément Delgrange (2010)PermalinkImproving GPS localization with vision and inertial sensing / A. Fakih in Geomatica, vol 63 n° 4 (December 2009)PermalinkIFSAR and LIDAR: the best of both worlds / Intermap technologies in GEO: Geoconnexion international, vol 8 n° 1 (january 2009)PermalinkScanning and imaging in the city of Bergamo: building geo-knowledge / Luigi Colombo in Geoinformatics, vol 12 n° 1 (01/01/2009)PermalinkA flexible multi-source spatial-data fusion system for environmental status assessment at continental scale / P. Carrara in International journal of geographical information science IJGIS, vol 22 n° 6-7 (june 2008)PermalinkBuilding recognition from multi-aspect high-resolution InSAR data in urban areas / A. Thiele in IEEE Transactions on geoscience and remote sensing, vol 45 n° 11 Tome 1 (November 2007)PermalinkBuilding detection by fusion of airborne laser scanner data and multi-spectral images: performance evaluation and sensitivity analysis / Franz Rottensteiner in ISPRS Journal of photogrammetry and remote sensing, vol 62 n° 2 (June 2007)PermalinkIntegration of panchromatic and SAR features into multispectral spot images using the "à trous" wavelet decomposition / Y. Chibani in International Journal of Remote Sensing IJRS, vol 28 n° 10 (May 2007)Permalink