Descripteur
Documents disponibles dans cette catégorie (307)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Spatiotemporal fusion modelling using STARFM: Examples of Landsat 8 and Sentinel-2 NDVI in Bavaria / Maninder Singh Dhillon in Remote sensing, vol 14 n° 3 (February-1 2022)
[article]
Titre : Spatiotemporal fusion modelling using STARFM: Examples of Landsat 8 and Sentinel-2 NDVI in Bavaria Type de document : Article/Communication Auteurs : Maninder Singh Dhillon, Auteur ; Thorsten Dahms, Auteur ; Carina Kübert-Flock, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 677 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] Bavière (Allemagne)
[Termes IGN] carte d'occupation du sol
[Termes IGN] fusion de données
[Termes IGN] image Landsat-8
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Terra-MODIS
[Termes IGN] Normalized Difference Vegetation Index
[Termes IGN] pouvoir de résolution géométrique
[Termes IGN] réflectance
[Termes IGN] surveillance de la végétation
[Termes IGN] utilisation du solRésumé : (auteur) The increasing availability and variety of global satellite products provide a new level of data with different spatial, temporal, and spectral resolutions; however, identifying the most suited resolution for a specific application consumes increasingly more time and computation effort. The region’s cloud coverage additionally influences the choice of the best trade-off between spatial and temporal resolution, and different pixel sizes of remote sensing (RS) data may hinder the accurate monitoring of different land cover (LC) classes such as agriculture, forest, grassland, water, urban, and natural-seminatural. To investigate the importance of RS data for these LC classes, the present study fuses NDVIs of two high spatial resolution data (high pair) (Landsat (30 m, 16 days; L) and Sentinel-2 (10 m, 5–6 days; S), with four low spatial resolution data (low pair) (MOD13Q1 (250 m, 16 days), MCD43A4 (500 m, one day), MOD09GQ (250 m, one-day), and MOD09Q1 (250 m, eight day)) using the spatial and temporal adaptive reflectance fusion model (STARFM), which fills regions’ cloud or shadow gaps without losing spatial information. These eight synthetic NDVI STARFM products (2: high pair multiply 4: low pair) offer a spatial resolution of 10 or 30 m and temporal resolution of 1, 8, or 16 days for the entire state of Bavaria (Germany) in 2019. Due to their higher revisit frequency and more cloud and shadow-free scenes (S = 13, L = 9), Sentinel-2 (overall R2 = 0.71, and RMSE = 0.11) synthetic NDVI products provide more accurate results than Landsat (overall R2 = 0.61, and RMSE = 0.13). Likewise, for the agriculture class, synthetic products obtained using Sentinel-2 resulted in higher accuracy than Landsat except for L-MOD13Q1 (R2 = 0.62, RMSE = 0.11), resulting in similar accuracy preciseness as S-MOD13Q1 (R2 = 0.68, RMSE = 0.13). Similarly, comparing L-MOD13Q1 (R2 = 0.60, RMSE = 0.05) and S-MOD13Q1 (R2 = 0.52, RMSE = 0.09) for the forest class, the former resulted in higher accuracy and precision than the latter. Conclusively, both L-MOD13Q1 and S-MOD13Q1 are suitable for agricultural and forest monitoring; however, the spatial resolution of 30 m and low storage capacity makes L-MOD13Q1 more prominent and faster than that of S-MOD13Q1 with the 10-m spatial resolution. Numéro de notice : A2022-124 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs14030677 Date de publication en ligne : 31/01/2022 En ligne : https://doi.org/10.3390/rs14030677 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99687
in Remote sensing > vol 14 n° 3 (February-1 2022) . - n° 677[article]Spatiotemporal temperature fusion based on a deep convolutional network / Xuehan Wang in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 2 (February 2022)
[article]
Titre : Spatiotemporal temperature fusion based on a deep convolutional network Type de document : Article/Communication Auteurs : Xuehan Wang, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; Deren Li, Auteur Année de publication : 2022 Article en page(s) : pp 93 - 101 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] apprentissage profond
[Termes IGN] Chine
[Termes IGN] données spatiotemporelles
[Termes IGN] fusion de données multisource
[Termes IGN] image Landsat
[Termes IGN] image Terra-MODIS
[Termes IGN] réseau neuronal convolutif
[Termes IGN] série temporelle
[Termes IGN] température au sol
[Termes IGN] température de surfaceRésumé : (Auteur) High-spatiotemporal-resolution land surface temperature (LST) images are essential in various fields of study. However, due to technical constraints, sensing systems have difficulty in providing LSTs with both high spatial and high temporal resolution. In this study, we propose a multi-scale spatiotemporal temperature-image fusion network (MSTTIFN) to generate high-spatial-resolution LST products. The MSTTIFN builds nonlinear mappings between the input Moderate Resolution Imaging Spectroradiometer (MODIS) LSTs and the out- put Landsat LSTs at the target date with two pairs of references and therefore enhances the resolution of time-series LSTs. We conduct experiments on the actual Landsat and MODIS data in two study areas (Beijing and Shandong) and compare our proposed MSTTIFN with four competing methods: the Spatial and Temporal Adaptive Reflectance Fusion Model, the Flexible Spatiotemporal Data Fusion Model, a two-stream convolutional neural network (StfNet), and a deep learning-based spatiotemporal temperature-fusion network. Results reveal that the MSTTIFN achieves the best and most stable performance. Numéro de notice : A2022-064 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00023R2 Date de publication en ligne : 01/02/2022 En ligne : https://doi.org/10.14358/PERS.21-00023R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99724
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 2 (February 2022) . - pp 93 - 101[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022021 SL Revue Centre de documentation Revues en salle Disponible
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy / Qing Ding in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
[article]
Titre : Improving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy Type de document : Article/Communication Auteurs : Qing Ding, Auteur ; Zhenfeng Shao, Auteur ; Xiao Huang, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 17 - 28 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] analyse comparative
[Termes IGN] carte d'occupation du sol
[Termes IGN] cartographie urbaine
[Termes IGN] Chine
[Termes IGN] fusion de données multisource
[Termes IGN] image optique
[Termes IGN] image radar
[Termes IGN] précision de la classificationRésumé : (Auteur) Taking the Futian District as the research area, this study proposed an effective urban land cover mapping framework fusing optical and SAR data. To simplify the model complexity and improve the mapping results, various feature selection methods were compared and evaluated. The results showed that feature selection can eliminate irrelevant features, increase the mean correlation between features slightly, and improve the classification accuracy and computational efficiency significantly. The recursive feature elimination-support vector machine (RFE-SVM) model obtained the best results, with an overall accuracy of 89.17% and a kappa coefficient of 0.8695, respectively. In addition, this study proved that the fusion of optical and SAR data can effectively improve mapping and reduce the confusion between different land covers. The novelty of this study is with the insight into the merits of multi-source data fusion and feature selection in the land cover mapping process over complex urban environments, and to evaluate the performance differences between different feature selection methods. Numéro de notice : A2022-061 Affiliation des auteurs : non IGN Thématique : URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00030R2 Date de publication en ligne : 01/01/2022 En ligne : https://doi.org/10.14358/PERS.21-00030R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99703
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 1 (January 2022) . - pp 17 - 28[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022011 SL Revue Centre de documentation Revues en salle Disponible Learning spatio-temporal representations of satellite time series for large-scale crop mapping / Vivien Sainte Fare Garnot (2022)
Titre : Learning spatio-temporal representations of satellite time series for large-scale crop mapping Type de document : Thèse/HDR Auteurs : Vivien Sainte Fare Garnot , Auteur ; Clément Mallet , Directeur de thèse ; Nesrine Chehata , Directeur de thèse ; Loïc Landrieu , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2022 Note générale : bibliographie
Thèse de doctorat de l’Université Gustave Eiffel, École doctorale n° 532, Mathématiques, Science, et Technologie de l’Information et de la Communication (MSTIC), Spécialité de doctorat : Signal, Image, et AutomatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] attention (apprentissage automatique)
[Termes IGN] carte agricole
[Termes IGN] fusion de données
[Termes IGN] image multibande
[Termes IGN] image multitemporelle
[Termes IGN] image satellite
[Termes IGN] parcelle agricole
[Termes IGN] segmentation sémantique
[Termes IGN] série temporelleMots-clés libres : segmentation panotique mécanisme d'auto-attention encodage spatio-temporel Index. décimale : THESE Thèses et HDR Résumé : (auteur) L’analyse et le suivi de l’activité agricole d’un territoire nécessitent la production de cartes agricoles précises. Ces cartes identifient les bordures de chaque parcelle ainsi que le type de culture. Ces informations sont précieuses pour une variété d’acteurs et ont des applications allant de la prévision de la production alimentaire à l’allocation de subventions ou à la gestion environnementale. Alors que les premières cartes agricoles nécessitaient un travail de terrain fastidieux, l’essor de l’analyse automatisée des données de télédétection a ouvert la voie à des cartographies à grande échelle. Dans cette thèse, nous nous intéressons à la cartographie agricole à partir de séries temporelles d’images satellites multispectrales. Dans la plupart des travaux de la dernière décennie, ce problème est abordé à l’aide de modèles d’apprentissage automatique entraînés sur des descripteurs conçus par des experts. Cependant, dans la littérature de vision par ordinateur (VO) et du traitement automatique de la langue (TAL), l’entrainement de modèles d’apprentissage profond à apprendre des représentations à partir des données brutes a constitué un changement de paradigme menant à des performances sans précédent sur une variété de problèmes. De même, l’application de ces modèles d’apprentissage profond aux données de télédétection a considérablement amélioré l’état de l’art pour la cartographie agricole ainsi que d’autres tâches de télédétection. Dans cette thèse, nous soutenons que les méthodes actuelles issues des littérature VO et TAL ignorent certaines des spécificités des données de télédétection et ne devraient pas être appliquées directement. Au contraire, nous prônons le développement de méthodes adaptées, exploitant les structures spatiales, spectrales et temporelles spécifiques des séries temporelles d’images satellites. Nous caractérisons la cartographie agricole successivement comme une classification à la parcelle, une segmentation sémantique et une segmentation panoptique. Pour chacune de ces tâches, nous développons une nouvelle architecture d’apprentissage profond adaptée aux particularités de la tâche et inspirée des avancées récentes de l’apprentissage profond. Nous montrons que nos méthodes établissent un nouvel état de l’art tout en étant plus efficaces que les approches concurrentes. Plus précisément, nous présentons (i) le Pixel-Set Encoder, un encodeur spatial efficace, (ii) le Temporal Attention Encoder (TAE), un encodeur temporel utilisant la self-attention, (iii) le U-net avec TAE, une variation du TAE pour les problèmes de segmentation, et (iv) Parcel-as-Point, un module de segmentation d’instance conçu pour la segmentation panoptique des parcelles. Nous étudions également comment exploiter des séries temporelles multimodales combinant des informations optiques et radar. Nous améliorons ainsi les performances de nos modèles ainsi que leur robustesse aux nuages. Enfin, nous considérons l’arbre hiérarchique qui décrit les relations sémantiques entre les types de culture. Nous présentons une méthode pour inclure cette structure dans le processus d’apprentissage. Sur la classification des cultures ainsi que d’autres problèmes de classification, notre méthode réduit le taux d’erreurs entre les classes sémantiquement éloignées. En plus de ces méthodes, nous introduisons PASTIS, le premier jeu de données en accès libre de séries temporelles d’images satellites multimodales avec des annotations panoptiques de parcelles agricoles. Nous espérons que ce jeu de données, ainsi que les résultats prometteurs présentés dans cette thèse encourageront d’autres travaux de recherche et aideront à produire des cartes agricoles toujours plus précises. Note de contenu : 0- Introduction
1- Spatial and temporal encoding for parcel-based classification
2- Pixel-based segmentation methods
3- Leveraging multiple modalities
4- Leveraging the class hierarchy
5- ConclusionNuméro de notice : 17694 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse de doctorat : Signal, Image, et Automatique : Gustave Eiffel : 2022 Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 13/01/2022 En ligne : https://hal.science/tel-03524429v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99366 Multi-view urban scene classification with a complementary-information learning model / Wanxuan Geng in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)PermalinkA PCA-PD fusion method for change detection in remote sensing multi temporal images / Soltana Achour in Geocarto international, vol 37 n° 1 ([01/01/2022])PermalinkAdaptive feature weighted fusion nested U-Net with discrete wavelet transform for change detection of high-resolution remote sensing images / Congcong Wang in Remote sensing, vol 13 n° 24 (December-2 2021)PermalinkImproving soil moisture retrieval from GNSS-interferometric reflectometry: parameters optimization and data fusion via neural network / Yajie Shi in International Journal of Remote Sensing IJRS, vol 42 n° 23 (1-10 December 2021)PermalinkLithological mapping based on fully convolutional network and multi-source geological data / Ziye Wang in Remote sensing, vol 13 n° 23 (December-1 2021)PermalinkRobust registration of aerial images and LiDAR data using spatial constraints and Gabor structural features / Bai Zhu in ISPRS Journal of photogrammetry and remote sensing, Vol 181 (November 2021)PermalinkSTC-Det: A slender target detector combining shadow and target information in optical satellite images / Zhaoyang Huang in Remote sensing, vol 13 n° 20 (October-2 2021)PermalinkDisaster Image Classification by Fusing Multimodal Social Media Data / Zhiqiang Zou in ISPRS International journal of geo-information, vol 10 n° 10 (October 2021)PermalinkUtilisation de l'apprentissage profond dans la modélisation 3D urbaine [Partie 1] / Hamza Ben Addou in Géomatique expert, n° 135 (septembre 2021)PermalinkImproving urban land cover classification with combined use of Sentinel-2 and Sentinel-1 imagery / Bin Hu in ISPRS International journal of geo-information, vol 10 n° 8 (August 2021)Permalink