Descripteur
Termes IGN > 1- Outils - instruments et méthodes
1- Outils - instruments et méthodes |
Documents disponibles dans cette catégorie (10862)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Deep image translation with an affinity-based change prior for unsupervised multimodal change detection / Luigi Tommaso Luppino in IEEE Transactions on geoscience and remote sensing, vol 60 n° 1 (January 2022)
![]()
[article]
Titre : Deep image translation with an affinity-based change prior for unsupervised multimodal change detection Type de document : Article/Communication Auteurs : Luigi Tommaso Luppino, Auteur ; Michael Kampffmeyer, Auteur ; filipo Maria Bianchi, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 4700422 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] analyse comparative
[Termes IGN] architecture de réseau
[Termes IGN] classification non dirigée
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de changement
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] réseau antagoniste génératifRésumé : (auteur) Image translation with convolutional neural networks has recently been used as an approach to multimodal change detection. Existing approaches train the networks by exploiting supervised information of the change areas, which, however, is not always available. A main challenge in the unsupervised problem setting is to avoid that change pixels affect the learning of the translation function. We propose two new network architectures trained with loss functions weighted by priors that reduce the impact of change pixels on the learning objective. The change prior is derived in an unsupervised fashion from relational pixel information captured by domain-specific affinity matrices. Specifically, we use the vertex degrees associated with an absolute affinity difference matrix and demonstrate their utility in combination with cycle consistency and adversarial training. The proposed neural networks are compared with the state-of-the-art algorithms. Experiments conducted on three real data sets show the effectiveness of our methodology. Numéro de notice : A2022-027 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2021.3056196 Date de publication en ligne : 17/02/2021 En ligne : https://doi.org/10.1109/TGRS.2021.3056196 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99263
in IEEE Transactions on geoscience and remote sensing > vol 60 n° 1 (January 2022) . - n° 4700422[article]Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles / Zhujun Xu (2022)
![]()
Titre : Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles Type de document : Thèse/HDR Auteurs : Zhujun Xu, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Directeur de thèse Editeur : Toulouse : Université de Toulouse Année de publication : 2022 Importance : 136 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, spécialité Informatique et TélécommunicationsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] architecture de réseau
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage de données
[Termes IGN] objet 3D
[Termes IGN] segmentation d'image
[Termes IGN] véhicule automobile
[Termes IGN] vidéo
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The objective of this thesis is to develop deep learning based 2D and 3D object detection and tracking methods on monocular video and apply them to the context of autonomous vehicles. Actually, when directly using still image detectors to process a video stream, the accuracy suffers from sampled image quality problems. Moreover, generating 3D annotations is time-consuming and expensive due to the data fusion and large numbers of frames. We therefore take advantage of the temporal information in videos such as the object consistency, to improve the performance. The methods should not introduce too much extra computational burden, since the autonomous vehicle demands a real-time performance.Multiple methods can be involved in different steps, for example, data preparation, network architecture and post-processing. First, we propose a post-processing method called heatmap propagation based on a one-stage detector CenterNet for video object detection. Our method propagates the previous reliable long-term detection in the form of heatmap to the upcoming frame. Then, to distinguish different objects of the same class, we propose a frame-to-frame network architecture for video instance segmentation by using the instance sequence queries. The tracking of instances is achieved without extra post-processing for data association. Finally, we propose a semi-supervised learning method to generate 3D annotations for 2D video object tracking dataset. This helps to enrich the training process for 3D object detection. Each of the three methods can be individually applied to leverage image detectors to video applications. We also propose two complete network structures to solve 2D and 3D object detection and tracking on monocular video. Note de contenu : 1- Introduction
2- Video object detection avec la heatmap propagation (propagation de carte de chaleur)
3- Video instance segmentation with instance sequence queries
4- Semi-supervised learning of monocular 3D object detection with 2D video tracking annotations
5- Conclusions and perspectivesNuméro de notice : 24072 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2022 DOI : sans En ligne : https://www.theses.fr/2022ESAE0019 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102136
Titre : Deep-learning based multiple land-cover map translation Type de document : Article/Communication Auteurs : Luc Baudoux , Auteur ; Jordi Inglada, Auteur ; Clément Mallet
, Auteur
Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2022 Projets : 1-Pas de projet / Conférence : IGARSS 2022, IEEE International Geoscience And Remote Sensing Symposium 17/07/2022 22/07/2022 Kuala Lumpur Malaysie Proceedings IEEE Importance : pp 1260 - 1263 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Bases de données localisées
[Termes IGN] apprentissage profond
[Termes IGN] base de données d'occupation du sol
[Termes IGN] cadre conceptuel
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] segmentation sémantiqueRésumé : (auteur) This paper presents a framework for simultaneously translating multiple land-cover maps into a given one in a supervised way. Conversely to existing approaches working on 1–1 translation, we propose a multi-translation setup that increases the generalizability and translation performance, especially on land-cover maps covering restricted spatial extents. The proposed method mainly assumes that the map of interest spatially overlaps at least with one of the other maps. High performance translation is achieved with a Convolutional Neural Network (CNN) based encoder-decoder frame-work trained with three goals: (i) high-quality translation; (ii) self-reconstruction ability; (iii) mapping of all datasets into a common representation space. Country-scale experimental results show the method effectiveness in translating six highly heterogeneous land-cover maps, achieving significantly better results than the traditional semantic-based method and better results than CNN trained for a 1–1 translation task (+ 9.7% in Overall Accuracy (OA) and +12% in macro F1-score (mF1)). Numéro de notice : C2022-039 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : https://hal.science/hal-03983066v1/document Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IGARSS46834.2022.9883056 En ligne : https://doi.org/10.1109/IGARSS46834.2022.9883056 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101765
Titre : Deep learning based vehicle detection in aerial imagery Type de document : Monographie Auteurs : Lars Wilko Sommer, Éditeur scientifique Editeur : Karlsruhe [Allemagne] : KIT Scientific Publishing Année de publication : 2022 Importance : 276 p. Format : 15 x 21 cm ISBN/ISSN/EAN : 978-3-7315-1113-7 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] ancre
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] filtre
[Termes IGN] image aérienne
[Termes IGN] véhiculeRésumé : (éditeur) This book proposes a novel deep learning based detection method, focusing on vehicle detection in aerial imagery recorded in top view. The base detection framework is extended by two novel components to improve the detection accuracy by enhancing the contextual and semantical content of the employed feature representation. To reduce the inference time, a lightweight CNN architecture is proposed as base architecture and a novel module that restricts the search area is introduced. Note de contenu : 1- Introduction
2- Related work
3- Concept
4- Experimental setup
5- Base framework
6- Integration of contextual knowledge
7- Runtime optimization
8- Evaluation
9- Conclusions and outlookNuméro de notice : 28685 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Recueil / ouvrage collectif DOI : 10.5445/KSP/1000135415 En ligne : https://doi.org/10.5445/KSP/1000135415 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100015
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 PermalinkDeveloping the potential of airborne lidar systems for the sustainable management of forests / Karun Dayal (2022)
PermalinkEditing maps of landscape elements according to their potential influence on animals by combining multi-source data: a case study about red foxes in urban environment / Laurence Jolivet (2022)
PermalinkEmpirical comparison between stochastic and deterministic modifiers over the French Auvergne geoid computation test-bed / Ropesh Goyal in Survey review, vol 54 n° 382 (January 2022)
PermalinkPermalinkPermalinkÉvolution rétrospective et prospective d’un massif dunaire par imagerie multispectrale et LiDAR / Iris Jeuffrard (2022)
PermalinkExamining the integration of Landsat operational land imager with Sentinel-1 and vegetation indices in mapping southern yellow pines (Loblolly, Shortleaf, and Virginia pines) / Clement E. Akumu in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
PermalinkFusion de données hyperspectrales et panchromatiques dans le domaine réflectif / Yohann Constans (2022)
PermalinkGenerating geographical location descriptions with spatial templates: a salient toponym driven approach / Mark M. Hall in International journal of geographical information science IJGIS, vol 36 n° 1 (January 2022)
PermalinkGenerating GPS decoupled clock products for precise point positioning with ambiguity resolution / Shuai Liu in Journal of geodesy, vol 96 n° 1 (January 2022)
PermalinkGénération d’un jeu de données d’entraînement et mise en oeuvre d’une architecture de détection par deep learning des numéros de parcelles sur les plans du cadastre Napoléonien / Tiecoumba Ibrahim Tamela (2022)
PermalinkA GIS-based landslide susceptibility mapping and variable importance analysis using artificial intelligent training-based methods / Pengxiang Zhao in Remote sensing, vol 14 n° 1 (January-1 2022)
PermalinkGlobal canopy height regression and uncertainty estimation from GEDI LIDAR waveforms with deep ensembles / Nico Lang in Remote sensing of environment, vol 268 (January 2022)
PermalinkGuidelines for standardizing the design of tactile maps: A review of research and best practice / Jakub Wabiński in Cartographic journal (the), vol 59 n° 3 (August 2022)
PermalinkHarmonisation de la production cartographique dans le cadre des Programmes d’Actions de Prévention des Inondations / Nils Deslandes (2022)
PermalinkHigh-resolution canopy height map in the Landes forest (France) based on GEDI, Sentinel-1, and Sentinel-2 data with a deep learning approach / Martin Schwartz (2022)
PermalinkHistograms of oriented mosaic gradients for snapshot spectral image description / Lulu Chen in ISPRS Journal of photogrammetry and remote sensing, vol 183 (January 2022)
PermalinkHistorical shoreline analysis and field monitoring at Ennore coastal stretch along the Southeast coast of India / M. Dhananjayan in Marine geodesy, vol 45 n° 1 (January 2022)
PermalinkHistorical Vltava River valley–various historical sources within web mapping environment / Jiří Krejčí in ISPRS International journal of geo-information, vol 11 n° 1 (January 2022)
PermalinkPermalinkImproving urban land cover mapping with the fusion of optical and SAR data based on feature selection strategy / Qing Ding in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
PermalinkInteractive HGIS platform union of Lublin (1569): A geomatic solution for discovering the Jagiellonian heritage of the city / Jakub Kuna in Journal of Cultural Heritage, vol 53 (January–February 2022)
PermalinkLandslide evolution pattern revealed by multi-temporal DSMs obtained from historical aerial images / Michele Santangelo (2022)
PermalinkLarge-scale dimensional metrology for geodesy: First results from the European GeoMetre project / Florian Pollinger (2022)
PermalinkLearning spatio-temporal representations of satellite time series for large-scale crop mapping / Vivien Sainte Fare Garnot (2022)
PermalinkMapping burned areas and land-uses in Kangaroo Island using an object-based image classification framework and Landsat 8 Imagery from Google Earth Engine / Jiyu Liu in Geomatics, Natural Hazards and Risk, vol 13 (2022)
PermalinkPermalinkPermalinkModalités et rythmes d'évolution des falaises des Vaches Noires (Normandie, France) : caractérisation et quantification des dynamiques hydrogravitaires par approches multi-scalaires / Thomas Roulland (2022)
PermalinkModélisation du lien entre éruptions et glissements de flancs au Piton de la Fournaise / Quentin Dumont (2022)
PermalinkMonitoring and analysis of crop irrigation dynamics in Central Italy through the use of MODIS NDVI data / Marta Chiesi in European journal of remote sensing, vol 55 n° 1 (2022)
PermalinkMonitoring forest-savanna dynamics in the Guineo-Congolian transition area of the centre region of Cameroon / Le Bienfaiteur Sagang Takougoum (2022)
PermalinkMonitoring grassland dynamics by exploiting multi-modal satellite image time series / Anatol Garioud (2022)
PermalinkMulti-criteria geographic analysis for automated cartographic generalization / Guillaume Touya in Cartographic journal (the), vol 59 n° 1 (February 2022)
PermalinkMulti-frequency quadrifilar helix antennas for cm-accurate GNSS positioning / Lambert Wanninger in Journal of applied geodesy, vol 16 n° 1 (January 2022)
PermalinkPermalinkA multipath and thermal noise joint error characterization and exploitation for low-cost GNSS PVT estimators in urban environment / Eustachio Roberto Matera (2022)
PermalinkNew Fuzzy-AHP Matlab based graphical user interface (GUI) for a broad range of users: Sample applications in the environmental field / Meryem Tahri in Computers & geosciences, vol 158 (January 2022)
PermalinkNon-linear GNSS signal processing applied to land observation with high-rate airborne reflectometry / Hamza Issa (2022)
PermalinkA novel unmixing-based hypersharpening method via convolutional neural network / Xiaochen Lu in IEEE Transactions on geoscience and remote sensing, vol 60 n° 1 (January 2022)
PermalinkNumérique versus symbolique : dialogue ontologique entre deux approches / Hélène Mathian in Revue internationale de géomatique, vol 31 n° 1-2 (janvier - juin 2022)
PermalinkOn-orbit BDS signals and transmit antenna gain analysis for a geostationary satellite / Meng Wang in Advances in space research, vol 69 n° 7 (April 2022)
PermalinkPlanning coastal Mediterranean stone pine (Pinus pinea L.) reforestations as a green infrastructure: combining GIS techniques and statistical analysis to identify management options / Luigi Portoghesi in Annals of forest research, vol 65 n° 1 (January - June 2022)
PermalinkPredicting AIS reception using tropospheric propagation forecast and machine learning / Zackary Vanche (2022)
Permalink