Descripteur
Documents disponibles dans cette catégorie (47)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Cross-dataset learning for generalizable land use scene classification Type de document : Article/Communication Auteurs : Dimitri Gominski , Auteur ; Valérie Gouet-Brunet , Auteur ; Liming Chen, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2022 Projets : Alegoria / Gouet-Brunet, Valérie Conférence : EarthVision 2022, Large Scale Computer Vision for Remote Sensing Imagery, workshop joint to CVPR 2022 19/06/2022 24/06/2022 New Orleans Louisiane - Etats-Unis OA Proceedings Importance : pp 1382 - 1391 Note générale : bibliographie
in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, 2022, pp. 1382-1391Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] cadre conceptuel
[Termes IGN] descripteur
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] intelligence artificielle
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] utilisation du solRésumé : (auteur) Few-shot and cross-domain land use scene classification methods propose solutions to classify unseen classes or uneen visual distributions, but are hardly applicable to real-world situations due to restrictive assumptions. Few-shot methods involve episodic training on restrictive training subsets with small feature extractors, while cross-domain methods are only applied to common classes. The underlying challenge remains open: can we accurately classify new scenes on new datasets? In this paper, we propose a new framework for few-shot, cross-domain classification. Our retrieval-inspired approach exploits the interrelations in both the training and testing data to output class labels using compact descriptors. Results show that our method can accurately produce land-use predictions on unseen datasets and unseen classes, going beyond the traditional few-shot or cross-domain formulation, and allowing cross-dataset training. Numéro de notice : C2022-031 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers IEEE Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/CVPRW56347.2022.00144 En ligne : https://openaccess.thecvf.com/content/CVPR2022W/EarthVision/papers/Gominski_Cros [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101087
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125
Titre : Domain adaptation for urban scene segmentation Type de document : Thèse/HDR Auteurs : Antoine Saporta, Auteur ; Matthieu Cord, Directeur de thèse Editeur : Paris : Sorbonne Université Année de publication : 2022 Importance : 147 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de Sorbonne Université, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification non dirigée
[Termes IGN] entropie
[Termes IGN] Mapillary
[Termes IGN] navigation autonome
[Termes IGN] réseau antagoniste génératif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) This thesis tackles some of the scientific locks of perception systems based on neural networks for autonomous vehicles. This dissertation discusses domain adaptation, a class of tools aiming at minimizing the need for labeled data. Domain adaptation allows generalization to so-called target data that share structures with the labeled so-called source data allowing supervision but nevertheless following a different statistical distribution. First, we study the introduction of privileged information in the source data, for instance, depth labels. The proposed strategy, BerMuDA, bases its domain adaptation on a multimodal representation obtained by bilinear fusion, modeling complex interactions between segmentation and depth. Next, we examine self-supervised learning strategies in domain adaptation, relying on selecting predictions on the unlabeled target data, serving as pseudo-labels. We propose two new selection criteria: first, an entropic criterion with ESL; then, with ConDA, using an estimate of the true class probability. Finally, the extension of adaptation scenarios to several target domains as well as in a continual learning framework is proposed. Two approaches are presented to extend traditional adversarial methods to multi-target domain adaptation: Multi-Dis. and MTKT. In a continual learning setting for which the target domains are discovered sequentially and without rehearsal, the proposed CTKT approach adapts MTKT to this new problem to tackle catastrophic forgetting. Note de contenu : 1- Introduction
2- Unsupervised domain adaptation
3- Leveraging priviledge information for unsupervised domain adaptation
4- Estimating and exploiting confident pseudo-labels for self-training
5- Adaptation to multiple domains
6- ConclusionNuméro de notice : 24079 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Sorbonne Université : 2022 Organisme de stage : Institut des Systèmes Intelligents et de Robotique DOI : sans En ligne : https://theses.hal.science/tel-03886201 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102213
Titre : Learning surface reconstruction from point clouds in the wild Type de document : Thèse/HDR Auteurs : Raphaël Sulzer , Auteur ; Renaud Marlet, Directeur de thèse ; Bruno Vallet , Directeur de thèse ; Loïc Landrieu , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2022 Importance : 139 p. Note générale : bibliographie
Thèse de doctorat de l'Université Gustave EiffelLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] données localisées 3D
[Termes IGN] reconstruction d'objet
[Termes IGN] réseau neuronal de graphes
[Termes IGN] scène 3D
[Termes IGN] scène urbaine
[Termes IGN] semis de points
[Termes IGN] triangulation de Delaunay
[Termes IGN] visibilitéIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les technologies d’acquisition 3D récentes permettent de représenter le monde sous la forme de nuages de points 3D. Cependant, ces nuages de points ne sont généralement pas suffisants pour modéliser des processus physiques complexes. Au contraire, de nombreuses applications en sciences et en ingénierie nécessitent une représentation sous la forme d’une surface continue. Dans cette thèse, nous considérons le problème de reconstruction de surface à partir de nuages de points par apprentissage profond supervisé. En particulier, nous nous intéressons à la reconstruction de surface à partir de nuages de points réels, c’est-à-dire générés à partir de mesures effectuées sur le terrain: soit directement avec des scanners 3D, soit indirectement par photogrammétrie. Ces nuages représentent souvent de grandes scènes contenant de multiples objets de formes diverses. Ces nuages peuvent aussi inclure des défauts tels que du bruit d’acquisition, des valeurs aberrantes, un échantillonnage non uniforme ou des données manquantes, ce qui complique la reconstruction d’une surface topologiquement et géométriquement précise. Après avoir été utilisé avec succès pour de nombreuses tâches de vision par ordinateur, l’apprentissage profond supervisé a récemment été appliqué au problème de reconstruction de surface. Cependant, les méthodes courantes souffrent encore de deux principales limitations. Tout d’abord, l’apprentissage profond supervisé nécessite souvent un grand nombre de données annotées. Les nuages de points réels décrivent des objets ou des scènes complexes, ce qui rend la collecte de surfaces réelles coûteuse, ambigüe ou mathématiquement difficile. Deuxièmement, les algorithmes d’apprentissage existants sont souvent trop gourmands en calcul et en mémoire pour traiter des millions de points simultanément. Nous abordons ces deux problèmes en introduisant de nouvelles méthodes d’apprentissage profond supervisé pour traiter des nuages de points à grande échelle avec des caractéristiques du monde réel tout en étant entrainées sur de petits ensembles de données synthétiques. Cette thèse comprend trois contributions principales. Tout d’abord, nous passons en revue et évaluons plusieurs méthodes de reconstruction de surface à partir de nuages de points. En plus des méthodes d’apprentissage, nous évaluons certaines des approches traditionnelles proposées au cours des trois dernières décennies. Pour rendre le problème tractable et produire des résultats géométriquement et topologiquement précis même dans des conditions difficiles, les méthodes sans apprentissage reposent souvent sur des hypothèses sur la structure des nuages de points en entrées ou des surfaces reconstruites. En revanche, les algorithmes de reconstruction de surfaces par apprentissage profond (DSR) apprennent ces hypothèses directement à partir d’un ensemble d’entrainement de nuages de points et des surfaces réelles leur correspondant. Nous évaluons les méthodes d’apprentissage et traditionnelles pour la tâche de reconstruction d’objets à partir de nuages de points avec défauts scannés synthétiquement. Nos résultats montrent que les méthodes DSR sont capables de reconstruire des surfaces précises et complètes à partir de nuages de points présentant un degré modéré de défauts atténués, à condition que ces défauts soient présents pendant l’entrainement. Cependant, la qualité de la reconstruction pour les nuages de points avec défauts non présents dans l’ensemble d’entrainement est souvent moins bonne que celle des méthodes sans apprentissage. Les méthodes sans apprentissage, en revanche, sont d’une grande robustesse aux défauts, même avec une paramétrisation constante pour différentes entrées. Un autre défaut de la plupart des méthodes DSR est le fait qu’elles ignorent la pose des capteurs et n’opèrent que sur la position des points. La visibilité des capteurs contient pourtant des informations importantes sur l’occupation de l’espace et l’orientation de la surface. Nous présentons deux façons simples d’enrichir les nuages de points avec des informations de visibilité, qui peuvent être directement exploitées par des réseaux de reconstruction de surface en ne nécessitant qu’une adaptation minimale. Nous montrons que les modifications proposées améliorent systématiquement la précision des surfaces générées ainsi que la capacité des réseaux à généraliser à des nouveaux domaines. Nous publions également les versions scannées synthétiquement de base de données de formes 3D largement utilisées, afin d’encourager le développement d’algorithmes DSR capables d’utiliser les informations de visibilité. Enfin, nous présentons une nouvelle méthode de reconstruction de surface basée sur l’apprentissage et tenant compte de la visibilité pour les nuages de points réels à grande échelle. Notre méthode repose sur une triangulation 3D de Delaunay (3DT) dont les cellules sont classées comme intérieur ou extérieur de la surface recherchée par un réseau de convolution sur graphe (GNN) et un modèle énergétique résolvable avec une coupe de graphe. Le GNN utilise à la fois des attributs géométriques locaux et des informations de visibilité pour apprendre un modèle de visibilité à partir d’une petite quantité de données de formes synthétiques tout en généralisant aux acquisitions réelles. Numéro de notice : 17753 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 28/03/2023 En ligne : https://hal.science/tel-03968622v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103164 Multi-view urban scene classification with a complementary-information learning model / Wanxuan Geng in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
[article]
Titre : Multi-view urban scene classification with a complementary-information learning model Type de document : Article/Communication Auteurs : Wanxuan Geng, Auteur ; Weixun Zhou, Auteur ; Shuanggen Jin, Auteur Année de publication : 2022 Article en page(s) : pp 65 - 72 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] données de terrain
[Termes IGN] données multisources
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] fusion de données multisource
[Termes IGN] image aérienne
[Termes IGN] niveau du sol
[Termes IGN] précision de la classification
[Termes IGN] scène urbaineRésumé : (Auteur) Traditional urban scene-classification approaches focus on images taken either by satellite or in aerial view. Although single-view images are able to achieve satisfactory results for scene classification in most situations, the complementary information provided by other image views is needed to further improve performance. Therefore, we present a complementary information-learning model (CILM) to perform multi-view scene classification of aerial and ground-level images. Specifically, the proposed CILM takes aerial and ground-level image pairs as input to learn view-specific features for later fusion to integrate the complementary information. To train CILM, a unified loss consisting of cross entropy and contrastive losses is exploited to force the network to be more robust. Once CILM is trained, the features of each view are extracted via the two proposed feature-extraction scenarios and then fused to train the support vector machine classifier for classification. The experimental results on two publicly available benchmark data sets demonstrate that CILM achieves remarkable performance, indicating that it is an effective model for learning complementary information and thus improving urban scene classification. Numéro de notice : A2022-063 Affiliation des auteurs : non IGN Thématique : IMAGERIE/URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00062R2 Date de publication en ligne : 01/01/2022 En ligne : https://doi.org/10.14358/PERS.21-00062R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99708
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 1 (January 2022) . - pp 65 - 72[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022011 SL Revue Centre de documentation Revues en salle Disponible PermalinkAutomatic registration of mobile mapping system Lidar points and panoramic-image sequences by relative orientation model / Ningning Zhu in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 12 (December 2021)PermalinkUtility-pole detection based on interwoven column generation from terrestrial mobile Laser scanner data / Siamak Talebi Nahr in Photogrammetric record, Vol 36 n° 176 (December 2021)PermalinkSingle annotated pixel based weakly supervised semantic segmentation under driving scenes / Xi Li in Pattern recognition, vol 116 (August 2021)PermalinkSemantic-aware label placement for augmented reality in street view / Jianqing Jia in The Visual Computer, vol 37 n° 7 (July 2021)PermalinkSpatio-temporal-spectral observation model for urban remote sensing / Zhenfeng Shao in Geo-spatial Information Science, vol 24 n° 3 (July 2021)PermalinkTowards efficient indoor/outdoor registration using planar polygons / Rahima Djahel in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-2-2021 (July 2021)PermalinkAn automatic workflow for orientation of historical images with large radiometric and geometric differences / Ferdinand Maiwald in Photogrammetric record, vol 36 n° 174 (June 2021)Permalink3D change detection using adaptive thresholds based on local point cloud density / Dan Liu in ISPRS International journal of geo-information, vol 10 n° 3 (March 2021)Permalink3D urban scene understanding by analysis of LiDAR, color and hyperspectral data / David Duque-Arias (2021)Permalink