Descripteur
Documents disponibles dans cette catégorie (32)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Learnable Earth Parser: Discovering 3D Prototypes in Aerial Scans Type de document : Article/Communication Auteurs : Romain Loiseau , Auteur ; Elliot Vincent, Auteur ; Mathieu Aubry, Auteur ; Loïc Landrieu , Auteur Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Année de publication : 2023 Importance : 18 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] information complexe
[Termes IGN] scène 3D
[Termes IGN] semis de points
[Termes IGN] zone urbaineRésumé : (auteur) We propose an unsupervised method for parsing large 3D scans of real-world scenes into interpretable parts. Our goal is to provide a practical tool for analyzing 3D scenes with unique characteristics in the context of aerial surveying and mapping, without relying on application-specific user annotations. Our approach is based on a probabilistic reconstruction model that decomposes an input 3D point cloud into a small set of learned prototypical shapes. Our model provides an interpretable reconstruction of complex scenes and leads to relevant instance and semantic segmentations. To demonstrate the usefulness of our results, we introduce a novel dataset of seven diverse aerial LiDAR scans. We show that our method outperforms state-of-the-art unsupervised methods in terms of decomposition accuracy while remaining visually interpretable. Our method offers significant advantage over existing approaches, as it does not require any manual annotations, making it a practical and efficient tool for 3D scene analysis. Our code and dataset are available at https://imagine.enpc.fr/~loiseaur/learnable-earth-parser Numéro de notice : P2023-005 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Preprint nature-HAL : Préprint DOI : sans En ligne : https://hal.science/hal-04135416 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103347 PSMNet-FusionX3 : LiDAR-guided deep learning stereo dense matching on aerial images / Teng Wu (2023)
Titre : PSMNet-FusionX3 : LiDAR-guided deep learning stereo dense matching on aerial images Type de document : Article/Communication Auteurs : Teng Wu , Auteur ; Bruno Vallet , Auteur ; Marc Pierrot-Deseilligny , Auteur Editeur : Computer vision foundation CVF Année de publication : 2023 Conférence : CVPR 2023, IEEE Conference on Computer Vision and Pattern Recognition workshops 18/06/2023 22/06/2023 Vancouver Colombie britannique - Canada OA Proceedings Importance : pp 6526 - 6535 Note générale : bibliographie
voir aussi https://openaccess.thecvf.com/content/CVPR2023W/PCV/supplemental/Wu_PSMNet-FusionX3_LiDAR-Guided_Deep_CVPRW_2023_supplemental.pdfLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] appariement dense
[Termes IGN] apprentissage profond
[Termes IGN] chaîne de traitement
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image aérienne à axe vertical
[Termes IGN] scène 3D
[Termes IGN] Triangulated Irregular NetworkRésumé : (auteur) Dense image matching (DIM) and LiDAR are two complementary techniques for recovering the 3D geometry of real scenes. While DIM provides dense surfaces, they are often noisy and contaminated with outliers. Conversely, LiDAR is more accurate and robust, but less dense and more expensive compared to DIM. In this work, we investigate learning-based methods to refine surfaces produced by photogrammetry with sparse LiDAR point clouds. Unlike the current state-of-the-art approaches in the computer vision community, our focus is on aerial acquisitions typical in photogrammetry. We propose a densification pipeline that adopts a PSMNet backbone with triangulated irregular network interpolation based expansion, feature enhancement in cost volume, and conditional cost volume normalization, i.e. PSMNet-FusionX3. Our method works better on low density and is less sensitive to distribution, demonstrating its effectiveness across a range of LiDAR point cloud densities and distributions, including analyses of dataset shifts. Furthermore, we have made both our aerial (image and disparity) dataset and code available for public use. Further information can be found at https://github.com/ whuwuteng/PSMNet-FusionX3. Numéro de notice : C2023-006 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication DOI : sans En ligne : https://openaccess.thecvf.com/content/CVPR2023W/PCV/papers/Wu_PSMNet-FusionX3_Li [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103277 Railway lidar semantic segmentation with axially symmetrical convolutional learning / Antoine Manier in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-2-2022 (2022 edition)
[article]
Titre : Railway lidar semantic segmentation with axially symmetrical convolutional learning Type de document : Article/Communication Auteurs : Antoine Manier, Auteur ; Julien Moras, Auteur ; Jean-Christophe Michelin , Auteur ; Hélène Piet-Lahanier, Auteur Année de publication : 2022 Article en page(s) : pp 135 - 142 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] scène 3D
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] voie ferréeRésumé : (auteur) This paper presents a new deep-learning-based method for 3D Point Cloud Semantic Segmentation specifically designed for processing real-world LIDAR railway scenes. The new approach relies on the use of spatial local point cloud transformations for convolutional learning. These transformations allow an increased robustness to varying point cloud densities while preserving metric information and a sufficient descriptive ability. The resulting performances are illustrated with results on railway data from two distinct LIDAR point cloud datasets acquired in industrial settings. The quality of the extraction of useful information for maintenance operations and topological analysis is pointed together with a noticeable robustness to point cloud variations in distribution and point redundancy. Numéro de notice : A2022-433 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.5194/isprs-annals-V-2-2022-135-2022 Date de publication en ligne : 17/05/2022 En ligne : https://doi.org/10.5194/isprs-annals-V-2-2022-135-2022 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100739
in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences > vol V-2-2022 (2022 edition) . - pp 135 - 142[article]Virtual laser scanning of dynamic scenes created from real 4D topographic point cloud data / Lukas Winiwarter in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-2-2022 (2022 edition)
[article]
Titre : Virtual laser scanning of dynamic scenes created from real 4D topographic point cloud data Type de document : Article/Communication Auteurs : Lukas Winiwarter, Auteur ; Katharina Anders, Auteur ; Daniel Schröder, Auteur ; Bernhard Höfle, Auteur Année de publication : 2022 Article en page(s) : pp 79 - 86 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] détection de changement
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] filtre de Kalman
[Termes IGN] modèle de simulation
[Termes IGN] scène 3D
[Termes IGN] scène virtuelle
[Termes IGN] semis de points
[Termes IGN] Tyrol (Autriche)Résumé : (autuer) Virtual laser scanning (VLS) allows the generation of realistic point cloud data at a fraction of the costs required for real acquisitions. It also allows carrying out experiments that would not be feasible or even impossible in the real world, e.g., due to time constraints or when hardware does not exist. A critical part of a simulation is an adequate substitution of reality. In the case of VLS, this concerns the scanner, the laser-object interaction, and the scene. In this contribution, we present a method to recreate a realistic dynamic scene, where the surface changes over time. We first apply change detection and quantification on a real dataset of an erosion-affected high-mountain slope in Tyrol, Austria, acquired with permanent terrestrial laser scanning (TLS). Then, we model and extract the time series of a single change form, and transfer it to a virtual model scene. The benefit of such a transfer is that no physical modelling of the change processes is required. In our example, we use a Kalman filter with subsequent clustering to extract a set of erosion rills from a time series of high-resolution TLS data. The change magnitudes quantified at the locations of these rills are then transferred to a triangular mesh, representing the virtual scene. Subsequently, we apply VLS to investigate the detectability of such erosion rills from airborne laser scanning at multiple subsequent points in time. This enables us to test if, e.g., a certain flying altitude is appropriate in a disaster response setting for the detection of areas exposed to immediate danger. To ensure a successful transfer, the spatial resolution and the accuracy of the input dataset are much higher than the accuracy and resolution that are being simulated. Furthermore, the investigated change form is detected as significant in the input data. We, therefore, conclude the model of the dynamic scene derived from real TLS data to be an appropriate substitution for reality. Numéro de notice : A2022-437 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.5194/isprs-annals-V-2-2022-79-2022 Date de publication en ligne : 17/05/2022 En ligne : https://doi.org/10.5194/isprs-annals-V-2-2022-79-2022 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100746
in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences > vol V-2-2022 (2022 edition) . - pp 79 - 86[article]
Titre : Learning surface reconstruction from point clouds in the wild Type de document : Thèse/HDR Auteurs : Raphaël Sulzer , Auteur ; Renaud Marlet, Directeur de thèse ; Bruno Vallet , Directeur de thèse ; Loïc Landrieu , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2022 Importance : 139 p. Note générale : bibliographie
Thèse de doctorat de l'Université Gustave EiffelLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] données localisées 3D
[Termes IGN] reconstruction d'objet
[Termes IGN] réseau neuronal de graphes
[Termes IGN] scène 3D
[Termes IGN] scène urbaine
[Termes IGN] semis de points
[Termes IGN] triangulation de Delaunay
[Termes IGN] visibilitéIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les technologies d’acquisition 3D récentes permettent de représenter le monde sous la forme de nuages de points 3D. Cependant, ces nuages de points ne sont généralement pas suffisants pour modéliser des processus physiques complexes. Au contraire, de nombreuses applications en sciences et en ingénierie nécessitent une représentation sous la forme d’une surface continue. Dans cette thèse, nous considérons le problème de reconstruction de surface à partir de nuages de points par apprentissage profond supervisé. En particulier, nous nous intéressons à la reconstruction de surface à partir de nuages de points réels, c’est-à-dire générés à partir de mesures effectuées sur le terrain: soit directement avec des scanners 3D, soit indirectement par photogrammétrie. Ces nuages représentent souvent de grandes scènes contenant de multiples objets de formes diverses. Ces nuages peuvent aussi inclure des défauts tels que du bruit d’acquisition, des valeurs aberrantes, un échantillonnage non uniforme ou des données manquantes, ce qui complique la reconstruction d’une surface topologiquement et géométriquement précise. Après avoir été utilisé avec succès pour de nombreuses tâches de vision par ordinateur, l’apprentissage profond supervisé a récemment été appliqué au problème de reconstruction de surface. Cependant, les méthodes courantes souffrent encore de deux principales limitations. Tout d’abord, l’apprentissage profond supervisé nécessite souvent un grand nombre de données annotées. Les nuages de points réels décrivent des objets ou des scènes complexes, ce qui rend la collecte de surfaces réelles coûteuse, ambigüe ou mathématiquement difficile. Deuxièmement, les algorithmes d’apprentissage existants sont souvent trop gourmands en calcul et en mémoire pour traiter des millions de points simultanément. Nous abordons ces deux problèmes en introduisant de nouvelles méthodes d’apprentissage profond supervisé pour traiter des nuages de points à grande échelle avec des caractéristiques du monde réel tout en étant entrainées sur de petits ensembles de données synthétiques. Cette thèse comprend trois contributions principales. Tout d’abord, nous passons en revue et évaluons plusieurs méthodes de reconstruction de surface à partir de nuages de points. En plus des méthodes d’apprentissage, nous évaluons certaines des approches traditionnelles proposées au cours des trois dernières décennies. Pour rendre le problème tractable et produire des résultats géométriquement et topologiquement précis même dans des conditions difficiles, les méthodes sans apprentissage reposent souvent sur des hypothèses sur la structure des nuages de points en entrées ou des surfaces reconstruites. En revanche, les algorithmes de reconstruction de surfaces par apprentissage profond (DSR) apprennent ces hypothèses directement à partir d’un ensemble d’entrainement de nuages de points et des surfaces réelles leur correspondant. Nous évaluons les méthodes d’apprentissage et traditionnelles pour la tâche de reconstruction d’objets à partir de nuages de points avec défauts scannés synthétiquement. Nos résultats montrent que les méthodes DSR sont capables de reconstruire des surfaces précises et complètes à partir de nuages de points présentant un degré modéré de défauts atténués, à condition que ces défauts soient présents pendant l’entrainement. Cependant, la qualité de la reconstruction pour les nuages de points avec défauts non présents dans l’ensemble d’entrainement est souvent moins bonne que celle des méthodes sans apprentissage. Les méthodes sans apprentissage, en revanche, sont d’une grande robustesse aux défauts, même avec une paramétrisation constante pour différentes entrées. Un autre défaut de la plupart des méthodes DSR est le fait qu’elles ignorent la pose des capteurs et n’opèrent que sur la position des points. La visibilité des capteurs contient pourtant des informations importantes sur l’occupation de l’espace et l’orientation de la surface. Nous présentons deux façons simples d’enrichir les nuages de points avec des informations de visibilité, qui peuvent être directement exploitées par des réseaux de reconstruction de surface en ne nécessitant qu’une adaptation minimale. Nous montrons que les modifications proposées améliorent systématiquement la précision des surfaces générées ainsi que la capacité des réseaux à généraliser à des nouveaux domaines. Nous publions également les versions scannées synthétiquement de base de données de formes 3D largement utilisées, afin d’encourager le développement d’algorithmes DSR capables d’utiliser les informations de visibilité. Enfin, nous présentons une nouvelle méthode de reconstruction de surface basée sur l’apprentissage et tenant compte de la visibilité pour les nuages de points réels à grande échelle. Notre méthode repose sur une triangulation 3D de Delaunay (3DT) dont les cellules sont classées comme intérieur ou extérieur de la surface recherchée par un réseau de convolution sur graphe (GNN) et un modèle énergétique résolvable avec une coupe de graphe. Le GNN utilise à la fois des attributs géométriques locaux et des informations de visibilité pour apprendre un modèle de visibilité à partir d’une petite quantité de données de formes synthétiques tout en généralisant aux acquisitions réelles. Numéro de notice : 17753 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 28/03/2023 En ligne : https://hal.science/tel-03968622v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103164 Scaling up and evaluating surface reconstruction from point clouds of open scenes / Yanis Marchand (2022)PermalinkMetaheuristics for the positioning of 3D objects based on image analysis of complementary 2D photographs / Arnaud Flori in Machine Vision and Applications, vol 32 n° 5 (September 2021)PermalinkActivity recognition in residential spaces with Internet of things devices and thermal imaging / Kshirasagar Naik in Sensors, vol 21 n° 3 (February 2021)PermalinkPermalinkCluttering reduction for interactive navigation and visualization of historical Images / Evelyn Paiz-Reyes (2021)PermalinkPermalinkHolographic SAR tomography 3-D reconstruction based on iterative adaptive approach and generalized likelihood ratio test / Dong Feng in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkRemote sensing and GIS / Basudeb Bhatta (2021)PermalinkVisualization of 3D property data and assessment of the impact of rendering attributes / Stefan Seipel in Journal of Geovisualization and Spatial Analysis, vol 4 n° 2 (December 2020)PermalinkGeometric distortion of historical images for 3D visualization / Evelyn Paiz-Reyes in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-2-2020 (August 2020)Permalink