Descripteur
Documents disponibles dans cette catégorie (85)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
A voxel- and graph-based strategy for segmenting man-made infrastructures using perceptual grouping laws: comparison and evaluation / Yusheng Xu in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 6 (juin 2018)
[article]
Titre : A voxel- and graph-based strategy for segmenting man-made infrastructures using perceptual grouping laws: comparison and evaluation Type de document : Article/Communication Auteurs : Yusheng Xu, Auteur ; Ludwig Hoegner, Auteur ; Sebastian Tuttas, Auteur ; Uwe Stilla, Auteur Année de publication : 2018 Article en page(s) : pp 377 - 391 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] bati
[Termes IGN] données localisées 3D
[Termes IGN] octree
[Termes IGN] partition des données
[Termes IGN] prise en compte du contexte
[Termes IGN] reconstruction 3D
[Termes IGN] scène urbaine
[Termes IGN] segmentation
[Termes IGN] semis de points
[Termes IGN] théorie des graphes
[Termes IGN] voxelRésumé : (auteur) In this paper, we report a novel strategy for segmenting 3D point clouds using a voxel structure and graph-based clustering with perceptual grouping laws. It provides a completely automatic solution for partitioning point clouds of man-made infrastructure. Two different segmentation methods using voxel and supervoxel structures are presented and evaluated. To increase the efficiency and the robustness of the segmentation process, the voxelization with octree-based structure is introduced, which can suppress effects of noise, outliers, and unevenly distributed point densities as well. The clustering of over-segmented voxels and supervoxels is achieved using graph theory on the basis of the local contextual information, which is commonly conducted merely with pairwise information in conventional clustering algorithms. The graphical model is constructed according to perceptual grouping laws, considering geometric information associated with points. Experiments using both laser scanning and photogrammetric point clouds have demonstrated that the proposed methods can achieve good results, especially complex scenes and nonplanar object surfaces, with F1-measures better than 0.67 for all the testing samples. Quantitative comparisons between the proposed approaches and other representative segmentation methods also confirm the effectiveness and the efficiency of the former. Moreover, a series of experiments is carried out, to investigate the methods' sensitivity with respect to various parameters on the segmentation results. Numéro de notice : A2018-231 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.84.6.377 Date de publication en ligne : 01/06/2018 En ligne : https://doi.org/10.14358/PERS.84.6.377 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90173
in Photogrammetric Engineering & Remote Sensing, PERS > vol 84 n° 6 (juin 2018) . - pp 377 - 391[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2018061 RAB Revue Centre de documentation En réserve L003 Disponible Large-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)
[article]
Titre : Large-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net Type de document : Article/Communication Auteurs : Timo Hackel, Auteur ; Jan Dirk Wegner, Auteur ; Nikolay Savinov, Auteur ; Lubor Ladicky, Auteur ; Konrad Schindler, Auteur ; Marc Pollefeys, Auteur Année de publication : 2018 Article en page(s) : pp 297 - 308 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage dirigé
[Termes IGN] apprentissage profond
[Termes IGN] classification
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] état de l'art
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsRésumé : (Auteur) In this paper, we review current state-of-the-art in 3D point cloud classification, present a new 3D point cloud classification benchmark data set of single scans with over four billion manually labeled points, and discuss first available results on the benchmark. Much of the stunning recent progress in 2D image interpretation can be attributed to the availability of large amounts of training data, which have enabled the (supervised) learning of deep neural networks. With the data set presented in this paper, we aim to boost the performance of CNNs also for 3D point cloud labeling. Our hope is that this will lead to a breakthrough of deep learning also for 3D (geo-) data. The semantic3D.net data set consists of dense point clouds acquired with static terrestrial laser scanners. It contains eight semantic classes and covers a wide range of urban outdoor scenes, including churches, streets, railroad tracks, squares, villages, soccer fields, and castles. We describe our labeling interface and show that, compared to those already available to the research community, our data set provides denser and more complete point clouds, with a much higher overall number of labeled points. We further provide descriptions of baseline methods and of the first independent submissions, which are indeed based on CNNs, and already show remarkable improvements over prior art. We hope that semantic3D.net will pave the way for deep learning in 3D point cloud analysis, and for 3D representation learning in general. Numéro de notice : A2018-162 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.84.5.297 Date de publication en ligne : 01/05/2018 En ligne : https://doi.org/10.14358/PERS.84.5.297 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89795
in Photogrammetric Engineering & Remote Sensing, PERS > vol 84 n° 5 (mai 2018) . - pp 297 - 308[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2018051 RAB Revue Centre de documentation En réserve L003 Disponible Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile / Sylvie Daniel in Geomatica, vol 72 n° 1 (March 2018)
[article]
Titre : Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile Type de document : Article/Communication Auteurs : Sylvie Daniel, Auteur Année de publication : 2018 Article en page(s) : pp 1 - 15 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] classificateur
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] grande échelle
[Termes IGN] performance
[Termes IGN] scène urbaine
[Termes IGN] semis de pointsRésumé : (Auteur) La compréhension de nuage de points LiDAR consiste à reconnaitre les objets qui sont présents dans la scène et à associer des interprétations aux nuages d’objets qui le composent. Les données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile présentent plusieurs difficultés propres à ce contexte : chevauchement entre les nuages de points, occlusions entre les objets qui ne sont vus que partiellement, variations de la densité des points. Compte tenu de ces difficultés, beaucoup de descripteurs tridimensionnels (3D) proposés dans la littérature pour la classification et la reconnaissance d’objets voient leurs performances se dégrader dans ce contexte applicatif, car ils ont souvent été introduits et évalués avec des jeux de données portant sur de petits objets. De plus, il y a un manque de comparaison approfondie entre les descripteurs 3D mis en œuvre dans des environnements à grande échelle, ce qui a pour conséquence un manque de connaissance au moment de sélectionner le descripteur 3D le plus adapté à un nuage de points LiDAR acquis dans de tels environnements. Le présent article propose une revue approfondie des travaux portant sur l’application des descripteurs 3D à des données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile. Les principaux descripteurs 3D appliqués dans de tels contextes sont ainsi recensés. Une synthèse de leurs performances et limites est ensuite effectuée de manière comparative sur la base des travaux disponibles dans la littérature. Enfin, une discussion abordant les éléments impactant le plus les performances des descripteurs et des pistes d’amélioration vient compléter cette revue. Numéro de notice : A2018-338 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1139/geomat-2018-0001 Date de publication en ligne : 30/07/2018 En ligne : https://doi.org/10.1139/geomat-2018-0001 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90552
in Geomatica > vol 72 n° 1 (March 2018) . - pp 1 - 15[article]Comparative study of visual saliency maps in the problem of classification of architectural images with Deep CNNs / Abraham Montoya Obeso (2018)
Titre : Comparative study of visual saliency maps in the problem of classification of architectural images with Deep CNNs Type de document : Article/Communication Auteurs : Abraham Montoya Obeso, Auteur ; Jenny Benois-Pineau, Auteur ; Kamel Guissous , Auteur ; Valérie Gouet-Brunet , Auteur ; Mireya S. García Vázquez, Auteur ; Alejandro A. Ramírez Acosta, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2018 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : IPTA 2018, 8th International Conference on Image Processing Theory, Tools and Applications 07/11/2018 10/11/2018 Xi'an Chine Proceedings IEEE Importance : pp 1 - 6 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] Bootstrap (statistique)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] exploration de données
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] saillance
[Termes IGN] scène urbaineRésumé : (auteur) Incorporating Human Visual System (HVS) models into building of classifiers has become an intensively researched field in visual content mining. In the variety of models of HVS we are interested in so-called visual saliency maps. Contrarily to scan-paths they model instantaneous attention assigning the degree of interestingness/saliency for humans to each pixel in the image plane. In various tasks of visual content understanding, these maps proved to be efficient stressing contribution of the areas of interest in image plane to classifiers models. In previous works saliency layers have been introduced in Deep CNNs, showing that they allow reducing training time getting similar accuracy and loss values in optimal models. In case of large image collections efficient building of saliency maps is based on predictive models of visual attention. They are generally bottom-up and are not adapted to specific visual tasks. Unless they are built for specific content, such as "urban images"-targeted saliency maps we also compare in this paper. In present research we propose a "bootstrap" strategy of building visual saliency maps for particular tasks of visual data mining. A small collection of images relevant to the visual understanding problem is annotated with gaze fixations. Then the propagation to a large training dataset is ensured and compared with the classical GBVS model and a recent method of saliency for urban image content. The classification results within Deep CNN framework are promising compared to the purely automatic visual saliency prediction. Numéro de notice : C2018-097 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IPTA.2018.8608125 Date de publication en ligne : 14/01/2019 En ligne : https://doi.org/10.1109/IPTA.2018.8608125 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95885 A stixel approach for enhancing semantic image segmentation using prior map information / Sylvain Jonchery (2018)
Titre : A stixel approach for enhancing semantic image segmentation using prior map information Type de document : Article/Communication Auteurs : Sylvain Jonchery, Auteur ; Guillaume Bresson, Auteur ; Bruno Vallet , Auteur ; Rafal Żbikowski, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2018 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : ICARCV 2018, 15th International Conference on Control, Automation, Robotics and Vision 10/11/2018 21/11/2018 Singapour Singapour Proceedings IEEE Importance : pp 1715 - 1720 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] précision de la classification
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantiqueRésumé : (auteur) A key problem for autonomous car navigation is the understanding, at an object level, of the current driving situation. Addressing this issue requires the extraction of meaningful information from on-board stereo imagery by classifying the fundamental elements of urban scenes into semantic categories that can more easily be interpreted and be reflected upon (streets, buildings, pedestrians, vehicles, signs, etc.). A probabilistic method is proposed to fuse a coarse prior 3D map data with stereo imagery classification. A novel fusion architecture based on the Stixel framework is presented for combining semantic pixel-wise segmentation from a convolutional neural network (CNN) with depth information obtained from stereo imagery while integrating coarse prior depth and label information. The proposed approach was tested on a manually labeled data set in urban environments. The results show that the classification accuracy of the fundamental elements composing the urban scene was significantly enhanced by this method compared to what is obtained from the semantic pixel-wise segmentation of a CNN alone. Numéro de notice : C2018-094 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICARCV.2018.8581150 Date de publication en ligne : 20/12/2018 En ligne : https://doi.org/10.1109/ICARCV.2018.8581150 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94247 Single image dehazing via an improved atmospheric scattering model / Mingye Ju in The Visual Computer, vol 33 n° 12 (December 2017)PermalinkAn effective spherical panoramic LoD model for a mobile street view service / Xianxiong Liu in Transactions in GIS, vol 21 n° 5 (October 2017)PermalinkDisocclusion of 3D LiDAR point clouds using range images / Pierre Biasutti in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-1/W1 (May 2017)PermalinkEfficient edge-aware surface mesh reconstruction for urban scenes / András Bódis-Szomorú in Computer Vision and image understanding, vol 157 (April 2017)PermalinkPermalinkPermalinkPré-segmentation pour la classification faiblement supervisée de scènes urbaines à partir de nuages de points 3D LIDAR / Stéphane Guinard (2017)PermalinkSVM et réseaux neuronaux convolutifs pour la classification de scènes urbaines / Amaury Zarzelli (2017)PermalinkTélédétection pour l'observation des surfaces continentales, Ch. 2. Analyse de scènes urbaines avec un véhicule de cartographie mobile / Bruno Vallet (2017)PermalinkTélédétection pour l'observation des surfaces continentales, Volume 5. Observation des surfaces continentales par télédétection 3 / Nicolas Baghdadi (2017)Permalink