Détail de l'auteur
Documents disponibles écrits par cet auteur (13)



Diffusion and inpainting of reflectance and height LiDAR orthoimages / Pierre Biasutti in Computer Vision and image understanding, vol 179 (February 2019)
![]()
![]()
[article]
Titre : Diffusion and inpainting of reflectance and height LiDAR orthoimages Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif
, Auteur ; Aurélie Bugeau, Auteur
Année de publication : 2019 Projets : SysNum / Article en page(s) : pp 31 - 40 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] chaîne de traitement
[Termes IGN] convivialité
[Termes IGN] densité des points
[Termes IGN] détection d'ombre
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] orthoimage
[Termes IGN] réflectance
[Termes IGN] semis de pointsRésumé : (Auteur) This paper presents a fully automatic framework for the generation of so-called LiDAR orthoimages (i.e. 2D raster maps of the reflectance and height LiDAR samples) from ground-level LiDAR scans. Beyond the Digital Surface Model (DSM or heightmap) provided by the height orthoimage, the proposed method cost-effectively generates a reflectance channel that is easily interpretable by human operators without relying on any optical acquisition, calibration and registration. Moreover, it commonly achieves very high resolutions (1cm per pixel), thanks to the typical sampling density of static or mobile LiDAR scans. Compared to orthoimages generated from aerial datasets, the proposed LiDAR orthoimages are acquired from the ground level and thus do not suffer occlusions from hovering objects (trees, tunnels and bridges), enabling their use in a number of urban applications such as road network monitoring and management, as well as precise mapping of the public space e.g. for accessibility applications or management of underground networks. Its generation and usability however faces two issues : (i) the inhomogeneous sampling density of LiDAR point clouds and (ii) the presence of masked areas (holes) behind occluders, which include, in a urban context, cars, tree trunks, poles or pedestrians (i) is addressed by first projecting the point cloud on a 2D-pixel grid so as to generate sparse and noisy reflectance and height images from which dense images estimated using a joint anisotropic diffusion of the height and reflectance channels. (ii) LiDAR shadow areas are detected by analyzing the diffusion results so that they can be inpainted using an examplar-based method, guided by an alignment prior. Results on real mobile and static acquisition data demonstrate the effectiveness of the proposed pipeline in generating a very high resolution LiDAR orthoimage of reflectance and height while filling holes of various sizes in a visually satisfying way. Numéro de notice : A2019-168 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.cviu.2018.10.011 Date de publication en ligne : 24/11/2018 En ligne : https://doi.org/10.1016/j.cviu.2018.10.011 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92610
in Computer Vision and image understanding > vol 179 (February 2019) . - pp 31 - 40[article]Documents numériques
en open access
Diffusion and inpainting - version HALURL
Titre : 2D image processing applied to 3D LiDAR point clouds Titre original : Traitement d’image 2D appliqué à des nuages de points LiDAR 3D Type de document : Thèse/HDR Auteurs : Pierre Biasutti , Auteur ; Aurélie Bugeau, Directeur de thèse ; Mathieu Brédif
, Encadrant ; Jean-François Aujol, Directeur de thèse
Editeur : Bordeaux : Université de Bordeaux Année de publication : 2019 Importance : 204 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour l'obtention du grade de Docteur en Informatique, Université de BordeauxLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] détection de partie cachée
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image 2D
[Termes IGN] image RVB
[Termes IGN] orthoimage
[Termes IGN] recalage de données localisées
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] Stéréopolis
[Termes IGN] système de numérisation mobile
[Termes IGN] topologie capteur
[Termes IGN] visibilitéRésumé : (auteur) L'intérêt toujours grandissant pour les données cartographiques fiables, notamment en milieu urbain, a motivé le développement de systèmes de cartographie mobiles terrestres. Ces systèmes sont conçus pour l'acquisition de données de très haute précision, telles que des nuages de points LiDAR 3D et des images optiques. La multitude de données, ainsi que leur diversité, rendent complexe le traitement des données issues de ce type de systèmes. Cette thèse se place dans le contexte du traitement de l'image appliqué au nuages de points LiDAR 3D issus de ce type de système. Premièrement, nous nous intéressons à des images issues de la projection de nuages de points LiDAR dans des grilles de pixels 2D régulières. Ces projections créent généralement des images éparses, dans lesquelles l'information de certains pixels n'est pas connue. Nous proposons alors différentes méthodes pour des applications telles que la génération d'orthoimages haute résolution, l'imagerie RGB-D et l'estimation de la visibilité des points d'un nuage. De plus, nous proposons d'exploiter la topologie d'acquisition des capteurs LiDAR pour produire des images de faible résolution : les range-images. Ces images offrent une représentation efficace et canonique du nuage de points, tout en étant directement accessibles à partir du nuage de points. Nous montrons comment ces images peuvent être utilisées pour simplifier, voire améliorer, des méthodes pour le recalage multi-modal, la segmentation, la désoccultation et la détection 3D. Note de contenu : Introduction
1- Image processing on sparse projection of 3D LiDAR point clouds
2- Image processing on 3D LiDAR point clouds in sensor topology
ConclusionNuméro de notice : 25458 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Bordeaux : 2019 Organisme de stage : Laboratoire Bordelais de Recherche en Informatique LaBRI nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02369991 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94227 Détection et localisation d'objets 3D par apprentissage profond en topologie capteur / Pierre Biasutti (2019)
![]()
![]()
Titre : Détection et localisation d'objets 3D par apprentissage profond en topologie capteur Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Aurélie Bugeau, Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif
, Auteur
Editeur : Saint-Martin-d'Hères : Groupe de Recherche et d'Etude du Traitement du Signal et des Images GRETSI Année de publication : 2019 Projets : 1-Pas de projet / Conférence : GRETSI 2019, colloque du Groupe de Recherche et d'Etude du Traitement du Signal et des Images 26/08/2019 29/08/2019 Lille France OA proceedings Importance : 4 p. Format : 21 x 30 cm Note générale : Bibliographie
Ce travail a bénéficié d’une aide du programme de Recherche et Innovation European Union’s Horizon 2020 au titre de la bourse Marie Skłodowska-Curie (No 777826).Langues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] chaîne de traitement
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données
[Termes IGN] image optique
[Termes IGN] scène 3D
[Termes IGN] semis de pointsRésumé : (Auteur) Ce travail présente une nouvelle méthode pour la détection et la localisation d'objets dans des scènes 3D LiDAR acquises par des systèmes de cartographie mobile. Ce problème est généralement traité en discrétisant l'espace 3D en une fine grille de voxels. Nous introduisons une approche alternative ne nécessitant pas de discrétisation. Elle est basée sur la représentation en 2D du nuage de points en topologie capteur (TC). Cette image sert d'entrée à un réseau de neurones convolutionnels qui en extrait les informations 3D des objets. La réprésentation en topologie capteur présentant des ambiguïtés dans le fond de la scène, nous améliorerons les résultats de détection en couplant ce modèle avec un réseau de détection 2D d'objets sur une image optique. Les prédictions des deux réseaux sont finalement fusionnées pour obtenir les détections finales. Numéro de notice : C2019-014 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Poster nature-HAL : Poster-avec-CL DOI : sans En ligne : https://hal.science/hal-02100719v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93269 Documents numériques
en open access
Détection et localisation d'objets 3D... - pdf auteurAdobe Acrobat PDF
Titre : Fast Image and LiDAR alignment based on 3D rendering in sensor topology Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif
, Auteur ; Aurélie Bugeau, Auteur
Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2019 Projets : 1-Pas de projet / Importance : 9 p. Format : 21 x 30 cm Note générale : Bibliographie
This project has also received funding from the European Union’s Horizon 2020 research and innovation programme underthe Marie Skłodowska-Curie grant agreement No 777826.Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image optique
[Termes IGN] semis de pointsRésumé : (Auteur) Mobile Mapping Systems are now commonly used in large urban acquisition campaigns. They are often equiped with LiDAR sensors and optical cameras, providing very large multimodal datasets. The fusion of both modalities serves different purposes such as point cloud colorization, geometry enhancement or object detection. However, this fusion task cannot be done directly as both modalities are only coarsely registered. This paper presents a fully automatic approach for LiDAR projection and optical image registration refinement based on LiDAR point cloud 3D renderings. First, a coarse 3D mesh is generated from the LiDAR point cloud using the sensor topology. Then, the mesh is rendered in the image domain. After that, a variational approach is used to align the rendering with the optical image. This method achieves high quality results while performing in very low computational time. Results on real data demonstrate the efficiency of the model for aligning LiDAR projections and optical images. Numéro de notice : P2019-002 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : Préprint DOI : sans En ligne : https://hal.archives-ouvertes.fr/hal-02100715v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93283 Documents numériques
en open access
Fast Image and LiDAR alignment based on... - pdf preprintAdobe Acrobat PDFLU-Net, An efficient network for 3D LiDAR point cloud semantic segmentation based on end-to-end-learned 3D features and U-Net / Pierre Biasutti (2019)
![]()
Titre : LU-Net, An efficient network for 3D LiDAR point cloud semantic segmentation based on end-to-end-learned 3D features and U-Net Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Vincent Lepetit, Auteur ; Mathieu Brédif
, Auteur ; Jean-François Aujol, Auteur ; Aurélie Bugeau, Auteur
Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2019 Projets : 1-Pas de projet / Conférence : ICCVW 2019, IEEE/CVF International Conference on Computer Vision Workshop 27/10/2019 28/10/2019 Seoul Corée du sud Proceedings Importance : pp 942 - 950 Format : 21 x 30 cm Note générale : Bibliographie
préprint dans HAL https://hal.archives-ouvertes.fr/hal-02269915v1 avec titre un peu différent - version finale dans HAL https://hal.archives-ouvertes.fr/hal-02269915v2
This project has also received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 777826.Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsRésumé : (Auteur) We propose LU-Net (for LiDAR U-Net), for the semantic segmentation of a 3D LiDAR point cloud. Instead of applying some global 3D segmentation method such as Point-Net, we propose an end-to-end architecture for LiDAR point cloud semantic segmentation that efficiently solves the problem as an image processing problem. First, a high-level 3D feature extraction module is used to compute 3D local features for each point given its neighbors. Then, these features are projected into a 2D multichannel range-image by considering the topology of the sensor. This range-image later serves as the input to a U-Net segmentation network, which is a simple architecture yet enough for our purpose. In this way, we can exploit both the 3D nature of the data and the specificity of the LiDAR sensor. This approach efficiently bridges between 3D point cloud processing and image processing as it outperforms the state-of-the-art by a large margin on the KITTI dataset, as our experiments show. Moreover, this approach operates at 24fps on a single GPU. This is above the acquisition rate of common LiDAR sensors which makes it suitable for real-time applications. Numéro de notice : C2019-037 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICCVW.2019.00123 Date de publication en ligne : 05/03/2020 En ligne : https://doi.org/10.1109/ICCVW.2019.00123 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93282 PermalinkRange-image: Incorporating sensor topology for lidar point cloud processing / Pierre Biasutti in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 6 (juin 2018)
![]()
PermalinkPermalinkPermalinkPermalinkDisocclusion of 3D LiDAR point clouds using range images / Pierre Biasutti in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, IV-1/W1 ([30/05/2017])
PermalinkJoint inpainting of depth and reflectance with visibility estimation / Marco Bevilacqua in ISPRS Journal of photogrammetry and remote sensing, vol 125 (March 2017)
PermalinkPermalink