Détail de l'auteur
Auteur Mathieu Brédif
Commentaire :
Autorités liées :
idHAL :
mathieu-bredif
idRef :
autre URL :
ORCID :
Scopus :
Publons :
G. Scholar :
DBLP URL :
|
Documents disponibles écrits par cet auteur (71)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Détection et localisation d'objets 3D par apprentissage profond en topologie capteur / Pierre Biasutti (2019)
Titre : Détection et localisation d'objets 3D par apprentissage profond en topologie capteur Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Aurélie Bugeau, Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif , Auteur Editeur : Saint-Martin-d'Hères : Groupe de Recherche et d'Etude du Traitement du Signal et des Images GRETSI Année de publication : 2019 Projets : 1-Pas de projet / Conférence : GRETSI 2019, colloque du Groupe de Recherche et d'Etude du Traitement du Signal et des Images 26/08/2019 29/08/2019 Lille France OA proceedings Importance : 4 p. Format : 21 x 30 cm Note générale : Bibliographie
Ce travail a bénéficié d’une aide du programme de Recherche et Innovation European Union’s Horizon 2020 au titre de la bourse Marie Skłodowska-Curie (No 777826).Langues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] chaîne de traitement
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données
[Termes IGN] image optique
[Termes IGN] scène 3D
[Termes IGN] semis de pointsRésumé : (Auteur) Ce travail présente une nouvelle méthode pour la détection et la localisation d'objets dans des scènes 3D LiDAR acquises par des systèmes de cartographie mobile. Ce problème est généralement traité en discrétisant l'espace 3D en une fine grille de voxels. Nous introduisons une approche alternative ne nécessitant pas de discrétisation. Elle est basée sur la représentation en 2D du nuage de points en topologie capteur (TC). Cette image sert d'entrée à un réseau de neurones convolutionnels qui en extrait les informations 3D des objets. La réprésentation en topologie capteur présentant des ambiguïtés dans le fond de la scène, nous améliorerons les résultats de détection en couplant ce modèle avec un réseau de détection 2D d'objets sur une image optique. Les prédictions des deux réseaux sont finalement fusionnées pour obtenir les détections finales. Numéro de notice : C2019-014 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Poster nature-HAL : Poster-avec-CL DOI : sans En ligne : https://hal.science/hal-02100719v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93269 Documents numériques
en open access
Détection et localisation d'objets 3D... - pdf auteurAdobe Acrobat PDF
Titre : Fast Image and LiDAR alignment based on 3D rendering in sensor topology Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif , Auteur ; Aurélie Bugeau, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2019 Projets : 1-Pas de projet / Importance : 9 p. Format : 21 x 30 cm Note générale : Bibliographie
This project has also received funding from the European Union’s Horizon 2020 research and innovation programme underthe Marie Skłodowska-Curie grant agreement No 777826.Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image optique
[Termes IGN] semis de pointsRésumé : (Auteur) Mobile Mapping Systems are now commonly used in large urban acquisition campaigns. They are often equiped with LiDAR sensors and optical cameras, providing very large multimodal datasets. The fusion of both modalities serves different purposes such as point cloud colorization, geometry enhancement or object detection. However, this fusion task cannot be done directly as both modalities are only coarsely registered. This paper presents a fully automatic approach for LiDAR projection and optical image registration refinement based on LiDAR point cloud 3D renderings. First, a coarse 3D mesh is generated from the LiDAR point cloud using the sensor topology. Then, the mesh is rendered in the image domain. After that, a variational approach is used to align the rendering with the optical image. This method achieves high quality results while performing in very low computational time. Results on real data demonstrate the efficiency of the model for aligning LiDAR projections and optical images. Numéro de notice : P2019-002 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : Préprint DOI : sans En ligne : https://hal.science/hal-02100715v1 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93283 Documents numériques
en open access
Fast Image and LiDAR alignment based on... - pdf preprintAdobe Acrobat PDF
Titre : Interactive image geolocalization in an immersive web application Type de document : Article/Communication Auteurs : Mouna Harrach, Auteur ; Alexandre Devaux , Auteur ; Mathieu Brédif , Auteur Editeur : International Society for Photogrammetry and Remote Sensing ISPRS Année de publication : 2019 Collection : International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, ISSN 1682-1750 num. 42-2-W9 Projets : Alegoria / Gouet-Brunet, Valérie Conférence : 3D-ARCH 2019, 8th International ISPRS Workshop on 3D Virtual Reconstruction and Visualization of Complex Architectures 06/02/2019 08/02/2019 Bergame Italie Open Access Proceedings Importance : 4 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] application web
[Termes IGN] collection
[Termes IGN] conservation du patrimoine
[Termes IGN] géoréférencement
[Termes IGN] iconographie
[Termes IGN] image numérisée
[Termes IGN] interactivité
[Termes IGN] MicMac
[Termes IGN] modèle numérique de terrain
[Termes IGN] modélisation 3D
[Termes IGN] patrimoine culturel
[Termes IGN] photographie aérienne
[Termes IGN] photographie terrestre
[Termes IGN] semis de points
[Termes IGN] webGLRésumé : (auteur) For a long time people have been interested in the past and history and how we can go back in time using a time machine. And while we cannot invent a time machine, at least not yet, we can create a virtual one. Our ”virtual” time machine is an interactive web application that allows users to browse through and navigate within historical images (aerial/terrestrial photographs or postcards) that are projected on a 3D photogrammetric model (point cloud or 3D mesh), thus going back in time and interacting with historical 3D models and images. This was achieved by adopting a semiautomatic approach where the user identifies first 6 to 8 hints on the historical image and the photogrammetric model, then this information is used as an entry data to a photogrammetric software that computes the pose and orientation of the image. The purpose of this work, which is part of the ALEGORIA project, is to preserve cultural heritage, to give the users the opportunity to go back in time and study history of a place or simply discover howtheir hometown looked some years ago. Numéro de notice : C2019-030 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.5194/isprs-archives-XLII-2-W9-377-2019 Date de publication en ligne : 31/01/2019 En ligne : https://doi.org/10.5194/isprs-archives-XLII-2-W9-377-2019 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94597 LU-Net, An efficient network for 3D LiDAR point cloud semantic segmentation based on end-to-end-learned 3D features and U-Net / Pierre Biasutti (2019)
Titre : LU-Net, An efficient network for 3D LiDAR point cloud semantic segmentation based on end-to-end-learned 3D features and U-Net Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Vincent Lepetit, Auteur ; Mathieu Brédif , Auteur ; Jean-François Aujol, Auteur ; Aurélie Bugeau, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2019 Projets : 1-Pas de projet / Gouet-Brunet, Valérie Conférence : ICCVW 2019, IEEE/CVF International Conference on Computer Vision Workshop 27/10/2019 28/10/2019 Seoul Corée du sud Proceedings Importance : pp 942 - 950 Format : 21 x 30 cm Note générale : Bibliographie
préprint dans HAL https://hal.archives-ouvertes.fr/hal-02269915v1 avec titre un peu différent - version finale dans HAL https://hal.archives-ouvertes.fr/hal-02269915v2
This project has also received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 777826.Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsRésumé : (Auteur) We propose LU-Net (for LiDAR U-Net), for the semantic segmentation of a 3D LiDAR point cloud. Instead of applying some global 3D segmentation method such as Point-Net, we propose an end-to-end architecture for LiDAR point cloud semantic segmentation that efficiently solves the problem as an image processing problem. First, a high-level 3D feature extraction module is used to compute 3D local features for each point given its neighbors. Then, these features are projected into a 2D multichannel range-image by considering the topology of the sensor. This range-image later serves as the input to a U-Net segmentation network, which is a simple architecture yet enough for our purpose. In this way, we can exploit both the 3D nature of the data and the specificity of the LiDAR sensor. This approach efficiently bridges between 3D point cloud processing and image processing as it outperforms the state-of-the-art by a large margin on the KITTI dataset, as our experiments show. Moreover, this approach operates at 24fps on a single GPU. This is above the acquisition rate of common LiDAR sensors which makes it suitable for real-time applications. Numéro de notice : C2019-037 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICCVW.2019.00123 Date de publication en ligne : 05/03/2020 En ligne : https://doi.org/10.1109/ICCVW.2019.00123 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93282
Titre : Rendu et représentation graphiques d’informations spatio-temporelles Type de document : Article/Communication Auteurs : Sidonie Christophe , Auteur ; Mathieu Brédif , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2019 Conférence : JFIGRV 2019, Journées Françaises d’Informatique Graphique et de Réalité Virtuelle 12/11/2019 15/11/2019 Marseille France programme Importance : 6 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Termes IGN] analyse visuelle
[Termes IGN] cognition
[Termes IGN] données hétérogènes
[Termes IGN] données multiéchelles
[Termes IGN] données spatiotemporelles
[Termes IGN] niveau d'abstraction
[Termes IGN] réalité augmentée
[Termes IGN] rendu (géovisualisation)
[Termes IGN] représentation cartographique
[Termes IGN] représentation graphique
[Vedettes matières IGN] GéovisualisationRésumé : (auteur) Cet article de positionnement expose une partie des questions de recherche et travaux en cours de notre équipe en géovisualisation (équipe GEOVIS du laboratoire LaSTIG), concernant la visualisation et l’analyse visuelle d’informations spatio-temporelles sur le territoire, via l’interaction et l’immersion. Les questions classiques de la géovisualisation perdurent – quelles représentations graphiques, quelles interfaces, quelle qualité. Néanmoins, le contexte a évolué : la complexité des phénomènes et dynamiques physiques, historiques, sociologiques et leurs interactions avec l’espace géographique, ainsi que le volume de données spatiales hétérogènes, et les besoins d’utilisateurs très variés en capacités de vision, perception et cognition nécessitent de faire encore plus converger des domaines connexes sur la représentation graphique et l’exploration de données, pour améliorer les capacités d’analyse visuelle en géovisualisation. En particulier, nous présentons ici des questions et travaux de recherche spécifiques à l’exploration interactive des capacités de rendu et de représentation (carto)graphique de données spatio-temporelles dans le contexte de la géovisualisation. Ces travaux s’appliquent à des problématiques liées à la visualisation des espaces géographiques urbains et à des problématiques d’analyse de dynamiques urbaines (historique, planification) et de dynamiques géophysiques (inondations, météorologie). Ces travaux sont implémentés sur une plateforme open source de visualisation 3D. Numéro de notice : C2019-023 Affiliation des auteurs : LASTIG COGIT (2012-2019) Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComSansActesPubliés-Unpublished DOI : sans Date de publication en ligne : 07/11/2019 En ligne : https://hal.archives-ouvertes.fr/hal-02354598 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94168 Documents numériques
en open access
Rendu et représentation graphiques... pdf auteurAdobe Acrobat PDF PermalinkPermalink3D urban geovisualization: in situ augmented and mixed reality experiments / Alexandre Devaux in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-4 (October 2018)PermalinkRange-image: Incorporating sensor topology for lidar point cloud processing / Pierre Biasutti in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 6 (juin 2018)PermalinkPermalinkColorisation of LiDAR point cloud / Mathieu Brédif (2018)PermalinkPermalinkPermalinkPermalinkPermalink
senior researcher in LaSTIG - GEOVIS team
https://arxiv.org/a/mathieu-bredif