Détail de l'autorité
RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception 01/06/2018 01/06/2018 Champs-sur-Marne France Open Access Proceedings
nom du congrès :
RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception
début du congrès :
01/06/2018
fin du congrès :
01/06/2018
ville du congrès :
Champs-sur-Marne
pays du congrès :
France
site des actes du congrès :
|
Documents disponibles (3)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Titre : Apprentissage de modalités auxiliaires pour la localisation basée vision Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Valérie Gouet-Brunet , Auteur ; Cédric Demonceaux, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception 01/06/2018 01/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] localisation basée vision
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Dans cet article, nous présentons une nouvelle méthode d’apprentissage à partir de modalités auxiliaires pour améliorer un système de localisation basée vision. Afin de bénéficier des informations de modalités auxiliaires disponibles pendant l’apprentissage, nous entraînons un réseau convolutif à recréer l’apparence de ces modalités annexes. Nous validons notre approche en l’appliquant à un problème de description d’images pour la localisation. Les résultats obtenus montrent que notre système est capable d’améliorer un descripteur d’images en apprenant correctement l’apparence d’une modalité annexe. Comparé à l’état de l’art, le réseau présenté permet d’obtenir des résultats de localisation comparables, tout en étant plus compacte et plus simple à entraîner. Numéro de notice : C2018-006 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 28/06/2018 En ligne : https://rfiap2018.ign.fr/programmeCFPT Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90335 Documents numériques
en open access
Apprentissage de modalités auxiliaires ... - pdf éditeurAdobe Acrobat PDF On the production of semantic and textured 3D meshes of large scale urban environments from mobile mapping images and LIDAR scans / Mohamed Boussaha (2018)
Titre : On the production of semantic and textured 3D meshes of large scale urban environments from mobile mapping images and LIDAR scans Type de document : Article/Communication Auteurs : Mohamed Boussaha , Auteur ; Eduardo Fernandez-Moral, Auteur ; Bruno Vallet , Auteur ; Patrick Rives, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception 01/06/2018 01/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] chaîne de production
[Termes IGN] cohérence des données
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image terrestre
[Termes IGN] reconstruction d'objet
[Termes IGN] rééchantillonnage
[Termes IGN] sémantisation
[Termes IGN] semis de points
[Termes IGN] tessellation
[Termes IGN] texturage
[Termes IGN] zone urbaineRésumé : (auteur) In this paper, we present a fully automatic framework for the reconstruction of a 3D mesh, its texture mapping and its semantization using oriented images and LiDAR scans acquired in a large urban area by a terrestrial Mobile Mapping System (MMS). First, the acquired points and images are sliced into temporal chunks ensuring a reasonable size and time consistency between geometry (points) and photometry (images). Then, a simple and fast 3D surface reconstruction relying on the sensor space topology is performed on each chunk after an isotropic sampling of the point cloud obtained from the raw LiDAR scans. The method of Waechter et al. is subsequently adapted to texture the reconstructed surface with the images acquired simultaneously, ensuring a high quality texture and global color adjustment. Finally based on the texturing scheme a per-texel semantization is conducted on the final model. Numéro de notice : C2018-024 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Poster nature-HAL : Poster-avec-CL DOI : sans En ligne : https://rfiap2018.ign.fr/programmeRFIAP Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90490 Documents numériques
en open access
On the production of semantic ... - pdf éditeurAdobe Acrobat PDF
Titre : Segmentation sémantique à grande échelle par graphes de superpoints Type de document : Article/Communication Auteurs : Loïc Landrieu , Auteur ; Martin Simonovsky, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : 1-Pas de projet / Gouet-Brunet, Valérie Conférence : RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception 01/06/2018 01/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] graphe
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsRésumé : (auteur) Nous proposons dans cet article une méthode pour la segmentation sémantique de nuages de millions de points basée sur l’apprentissage profond. Nous introduisons une nouvelle structure pour les nuages de points 3D appelée graphe de superpoints (superpoint graph, ou SPG), capable d’encoder de manière compacte l’organisation d’un nuage de points en sous-objets interconnectés. Notre méthode définit un nouvel état de l’art pour la segmentation sémantique de scans LiDAR aussi bien en extérieur (+11:9 et +8:8 points de mIoU pour les deux ensembles de tests de Semantic3D [13]), ainsi qu’en extérieur (+12:4 points de mIoU pour les acquisitions S3DIS [2]). Cet article est une traduction de l’article [25]. Numéro de notice : C2018-061 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 28/06/2018 En ligne : https://rfiap2018.ign.fr/programmeRFIAP Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91381 Voir aussiDocuments numériques
en open access
Segmentation sémantique à grande échelle ... - pdf éditeurAdobe Acrobat PDF