Détail de l'autorité
BMVC 2019, British Machine Vision Conference 09/09/2019 12/09/2019 Cardiff Royaume-Uni OA Proceedings
nom du congrès :
BMVC 2019, British Machine Vision Conference
début du congrès :
09/09/2019
fin du congrès :
12/09/2019
ville du congrès :
Cardiff
pays du congrès :
Royaume-Uni
site des actes du congrès :
|
Documents disponibles (1)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Titre : Perspective-n-learned-point: pose estimation from relative depth Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Cédric Demonceaux, Auteur ; Valérie Gouet-Brunet , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2019 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : BMVC 2019, British Machine Vision Conference 09/09/2019 12/09/2019 Cardiff Royaume-Uni OA Proceedings Importance : 15 p. Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] carte de profondeur
[Termes IGN] classification par réseau neuronal
[Termes IGN] estimation de pose
[Termes IGN] géométrie de l'image
[Termes IGN] recherche d'image basée sur le contenuRésumé : (Auteur) In this paper we present an online camera pose estimation method that combines Content-Based Image Retrieval (CBIR) and pose refinement based on a learned representation of the scene geometry extracted from monocular images. Our pose estimation method is two-step, we first retrieve an initial 6 Degrees of Freedom (DoF) location of an unknown-pose query by retrieving the most similar candidate in a pool of geo-referenced images. In a second time, we refine the query pose with a Perspective-n-Point (PnP) algorithm where the 3D points are obtained thanks to a generated depth map from the retrieved image candidate. We make our method fast and lightweight by using a common neural network architecture to generate the image descriptor for image indexing and the depth map used to create the 3D points required in the PnP pose refinement step. We demonstrate the effectiveness of our proposal through extensive experimentation on both indoor and outdoor scenes, as well as generalisation capability of our method to unknown environment. Finally, we show how to deploy our system even if geometric information is missing to train our monocular-image-to-depth neural networks. Numéro de notice : C2019-025 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : sans Date de publication en ligne : 12/11/2019 En ligne : https://bmvc2019.org/wp-content/uploads/papers/0981-paper.pdf Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94320 Documents numériques
en open access
Perspective-n-learned-point ... - pdf auteurAdobe Acrobat PDF