Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > photogrammétrie > point de canevas > point de repère
point de repèreVoir aussi |
Documents disponibles dans cette catégorie (38)



Etendre la recherche sur niveau(x) vers le bas
Investigating the role of image retrieval for visual localization / Martin Humenberger in International journal of computer vision, vol 130 n° 7 (July 2022)
![]()
[article]
Titre : Investigating the role of image retrieval for visual localization Type de document : Article/Communication Auteurs : Martin Humenberger, Auteur ; Yohann Cabon, Auteur ; Noé Pion, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : 1811 - 1836 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse visuelle
[Termes IGN] base de données d'images
[Termes IGN] estimation de pose
[Termes IGN] flou
[Termes IGN] localisation basée image
[Termes IGN] localisation basée vision
[Termes IGN] point de repère
[Termes IGN] précision de localisation
[Termes IGN] Ransac (algorithme)
[Termes IGN] réalité de terrain
[Termes IGN] structure-from-motion
[Termes IGN] vision par ordinateurRésumé : (auteur) Visual localization, i.e., camera pose estimation in a known scene, is a core component of technologies such as autonomous driving and augmented reality. State-of-the-art localization approaches often rely on image retrieval techniques for one of two purposes: (1) provide an approximate pose estimate or (2) determine which parts of the scene are potentially visible in a given query image. It is common practice to use state-of-the-art image retrieval algorithms for both of them. These algorithms are often trained for the goal of retrieving the same landmark under a large range of viewpoint changes which often differs from the requirements of visual localization. In order to investigate the consequences for visual localization, this paper focuses on understanding the role of image retrieval for multiple visual localization paradigms. First, we introduce a novel benchmark setup and compare state-of-the-art retrieval representations on multiple datasets using localization performance as metric. Second, we investigate several definitions of “ground truth” for image retrieval. Using these definitions as upper bounds for the visual localization paradigms, we show that there is still significant room for improvement. Third, using these tools and in-depth analysis, we show that retrieval performance on classical landmark retrieval or place recognition tasks correlates only for some but not all paradigms to localization performance. Finally, we analyze the effects of blur and dynamic scenes in the images. We conclude that there is a need for retrieval approaches specifically designed for localization paradigms. Our benchmark and evaluation protocols are available at https://github.com/naver/kapture-localization. Numéro de notice : A2022-538 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s11263-022-01615-7 Date de publication en ligne : 25/05/2022 En ligne : https://doi.org/10.1007/s11263-022-01615-7 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101070
in International journal of computer vision > vol 130 n° 7 (July 2022) . - 1811 - 1836[article]A l'aide ! Je me suis perdu en zoomant / Guillaume Touya in Cartes & Géomatique, n° 247-248 (mars-juin 2022)
[article]
Titre : A l'aide ! Je me suis perdu en zoomant Type de document : Article/Communication Auteurs : Guillaume Touya , Auteur ; María-Jesús Lobo
, Auteur ; William A Mackaness, Auteur ; Ian Muehlenhaus, Auteur
Année de publication : 2022 Projets : LostInZoom / Touya, Guillaume Conférence : ICC 2021, 30th ICA international cartographic conference 14/12/2021 18/12/2021 Florence Italie Article en page(s) : pp 69 - 75 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Termes IGN] échelle cartographique
[Termes IGN] interaction homme-machine
[Termes IGN] point de repère
[Termes IGN] représentation multiple
[Termes IGN] visualisation cartographique
[Termes IGN] zoom
[Vedettes matières IGN] GénéralisationRésumé : (Auteur) LostInZoom est un nouveau projet de recherche dont l'objectif est de concevoir de nouvelles manières de zoomer dans une carte multi-échelles, qui réduisent l'effet de désorientation que nous ressentons souvent en utilisant les cartes actuelles. Nous ressentons cette désorientation pendant quelques secondes après un zoom avant ou arrière parce que la carte affichée change durant le zoom. L'idée conductrice de ce projet est de proposer un zoom ancré, dans lequel nous utilisons des points de repère saillants à plusieurs échelles pour ancrer notre carte mentale pendant le zoom. Cet article présente les principales problématiques qui seront abordées dans le projet : (1) mieux comprendre et mesurer la désorientation causée par le zoom ; (2) trouver et modéliser les meilleures points de repères pour ancrer le zoom ; (3) concevoir des cartes multi-échelles plus progressives dans leurs transformations ; (4) concevoir des animations de zoom qui mettent en valeur les ancres à différentes échelles. Numéro de notice : A2022-678 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101898
in Cartes & Géomatique > n° 247-248 (mars-juin 2022) . - pp 69 - 75[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 021-2022011 SL Revue Centre de documentation Revues en salle Disponible LiDAR-based method for analysing landmark visibility to pedestrians in cities: case study in Kraków, Poland / Krystian Pyka in International journal of geographical information science IJGIS, vol 36 n° 3 (March 2022)
![]()
[article]
Titre : LiDAR-based method for analysing landmark visibility to pedestrians in cities: case study in Kraków, Poland Type de document : Article/Communication Auteurs : Krystian Pyka, Auteur ; Radoslaw Piskorski, Auteur ; Aleksandra Jasińska, Auteur Année de publication : 2022 Article en page(s) : pp 476 - 495 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] analyse visuelle
[Termes IGN] canyon urbain
[Termes IGN] Cracovie (Pologne)
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] modèle numérique de surface
[Termes IGN] paysage urbain
[Termes IGN] piéton
[Termes IGN] point de repère
[Termes IGN] scène urbaine
[Termes IGN] semis de points
[Termes IGN] visibilité (optique)
[Termes IGN] visionRésumé : (auteur) We propose a method for analysing landmark visibility from a pedestrian’s perspective. A case study is performed in Kraków, a city with many architectural monuments, where airborne LiDAR is used to model both buildings and urban greenery. The proposed method involves preliminary and detailed stages. The preliminary stage entails an inverse analysis (I–Vis) that departs from the typical visibility analysis to enable the use of landmarks as observers instead of targets. I–Vis results in paths with high landmark visibility. The detailed stage involves the use of a virtual panorama (V-Pan) to determine the visual exposure of the landmarks. Landmarks considered visible by I–Vis are generally consistent with landmarks identified by V-Pan. Discrepancies occur when trees appear in the near field-of-view. In addition, the accuracy of the skyline length and visible landmark surface area is evaluated against ground observations. The obtained results show that V-Pan can evaluate landmark visibility with an accuracy of approximately 75%. The key contributions of the work to visibility analysis of urban landmarks are in the inverse viewshed strategy and evaluation of the visual exposure parameters on LiDAR virtual panoramas. Numéro de notice : A2022-206 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/13658816.2021.2015600 Date de publication en ligne : 17/12/2021 En ligne : https://doi.org/10.1080/13658816.2021.2015600 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100021
in International journal of geographical information science IJGIS > vol 36 n° 3 (March 2022) . - pp 476 - 495[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 079-2022031 SL Revue Centre de documentation Revues en salle Disponible
Titre : Deep learning for anchor detection in multi-scale maps Type de document : Article/Communication Auteurs : Quentin Potié , Auteur ; Guillaume Touya
, Auteur ; Chaimaa Beladraoui, Auteur ; Amina El-Moutaouakkil, Auteur ; William A Mackaness, Auteur
Editeur : International Cartographic Association ICA - Association cartographique internationale ACI Année de publication : 2022 Collection : Abstracts of the ICA num. 5 Projets : LostInZoom / Touya, Guillaume Conférence : EuroCarto 2022, European Cartographic Conference 19/09/2022 21/09/2022 Vienne Autriche OA Proceedings Note générale : bibliographie
This project has received funding from the European Research Council (ERC) under the European Union‟s Horizon 2020 research and innovation programme (grant agreement No. 101003012)Langues : Anglais (eng) Descripteur : [Termes IGN] ancre
[Termes IGN] apprentissage profond
[Termes IGN] point de repère
[Termes IGN] reconnaissance de formes
[Termes IGN] visualisation multiéchelle
[Vedettes matières IGN] GénéralisationNuméro de notice : C2022-037 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.5194/ica-abs-5-82-2022 Date de publication en ligne : 14/09/2022 En ligne : http://dx.doi.org/10.5194/ica-abs-5-82-2022 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101622
Titre : Location retrieval using qualitative place signatures of visible landmarks Type de document : Article/Communication Auteurs : Lijun Wei , Auteur ; Valérie Gouet-Brunet
, Auteur ; Anthony Cohn, Auteur
Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Année de publication : 2022 Projets : 1-Pas de projet / Touya, Guillaume Importance : 52 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] descripteur
[Termes IGN] lieu
[Termes IGN] point de repère
[Termes IGN] reconnaissance d'objets
[Termes IGN] relation spatialeRésumé : (auteur) Location retrieval based on visual information is to retrieve the location of an agent (e.g. human, robot) or the area they see by comparing the observations with a certain form of representation of the environment. Existing methods generally require precise measurement and storage of the observed environment features, which may not always be robust due to the change of season, viewpoint, occlusion, etc. They are also challenging to scale up and may not be applicable for humans due to the lack of measuring/imaging devices. Considering that humans often use less precise but easily produced qualitative spatial language and high-level semantic landmarks when describing an environment, a qualitative location retrieval method is proposed in this work by describing locations/places using qualitative place signatures (QPS), defined as the perceived spatial relations between ordered pairs of co-visible landmarks from viewers' perspective. After dividing the space into place cells each with individual signatures attached, a coarse-to-fine location retrieval method is proposed to efficiently identify the possible location(s) of viewers based on their qualitative observations. The usability and effectiveness of the proposed method were evaluated using openly available landmark datasets, together with simulated observations by considering the possible perception error. Numéro de notice : P2022-009 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : IMAGERIE Nature : Preprint nature-HAL : Préprint DOI : 10.48550/arXiv.2208.00783 Date de publication en ligne : 26/07/2022 En ligne : https://doi.org/10.48550/arXiv.2208.00783 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101879 Spatial knowledge acquisition with virtual semantic landmarks in mixed reality-based indoor navigation / Bing Liu in Cartography and Geographic Information Science, vol 48 n° 4 (July 2021)
PermalinkModelling the effect of landmarks on pedestrian dynamics in urban environments / Gabriele Filomena in Computers, Environment and Urban Systems, vol 86 (March 2021)
PermalinkModelling and building of a graph database of multi-source landmarks to help emergency mountain rescuers / Véronique Gendner (2021)
PermalinkPermalinkComparing the roles of landmark visual salience and semantic salience in visual guidance during indoor wayfinding / Weihua Dong in Cartography and Geographic Information Science, vol 47 n° 3 (May 2020)
PermalinkExtracting urban landmarks from geographical datasets using a random forests classifier / Yue Lin in International journal of geographical information science IJGIS, vol 33 n° 12 (December 2019)
PermalinkPotentiel des sources de données collaboratives pour l'intégration de points de repère et des itinéraires pour le sauvetage en zone de montagne / Marie-Dominique Van Damme in Cartes & Géomatique, n° 241-242 (décembre 2019)
PermalinkPotential of crowdsourced data for integrating landmarks and routes for rescue in mountain areas / Marie-Dominique Van Damme in International journal of cartography, vol 5 n° 2-3 (July - November 2019)
PermalinkDescription formelle de trajectoire de navigation en environnement maritime côtier / Wissame Laddada in Revue internationale de géomatique, vol 27 n° 2 (avril - juin 2017)
PermalinkProgressive block graying and landmarks enhancing as intermediate representations between buildings and urban areas / Guillaume Touya (2017)
Permalink