Descripteur
Termes IGN > informatique > intelligence artificielle > vision par ordinateur > cartographie et localisation simultanées
cartographie et localisation simultanéesSynonyme(s)SLAMVoir aussi |
Documents disponibles dans cette catégorie (22)



Etendre la recherche sur niveau(x) vers le bas
Advancements in underground mine surveys by using SLAM-enabled handheld laser scanners / Artu Ellmann in Survey review, vol 54 n° 385 (July 2022)
![]()
[article]
Titre : Advancements in underground mine surveys by using SLAM-enabled handheld laser scanners Type de document : Article/Communication Auteurs : Artu Ellmann, Auteur ; Kaia Kütimets, Auteur ; Sander Varbla, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 363 - 374 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] arpentage
[Termes IGN] carrière souterraine
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] données lidar
[Termes IGN] Estonie
[Termes IGN] géoréférencement
[Termes IGN] industrie minière
[Termes IGN] mine
[Termes IGN] modélisation 3D
[Termes IGN] schiste
[Termes IGN] semis de points
[Termes IGN] système de numérisation mobile
[Termes IGN] télémètre laser terrestreRésumé : (auteur) Applicability of SLAM (simultaneous localization and mapping) technology for mine surveys and subsequent 3D modelling of post-extracted surfaces is assessed. The resulting surface geometry is validated via terrestrial laser scanner (TLS) acquired reference data. Typical discrepancies remained within 2 and 5 cm in horizontal and vertical directions, respectively. Discrepancies between TLS, SLAM-enabled handheld scanner and conventional surveying results are small and fully satisfy the contemporary accuracy requirements, yet evidence that the conventional mine survey results are affected by the subjectivity of the surveyors. The SLAM-enabled laser scanning hence appears to be the most suitable method for underground mining surveys. Numéro de notice : A2022-537 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/00396265.2021.1944545 Date de publication en ligne : 07/07/2021 En ligne : https://doi.org/10.1080/00396265.2021.1944545 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101093
in Survey review > vol 54 n° 385 (July 2022) . - pp 363 - 374[article]A method of vision aided GNSS positioning using semantic information in complex urban environment / Rui Zhai in Remote sensing, vol 14 n° 4 (February-2 2022)
![]()
[article]
Titre : A method of vision aided GNSS positioning using semantic information in complex urban environment Type de document : Article/Communication Auteurs : Rui Zhai, Auteur ; Yunbin Yuan, Auteur Année de publication : 2022 Article en page(s) : n° 869 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Navigation et positionnement
[Termes IGN] apprentissage profond
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] centrale inertielle
[Termes IGN] filtre de Kalman
[Termes IGN] GNSS assisté pour la navigation
[Termes IGN] information sémantique
[Termes IGN] milieu urbain
[Termes IGN] positionnement cinématique en temps réel
[Termes IGN] positionnement par GNSS
[Termes IGN] segmentation sémantique
[Termes IGN] système de numérisation mobile
[Termes IGN] vision par ordinateurRésumé : (auteur) High-precision localization through multi-sensor fusion has become a popular research direction in unmanned driving. However, most previous studies have performed optimally only in open-sky conditions; therefore, high-precision localization in complex urban environments required an urgent solution. The complex urban environments employed in this study include dynamic environments, which result in limited visual localization performance, and highly occluded environments, which yield limited global navigation satellite system (GNSS) performance. In order to provide high-precision localization in these environments, we propose a vision-aided GNSS positioning method using semantic information by integrating stereo cameras and GNSS into a loosely coupled navigation system. To suppress the effect of dynamic objects on visual positioning accuracy, we propose a dynamic-simultaneous localization and mapping (Dynamic-SLAM) algorithm to extract semantic information from images using a deep learning framework. For the GPS-challenged environment, we propose a semantic-based dynamic adaptive Kalman filtering fusion (S-AKF) algorithm to develop vision aided GNSS and achieve stable and high-precision positioning. Experiments were carried out in GNSS-challenged environments using the open-source KITTI dataset to evaluate the performance of the proposed algorithm. The results indicate that the dynamic-SLAM algorithm improved the performance of the visual localization algorithm and effectively suppressed the error spread of the visual localization algorithm. Additionally, after vision was integrated, the loosely-coupled navigation system achieved continuous high-accuracy positioning in GNSS-challenged environments. Numéro de notice : A2022-167 Affiliation des auteurs : non IGN Thématique : IMAGERIE/POSITIONNEMENT Nature : Article DOI : 10.3390/rs14040869 Date de publication en ligne : 11/02/2022 En ligne : https://doi.org/10.3390/rs14040869 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99792
in Remote sensing > vol 14 n° 4 (February-2 2022) . - n° 869[article]
Titre : Event-driven feature detection and tracking for visual SLAM Type de document : Thèse/HDR Auteurs : Ignacio Alzugaray, Auteur Editeur : Zurich : Eidgenossische Technische Hochschule ETH - Ecole Polytechnique Fédérale de Zurich EPFZ Année de publication : 2022 Note générale : bibliographie
thesis submitted to attain the degree of Doctor of Sciences of ETH ZurichLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] caméra d'événement
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] détection d'objet
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] image floue
[Termes IGN] reconnaissance de formes
[Termes IGN] séquence d'images
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Traditional frame-based cameras have become the de facto sensor of choice for a multitude of applications employing Computer Vision due to their compactness, low cost, ubiquity, and ability to provide information-rich exteroceptive measurements. Despite their dominance in the field, these sensors exhibit limitations in common, real-world scenarios where detrimental effects, such as motion blur during high-speed motion or over-/underexposure in scenes with poor illumination, are prevalent. Challenging the dominance of traditional cameras, the recent emergence of bioinspired event cameras has opened up exciting research possibilities for robust perception due to their high-speed sensing, High-Dynamic-Range capabilities, and low power consumption. Despite their promising characteristics, event cameras present numerous challenges due to their unique output: a sparse and asynchronous stream of events, only capturing incremental perceptual changes at individual pixels. This radically different sensing modality renders most of the traditional Computer Vision algorithms incompatible without substantial prior adaptation, as they are initially devised for processing sequences of images captured at fixed frame-rate. Consequently, the bulk of existing event-based algorithms in the literature have opted to discretize the event stream into batches and process them sequentially, effectively reverting to frame-like representations in an attempt to mimic the processing of image sequences from traditional sensors. Such event-batching algorithms have demonstrably outperformed other alternative frame-based algorithms in scenarios where the quality of conventional intensity images is severely compromised, unveiling the inherent potential of these new sensors and popularizing them. To date, however, many newly designed event-based algorithms still rely on a contrived discretization of the event stream for its processing, suggesting that the full potential of event cameras is yet to be harnessed by processing their output more naturally. This dissertation departs from the mere adaptation of traditional frame-based approaches and advocates instead for the development of new algorithms integrally designed for event cameras to fully exploit their advantageous characteristics. In particular, the focus of this thesis lies on describing a series of novel strategies and algorithms that operate in a purely event-driven fashion, \ie processing each event as soon as it gets generated without any intermediate buffering of events into arbitrary batches and thus avoiding any additional latency in their processing. Such event-driven processes present additional challenges compared to their simpler event-batching counterparts, which, in turn, can largely be attributed to the requirement to produce reliable results at event-rate, entailing significant practical implications for their deployment in real-world applications. The body of this thesis addresses the design of event-driven algorithms for efficient and asynchronous feature detection and tracking with event cameras, covering alongside crucial elements on pattern recognition and data association for this emerging sensing modality. In particular, a significant portion of this thesis is devoted to the study of visual corners for event cameras, leading to the design of innovative event-driven approaches for their detection and tracking as corner-events. Moreover, the presented research also investigates the use of generic patch-based features and their event-driven tracking for the efficient retrieval of high-quality feature tracks. All the developed algorithms in this thesis serve as crucial stepping stones towards a completely event-driven, feature-based Simultaneous Localization And Mapping (SLAM) pipeline. This dissertation extends upon established concepts from state-of-the-art, event-driven methods and further explores the limits of the event-driven paradigm in realistic monocular setups. While the presented approaches solely rely on event-data, the gained insights are seminal to future investigations targeting the combination of event-based vision with other, complementary sensing modalities. The research conducted here paves the way towards a new family of event-driven algorithms that operate efficiently, robustly, and in a scalable manner, envisioning a potential paradigm shift in event-based Computer Vision. Note de contenu : 1- Introduction
2- Contribution
3- Conclusion and outlookNuméro de notice : 28699 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : PhD Thesis : Sciences : ETH Zurich : 2022 DOI : sans En ligne : https://www.research-collection.ethz.ch/handle/20.500.11850/541700 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100470
Titre : Intelligent embedded camera for robust object tracking on mobile platform Titre original : Caméra intelligente embarquée pour le suivi robuste d'objets sur plateforme mobile Type de document : Thèse/HDR Auteurs : Imane Salhi, Auteur ; Valérie Gouet-Brunet , Directeur de thèse
Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2021 Importance : 177 p. Format : 21 x 30 cm Note générale : bibliographie
Doctoral Thesis Computer Science, Automation and Signal Processing, Ecole doctorale Mathématiques et STIC, Université Gustave EiffelLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Acquisition d'image(s) et de donnée(s)
[Termes IGN] caméra numérique
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] centrale inertielle
[Termes IGN] couplage caméra/INS
[Termes IGN] détection d'objet
[Termes IGN] instrument embarqué
[Termes IGN] méthode robuste
[Termes IGN] navigation inertielle
[Termes IGN] odomètre
[Termes IGN] système à couplage étroit
[Termes IGN] système de numérisation mobileRésumé : (auteur) Le suivi visuel-inertiel est une thématique d'actualité, difficile à traiter, notamment lorsqu’il s’agit de respecter les contraintes des systèmes embarqués, comme dans les drones autonomes (Unmanned Aerial Vehicles (UAVs)). Les questions relatives à la miniaturisation, la portabilité et la communication des systèmes électroniques s’inscrivent dans des problématiques actuelles en matière d'avancée technologique. Pour répondre de manière efficace à ces problématiques, il est nécessaire d’envisager des traitements complexes et des implémentations sur des supports contraignants en termes d’intégration et de consommation d’énergie, tels que les micro-véhicules aériens (MAVs), les lunettes et les caméras intelligentes. Au cours de cette dernière décennie, différents algorithmes performants de suivi ont été développés. En revanche, ils nécessitent des ressources calculatoires conséquentes, compte tenu des différentes formes d'utilisation possibles. Or, les systèmes embarqués imposent de fortes contraintes d'intégration, ce qui réduit leurs ressources, particulièrement en termes de capacité calculatoire. Ainsi, ce type de système nécessite de recourir à des approches efficaces avec moins de charge et de complexité calculatoire. L’enjeu de cette thèse réside dans cette problématique. L'objectif est d’apporter une solution embarquée de suivi qui permettrait d'assurer un fonctionnement robuste dans différents environnements de navigation. Une analyse des algorithmes pertinents de suivi, visuel et visuel-inertiel et des environnements de navigation ainsi qu’une étude de différentes architectures embarquées de calcul sont menées, afin de proposer notre solution nommée « système de suivi inertiel-visuel adaptatif à l'environnement de navigation~». Cette dernière consiste à alterner entre deux approches de suivi : KLT-ORB et EKF VI Tracking, selon les conditions de navigation du système, grâce au module de contrôle, tout en assurant la cohérence du système global en gérant le nombre de PoIs et l'occurrence de leur détection et en respectant les contraintes des systèmes embarqués. Tous nos expérimentations et tests ont été réalisées en utilisant le jeux de données EuRoC. Numéro de notice : 17632 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/POSITIONNEMENT Nature : Thèse française Note de thèse : Thèse : Informatique, automatique et traitement du signal : Gustave Eiffel : 2021 Organisme de stage : LaSTIG (IGN) + Laboratoire L3A (CEA) nature-HAL : Thèse DOI : sans Date de publication en ligne : 03/03/2021 En ligne : https://hal.archives-ouvertes.fr/tel-03150241 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97275 Intelligent sensors for positioning, tracking, monitoring, navigation and smart sensing in smart cities / Li Tiancheng (2021)
![]()
Titre : Intelligent sensors for positioning, tracking, monitoring, navigation and smart sensing in smart cities Type de document : Monographie Auteurs : Li Tiancheng, Éditeur scientifique ; Jan Junkun, Éditeur scientifique ; Cao Yue, Éditeur scientifique ; et al., Auteur Editeur : Bâle [Suisse] : Multidisciplinary Digital Publishing Institute MDPI Année de publication : 2021 Importance : 266 p. Format : 17 x 25 cm ISBN/ISSN/EAN : 978-3-0365-0123-9 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage automatique
[Termes IGN] capteur (télédétection)
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] détection de cible
[Termes IGN] exploration de données
[Termes IGN] Extreme Gradient Machine
[Termes IGN] fusion de données
[Termes IGN] Inférence floue
[Termes IGN] internet des objets
[Termes IGN] logique floue
[Termes IGN] navigation autonome
[Termes IGN] odomètre
[Termes IGN] positionnement en intérieur
[Termes IGN] réseau de capteurs
[Termes IGN] simulation de signal
[Termes IGN] ville intelligenteRésumé : (éditeur) The rapid development of advanced, arguably, intelligent sensors and their massive deployment provide a foundation for new paradigms to combat the challenges that arise in significant tasks such as positioning, tracking, navigation, and smart sensing in various environments. Relevant advances in artificial intelligence (AI) and machine learning (ML) are also finding rapid adoption by industry and fan the fire. Consequently, research on intelligent sensing systems and technologies has attracted considerable attention during the past decade, leading to a variety of effective applications related to intelligent transportation, autonomous vehicles, wearable computing, wireless sensor networks (WSN), and the internet of things (IoT). In particular, the sensors community has a great interest in novel, intelligent information fusion, and data mining methods coupling AI and ML for substantial performance enhancement, especially for the challenging scenarios that make traditional approaches inappropriate. This reprint book has collected 14 excellent papers that represent state-of-the-art achievements in the relevant topics and provides cutting-edge coverage of recent advances in sensor signal and data mining techniques, algorithms, and approaches, particularly applied for positioning, tracking, navigation, and smart sensing. Note de contenu : 1- MIMU/odometer fusion with state constraints for vehicle positioning during BeiDou signal outage: Testing and results
2- Autonomous road roundabout detection and navigation system for smart vehicles and cities using laser simulator–fuzzy logic algorithms and sensor fusion
3- An elaborated signal model for simultaneous range and vector velocity estimation in FMCW radar
4- Hybrid solution combining Kalman filtering with Takagi–Sugeno fuzzy inference system for online car-following model calibration
5- Computationally efficient cooperative dynamic range-only SLAM based on sum of Gaussian filter
6- LoRaWAN geo-tracking using map matching and compass sensor fusion
7- A robust multi-sensor data fusion clustering algorithm based on density peaks
8- Extended target marginal distribution Poisson multi-Bernoulli mixture filter
9- A multi-core object detection coprocessor for multi-scale/type classification applicable to IoT devices
10- Leveraging uncertainties in softmax decision-making models for low-power IoT devices
11- Implementing deep learning techniques in 5G IoT networks for 3D indoor positioning: DELTA (DeEp Learning-Based Co-operaTive Architecture)
12- A novel hybrid algorithm based on Grey Wolf optimizer and fireworks algorithm
13- Passenger flow forecasting in metro transfer station based on the combination of singular spectrum analysis and AdaBoost-weighted extreme learning machine
14- A unified fourth-order tensor-based smart community systemNuméro de notice : 28609 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE/POSITIONNEMENT Nature : Recueil / ouvrage collectif DOI : 10.3390/books978-3-0365-0123-9 En ligne : https://doi.org/10.3390/books978-3-0365-0123-9 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99453 PermalinkMéthodes de partage d'informations visuelles et inertielles pour la localisation et la cartographie simultanées décentralisées multi-robots / Rodolphe Dubois (2021)
PermalinkMise en place de nouvelles méthodes d’acquisition par lasergrammétrie en milieu difficile et couvert forestier en vue de la construction d’un parc éolien / Jean-Baptiste Myotte-Duquet (2021)
PermalinkPermalinkUrban Wi-Fi fingerprinting along a public transport route / Guenther Retscher in Journal of applied geodesy, vol 14 n° 4 (October 2020)
PermalinkUnder-canopy UAV laser scanning for accurate forest field measurements / Eric Hyyppä in ISPRS Journal of photogrammetry and remote sensing, vol 164 (June 2020)
PermalinkA review of techniques for 3D reconstruction of indoor environments / Zhizhong Kang in ISPRS International journal of geo-information, vol 9 n° 5 (May 2020)
PermalinkPermalinkSmoothing algorithms for navigation, localisation and mapping based on high-grade inertial sensors / Paul Chauchat (2020)
PermalinkEnhanced 3D mapping with an RGB-D sensor via integration of depth measurements and image sequences / Bo Wu in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 9 (September 2019)
Permalink