Détail de l'auteur
Auteur Maroun Ojail |
Documents disponibles écrits par cet auteur (2)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Multimodal scene understanding: algorithms, applications and deep learning, ch. 8. Multimodal localization for embedded systems: a survey / Imane Salhi (2019)
Titre de série : Multimodal scene understanding: algorithms, applications and deep learning, ch. 8 Titre : Multimodal localization for embedded systems: a survey Type de document : Chapitre/Contribution Auteurs : Imane Salhi , Auteur ; Martyna Poreba , Auteur ; Erwan Piriou, Auteur ; Valérie Gouet-Brunet , Auteur ; Maroun Ojail, Auteur Editeur : Londres, New York : Academic Press Année de publication : 2019 Importance : pp 199 - 278 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] compréhension de l'image
[Termes IGN] fusion de données
[Termes IGN] géopositionnement
[Termes IGN] instrument embarqué
[Termes IGN] navigation automobile
[Termes IGN] navigation pédestre
[Termes IGN] réalité mixteRésumé : (Auteur) Localization by jointly exploiting multimodal information, like cameras, inertial measurement units (IMU), and global navigation satellite system (GNSS) data, is an active key research topic for autonomous embedded systems such as smart glasses or drones. These systems have become topical for acquisition, modeling, and interpretation for scene understanding. The exploitation of different sensor types improves the robustness of the localization, e.g. by merging the accuracy of one sensor with the reactivity of another one in a flexible manner. This chapter presents a survey of the existing multimodal techniques dedicated to the localization of autonomous embedded systems. Both the algorithmic and the hardware architecture sides are investigated in order to provide a global overview of the key elements to be considered when designing these embedded systems. Several applications in different domains (e.g. localization for mapping, pedestrian localization, automotive navigation and mixed reality) are presented to illustrate the importance of such systems nowadays in scene understanding. Numéro de notice : H2019-001 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Chapître / contribution nature-HAL : ChOuvrScient DOI : 10.1016/B978-0-12-817358-9.00014-7 Date de publication en ligne : 02/08/2019 En ligne : https://doi.org/10.1016/B978-0-12-817358-9.00014-7 Format de la ressource électronique : URL chapitre Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93300
Titre : Suivi d’objet par capteurs visuels et inertiels sur systèmes embarqués Titre original : Inertial-aided KLT features tracking on embedded GPU Type de document : Article/Communication Auteurs : Imane Salhi , Auteur ; Erwan Piriou, Auteur ; Martyna Poreba , Auteur ; Maroun Ojail, Auteur ; Valérie Gouet-Brunet , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : 1-Pas de projet / Conférence : CFPT 2018, Conférence Française de Photogrammétrie et de Télédétection 25/06/2018 28/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] algorithme de Lucas-Kanade
[Termes IGN] caméra numérique
[Termes IGN] centrale inertielle
[Termes IGN] fusion de données
[Termes IGN] instrument embarqué
[Termes IGN] objet mobile
[Termes IGN] point d'intérêtRésumé : (auteur) Cet article présente une amélioration d’un algorithme de suivi de points d’intérêt par la fusion de données inertielles (Inertial Measurement Unit - IMU) et visuelles (caméra) avec pour finalité sa mise en œuvre sur une caméra intelligente embarquée mobile. L’adaptation proposée repose sur un couplage serré qui s’appuie sur l’algorithme KLT assisté par des données inertielles, implémenté sur CPU et accéléré par un GPU. Cette solution de l’état de l’art donne des résultats précis et robustes de suivi de points d’intérêt par une caméra mobile, mais le traitement est effectué sur une machine type PC fixe (x86). Elle ne tient donc pas compte des contraintes inhérentes aux systèmes embarqués telles que la consommation d’énergie, le coût calculatoire et la surface silicium occupée. Dans cet article, l’étude se focalise sur la mise en œuvre de cet algorithme de suivi robuste sur une cible embarquée (Nvidia Tegra X1) afin de répondre aux exigences des systèmes avec de fortes contraintes d’intégration. Les modifications apportées sont évaluées en comparant la qualité du suivi obtenu et les temps d’exécution sur cible embarquée par rapport à ceux de l’approche de référence. Les expériences montrent que même sur une cible embarquée, la précision du suivi n’est pas dégradée. Numéro de notice : C2018-013 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Poster nature-HAL : Poster-avec-CL DOI : sans Date de publication en ligne : 25/06/2018 En ligne : https://rfiap2018.ign.fr/sites/default/files/ARTICLES/CFPT2018/Posters/CFPT2018_ [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90384 Documents numériques
en open access
Suivi d’objet par capteurs ... - pdf éditeurAdobe Acrobat PDF