Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > compréhension de l'image
compréhension de l'imageVoir aussi |
Documents disponibles dans cette catégorie (32)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Estimation de profondeur à partir d'images monoculaires par apprentissage profond / Michel Moukari (2019)
Titre : Estimation de profondeur à partir d'images monoculaires par apprentissage profond Type de document : Thèse/HDR Auteurs : Michel Moukari, Auteur ; Frédéric Jurie, Directeur de thèse Editeur : Caen [France] : Université de Caen Normandie Année de publication : 2019 Importance : 182 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le diplôme de Doctorat, Spécialité Informatique, préparée au sein de l'Université Caen NormandieLangues : Français (fre) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] acuité stéréoscopique
[Termes IGN] analyse multiéchelle
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] carte de profondeur
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] données lidar
[Termes IGN] image 3D
[Termes IGN] image RVB
[Termes IGN] incertitude des données
[Termes IGN] traitement d'image
[Termes IGN] vision monoculaire
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine d'analyser, de traiter et de comprendre le contenu d'images numériques. La compréhension de scène en particulier est un enjeu majeur en vision par ordinateur. Elle passe par une caractérisation à la fois sémantique et structurelle de l'image, permettant d'une part d'en décrire le contenu et, d'autre part, d'en comprendre la géométrie. Cependant tandis que l'espace réel est de nature tridimensionnelle, l'image qui le représente, elle, est bidimensionnelle. Une partie de l'information 3D est donc perdue lors du processus de formation de l'image et il est d'autant plus complexe de décrire la géométrie d'une scène à partir d'images 2D de celle-ci.Il existe plusieurs manières de retrouver l'information de profondeur perdue lors de la formation de l'image. Dans cette thèse nous nous intéressons à l’estimation d'une carte de profondeur étant donné une seule image de la scène. Dans ce cas, l'information de profondeur correspond, pour chaque pixel, à la distance entre la caméra et l'objet représenté en ce pixel. L'estimation automatique d'une carte de distances de la scène à partir d'une image est en effet une brique algorithmique critique dans de très nombreux domaines, en particulier celui des véhicules autonomes (détection d’obstacles, aide à la navigation).Bien que le problème de l'estimation de profondeur à partir d'une seule image soit un problème difficile et intrinsèquement mal posé, nous savons que l'Homme peut apprécier les distances avec un seul œil. Cette capacité n'est pas innée mais acquise et elle est possible en grande partie grâce à l'identification d'indices reflétant la connaissance a priori des objets qui nous entourent. Par ailleurs, nous savons que des algorithmes d'apprentissage peuvent extraire ces indices directement depuis des images. Nous nous intéressons en particulier aux méthodes d’apprentissage statistique basées sur des réseaux de neurones profond qui ont récemment permis des percées majeures dans de nombreux domaines et nous étudions le cas de l'estimation de profondeur monoculaire. Note de contenu : 1- Introduction
2- État de l’art
3- Influence des hyperparamètres
4- Analyse multi-échelle
5- Évaluation de l’incertitude prédictive
6- Complétion de profondeur et estimation de confiance
7- Conclusions et perspectivesNuméro de notice : 25834 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Caen-Normandie : 2019 nature-HAL : Thèse DOI : sans En ligne : https://theses.hal.science/tel-02426260/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95172 Multimodal scene understanding: algorithms, applications and deep learning, ch. 8. Multimodal localization for embedded systems: a survey / Imane Salhi (2019)
Titre de série : Multimodal scene understanding: algorithms, applications and deep learning, ch. 8 Titre : Multimodal localization for embedded systems: a survey Type de document : Chapitre/Contribution Auteurs : Imane Salhi , Auteur ; Martyna Poreba , Auteur ; Erwan Piriou, Auteur ; Valérie Gouet-Brunet , Auteur ; Maroun Ojail, Auteur Editeur : Londres, New York : Academic Press Année de publication : 2019 Importance : pp 199 - 278 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] compréhension de l'image
[Termes IGN] fusion de données
[Termes IGN] géopositionnement
[Termes IGN] instrument embarqué
[Termes IGN] navigation automobile
[Termes IGN] navigation pédestre
[Termes IGN] réalité mixteRésumé : (Auteur) Localization by jointly exploiting multimodal information, like cameras, inertial measurement units (IMU), and global navigation satellite system (GNSS) data, is an active key research topic for autonomous embedded systems such as smart glasses or drones. These systems have become topical for acquisition, modeling, and interpretation for scene understanding. The exploitation of different sensor types improves the robustness of the localization, e.g. by merging the accuracy of one sensor with the reactivity of another one in a flexible manner. This chapter presents a survey of the existing multimodal techniques dedicated to the localization of autonomous embedded systems. Both the algorithmic and the hardware architecture sides are investigated in order to provide a global overview of the key elements to be considered when designing these embedded systems. Several applications in different domains (e.g. localization for mapping, pedestrian localization, automotive navigation and mixed reality) are presented to illustrate the importance of such systems nowadays in scene understanding. Numéro de notice : H2019-001 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Chapître / contribution nature-HAL : ChOuvrScient DOI : 10.1016/B978-0-12-817358-9.00014-7 Date de publication en ligne : 02/08/2019 En ligne : https://doi.org/10.1016/B978-0-12-817358-9.00014-7 Format de la ressource électronique : URL chapitre Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93300 The necessary yet complex evaluation of 3D city models: a semantic approach / Oussama Ennafii (2019)
Titre : The necessary yet complex evaluation of 3D city models: a semantic approach Type de document : Article/Communication Auteurs : Oussama Ennafii , Auteur ; Clément Mallet , Auteur ; Arnaud Le Bris , Auteur ; Florent Lafarge, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2019 Projets : 1-Pas de projet / Conférence : JURSE 2019, Joint Urban Remote Sensing Event 22/05/2019 24/05/2019 Vannes France Proceedings IEEE Importance : 4 p. Format : 21 x 30 cm Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] compréhension de l'image
[Termes IGN] détection d'anomalie
[Termes IGN] image à très haute résolution
[Termes IGN] modèle 3D de l'espace urbain
[Termes IGN] précision sémantique
[Termes IGN] taxinomieRésumé : (Auteur) The automatic modeling of urban scenes in 3D from geospatial data has been studied for more than thirty years.However, the output models still have to undergo a tedious task of correction at city scale. In this work, we propose an approach for automatically evaluating the quality of 3D building models.A taxonomy of potential errors is first proposed. Handcrafted features are computed, based on the geometric properties of buildings and, when available, Very High Resolution images and depth data. They are fed into a Random Forest classifier for the prediction of the quality of the models. We tested our framework on three distinct urban areas in France. We can satisfactorily detect, on average 96% of the most frequent errors. Numéro de notice : C2019-001 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/JURSE.2019.8809002 Date de publication en ligne : 22/08/2019 En ligne : https://doi.org/10.1109/JURSE.2019.8809002 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92103 Documents numériques
en open access
The necessary yet complex evaluation of 3D city models - pdf auteurAdobe Acrobat PDF Towards visual urban scene understanding for autonomous vehicle path tracking using GPS positioning data / Citlalli Gamez Serna (2019)
Titre : Towards visual urban scene understanding for autonomous vehicle path tracking using GPS positioning data Type de document : Thèse/HDR Auteurs : Citlalli Gamez Serna, Auteur ; Yassine Ruichek, Directeur de thèse Editeur : Dijon : Université Bourgogne Franche-Comté UBFC Année de publication : 2019 Importance : 178 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université Bourgogne Franche-Comté préparée à l'Université de Technologie de Belfort-Montbéliard, InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] instance
[Termes IGN] milieu urbain
[Termes IGN] navigation autonome
[Termes IGN] récepteur GPS
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] signalisation routière
[Termes IGN] système de transport intelligent
[Termes IGN] trajectoire (véhicule non spatial)
[Termes IGN] véhicule sans pilote
[Termes IGN] vision par ordinateur
[Termes IGN] vision stéréoscopique
[Termes IGN] vitesseMots-clés libres : suivi d'itinéraire Index. décimale : THESE Thèses et HDR Résumé : (auteur) This PhD thesis focuses on developing a path tracking approach based on visual perception and localization in urban environments. The proposed approach comprises two systems. The first one concerns environment perception. This task is carried out using deep learning techniques to automatically extract 2D visual features and use them to learn in order to distinguish the different objects in the driving scenarios. Three deep learning techniques are adopted: semantic segmentation to assign each image pixel to a class, instance segmentation to identify separated instances of the same class and, image classification to further recognize the specific labels of the instances. Here our system segments 15 object classes and performs traffic sign recognition. The second system refers to path tracking. In order to follow a path, the equipped vehicle first travels and records the route with a stereo vision system and a GPS receiver (learning step). The proposed system analyses off-line the GPS path and identifies exactly the locations of dangerous (sharp) curves and speed limits. Later after the vehicle is able to localize itself, the vehicle control module together with our speed negotiation algorithm, takes into account the information extracted and computes the ideal speed to execute. Through experimental results of both systems, we prove that, the first one is capable to detect and recognize precisely objects of interest in urban scenarios, while the path tracking one reduces significantly the lateral errors between the learned and traveled path. We argue that the fusion of both systems will ameliorate the tracking approach for preventing accidents or implementing autonomous driving. Note de contenu : I- Context and problems
1- Introduction
II- Contribution
2- Proposed datasets
3- Traffic sign classification
4- Visual perception system for urban environments
5- Dynamic speed adaptation system for path tracking based on curvature
information and speed limits
III- Conclusions and future works
6- Conclusions and future worksNuméro de notice : 25967 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : UBFC : 2019 Organisme de stage : CIAD Dijon nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02160966/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96587 Configurable 3D scene synthesis and 2D image rendering with per-pixel ground truth using stochastic grammars / Chenfanfu Jiang in International journal of computer vision, vol 126 n° 9 (September 2018)
[article]
Titre : Configurable 3D scene synthesis and 2D image rendering with per-pixel ground truth using stochastic grammars Type de document : Article/Communication Auteurs : Chenfanfu Jiang, Auteur ; Shuyao Qi, Auteur ; Yixin Zhu, Auteur ; et al., Auteur Année de publication : 2018 Article en page(s) : pp 920 - 941 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] architecture pipeline (processeur)
[Termes IGN] compréhension de l'image
[Termes IGN] image RVB
[Termes IGN] rendu réaliste
[Termes IGN] scène intérieure
[Termes IGN] segmentation sémantique
[Termes IGN] synthèse d'imageRésumé : (Auteur) We propose a systematic learning-based approach to the generation of massive quantities of synthetic 3D scenes and arbitrary numbers of photorealistic 2D images thereof, with associated ground truth information, for the purposes of training, benchmarking, and diagnosing learning-based computer vision and robotics algorithms. In particular, we devise a learning-based pipeline of algorithms capable of automatically generating and rendering a potentially infinite variety of indoor scenes by using a stochastic grammar, represented as an attributed Spatial And-Or Graph, in conjunction with state-of-the-art physics-based rendering. Our pipeline is capable of synthesizing scene layouts with high diversity, and it is configurable inasmuch as it enables the precise customization and control of important attributes of the generated scenes. It renders photorealistic RGB images of the generated scenes while automatically synthesizing detailed, per-pixel ground truth data, including visible surface depth and normal, object identity, and material information (detailed to object parts), as well as environments (e.g., illuminations and camera viewpoints). We demonstrate the value of our synthesized dataset, by improving performance in certain machine-learning-based scene understanding tasks—depth and surface normal prediction, semantic segmentation, reconstruction, etc.—and by providing benchmarks for and diagnostics of trained models by modifying object attributes and scene properties in a controllable manner. Numéro de notice : A2018-416 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-018-1103-5 Date de publication en ligne : 30/06/2018 En ligne : https://doi.org/10.1007/s11263-018-1103-5 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90899
in International journal of computer vision > vol 126 n° 9 (September 2018) . - pp 920 - 941[article]Robust detection and affine rectification of planar homogeneous texture for scene understanding / Shahzor Ahmad in International journal of computer vision, vol 126 n° 8 (August 2018)PermalinkComparative study of visual saliency maps in the problem of classification of architectural images with Deep CNNs / Abraham Montoya Obeso (2018)PermalinkPermalinkPermalinkObject-based classification of terrestrial laser scanning point clouds for landslide monitoring / Andreas Mayr in Photogrammetric record, vol 32 n° 160 (December 2017)PermalinkJoint classification and contour extraction of large 3D point clouds / Timo Hackel in ISPRS Journal of photogrammetry and remote sensing, vol 130 (August 2017)PermalinkMotion priors based on goals hierarchies in pedestrian tracking applications / Francisco Madrigal in Machine Vision and Applications, vol 28 n° 3-4 (May 2017)PermalinkPermalinkSemantic point cloud interpretation based on optimal neighborhoods, relevant features and efficient classifiers / Martin Weinmann in ISPRS Journal of photogrammetry and remote sensing, vol 105 (July 2015)PermalinkDistinctive 2D and 3D features for automated large-scale scene analysis in urban areas / Martin Weinmann in Computers and graphics, vol 49 (June 2015)PermalinkTerraMobilita/iQmulus urban point cloud analysis benchmark / Bruno Vallet in Computers and graphics, vol 49 (June 2015)PermalinkAAMAS'05, fifth European workshop on adaptive agents and multi-agent systems, March 21 - 22, 2005, Paris, France / Eduardo Alonso (2005)PermalinkAnalyse et segmentation de séquences d'images en vue d'une reconnaissance de formes efficace / Santiago Venegas Martinez (2002)PermalinkContribution à la modélisation topologique par vision 2D et 3D pour la navigation d'un robot mobile sur terrain naturel / Carlos Alberto Parra Rodriguez (1999)PermalinkContribution à la mise en oeuvre d'une architecture à base de connaissances pour l'interprétation de scène 2D et 3D / Fadi Sandakly (1995)PermalinkAmélioration de la détection de contours en imagerie artificielle par un modèle coopératif multi-résolution / Franck Mangin (1994)PermalinkSystème multi-agents d’aide à la photo-interprétation sur architecture multiprocesseur / Valéry Lefèvre (1994)PermalinkMessie, un système d'analyse de scène : application à l'imagerie aérienne / Philippe Garnesson (1991)PermalinkUne approche variationnelle pour la reconnaissance d'objets / Pascal Fua (1989)Permalink