Descripteur
Termes IGN > sciences naturelles > physique > optique > optique physiologique > vision
visionSynonyme(s)perception visuelle |
Documents disponibles dans cette catégorie (175)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Unsupervised vision methods based on image perceptual information Type de document : Thèse/HDR Auteurs : Eric Bazan, Auteur ; Petr Dokladal, Directeur de thèse ; Eva Dokladalova, Directeur de thèse Editeur : Paris : Université Paris Sciences et Lettres Année de publication : 2021 Importance : 227 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de doctorat de l'Université Paris Sciences et Lettres, Préparée à MINES ParisTech, spécialité Morphologie MathématiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage non-dirigé
[Termes IGN] compréhension de l'image
[Termes IGN] contour
[Termes IGN] couleur (variable spectrale)
[Termes IGN] décomposition spectrale
[Termes IGN] filtre de Gabor
[Termes IGN] image captée par drone
[Termes IGN] segmentation d'image
[Termes IGN] texture d'image
[Termes IGN] visionIndex. décimale : THESE Thèses et HDR Résumé : (auteur) This thesis work deals with extracting features and low-level primitives from perceptual image information to understand scenes. Motivated by the needs and problems in Unmanned Aerial Vehicles (UAVs) vision based navigation, we propose novel methods focusing on image understanding problems. This work explores three main pieces of information in an image: intensity, color, and texture. In the first chapter of the manuscript, we work with the intensity information through image contours. We combine this information with human perception concepts, such as the Helmholtz principle and the Gestalt laws, to propose an unsupervised framework for object detection and identification. We validate this methodology in the last stage of the drone navigation, just before the landing. In the following chapters of the manuscript, we explore the color and texture information contained in the images. First, we present an analysis of color and texture as global distributions of an image. This approach leads us to study the Optimal Transport theory and its properties as a true metric for color and texture distributions comparison. We review and compare the most popular similarity measures between distributions to show the importance of a metric with the correct properties such as non-negativity and symmetry. We validate such concepts in two image retrieval systems based on the similarity of color distribution and texture energy distribution. Finally, we build an image representation that exploits the relationship between color and texture information. The image representation results from the image’s spectral decomposition, which we obtain by the convolution with a family of Gabor filters. We present in detail the improvements to the Gabor filter and the properties of the complex color spaces. We validate our methodology with a series of segmentation and boundary detection algorithms based on the computed perceptual feature space. Numéro de notice : 15285 Affiliation des auteurs : non IGN Thématique : IMAGERIE/MATHEMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Morphologie Mathématique : Paris Sciences et Lettres : 2021 Organisme de stage : Centre de Morphologie Mathématique DOI : sans En ligne : https://hal.science/tel-03690309 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101418 Visual exploration of historical image collections: An interactive approach through space and time / Evelyn Paiz-Reyes (2021)
Titre : Visual exploration of historical image collections: An interactive approach through space and time Type de document : Thèse/HDR Auteurs : Evelyn Paiz-Reyes , Auteur ; Sidonie Christophe , Directeur de thèse ; Mathieu Brédif , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2021 Projets : Alegoria / Gouet-Brunet, Valérie Note générale : bibliographie
École doctorale Mathématiques, Sciences et Technologies de l'Information et de la CommunicationLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] convivialité
[Termes IGN] distorsion d'image
[Termes IGN] exploration d'images
[Termes IGN] image ancienne
[Termes IGN] image numérisée
[Termes IGN] interactivité
[Termes IGN] modèle 3D de l'espace urbain
[Termes IGN] prototype
[Termes IGN] rendu (géovisualisation)
[Termes IGN] vision
[Termes IGN] visualisation 2D
[Termes IGN] visualisation de donnéesIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les représentations iconographiques, telles que les photos historiques d’espaces géographiques, sont des ressources précieuses du Patrimoine Culturel permettant la description de l’évolution d’une zone topographique au cours du temps. Avec l’avènement de l’ère numérique, nombre de ces documents ont été numérisés, spatialisés et sont désormais disponibles en ligne. Cependant, il reste difficile pour les utilisateurs de parcourir et de visualiser ces images dans l’espace et dans le temps. Le projet ANR ALEGORIA relève cet enjeu et s’oriente vers des collections photographiques retraçant le territoire français de l’entre-deux-guerres à nos jours, composées de photographies aériennes et terrestres fournies par le consortium (Archives Nationales, Musée Nicéphore Niépce, Institut National de l’Information Géographique et Forestière).
Cette thèse présente notre proposition pour une exploration visuelle des collections d’images historiques en utilisant une approche interactive à travers l’espace et le temps. Nous proposons de co-visualiser des photographies historiques à l’intérieur de modèles topographiques 3D contemporains, et nos deux contributions principales sont : (i) l’extrapolation du modèle de distorsion géométrique de la photographie pour permettre aux utilisateurs de visualiser le monde numérique 3D à travers le dispositif de capture de la photo à l’aide d’une méthodologie de Rendu Basée sur l’Image ; (ii) la proposition d’un ensemble de techniques de visualisation géographique basées sur la perception visuelle de l’utilisateur pour fournir une exploration interactive en 3D dans l’espace et dans le temps. Pour intégrer ces deux contributions et pour offrir des capacités d’interaction utilisateur, nous avons mis en place le prototype HISTOVIS. Il s’agit d’un système Web offrant une exploration visuelle interactive de vastes collections d’images historiques du projet ALEGORIA. Il combine plusieurs techniques de visualisation et d’interaction, par exemple, cartes thermiques, vignettes d’images, marqueurs de point de vue, etc. Trois scénarios d’usages (visualisation de fonds photographiques, exploration temporelle au niveau de la rue et navigation entre des photographies non spatialisées dans un environnement 3D) ont été évalués par une étude utilisateur et dans le cadre du projet, pour définir et évaluer son utilisabilité.Note de contenu : 1- Outline of work
2- Background and related work
3- Formalization of the problem
4- Extrapolation of the geometric distorsion for 3D visualization
5- Navigation techniques to reduce visual complexity
6- HISTOVIS: Co-Visualization of Historical Photos and 3D City Models
General Conclusions and PerspectivesNuméro de notice : 15811 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans En ligne : https://theses.hal.science/tel-03697260 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99202 3D hand mesh reconstruction from a monocular RGB image / Hao Peng in The Visual Computer, vol 36 n° 10 - 12 (October 2020)
[article]
Titre : 3D hand mesh reconstruction from a monocular RGB image Type de document : Article/Communication Auteurs : Hao Peng, Auteur ; Chuhua Xian, Auteur ; Yunbo Zhang, Auteur Année de publication : 2020 Article en page(s) : pp pages2227 - 2239 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] estimation de pose
[Termes IGN] image de synthèse
[Termes IGN] image RVB
[Termes IGN] maillage
[Termes IGN] modélisation 3D
[Termes IGN] réalité augmentée
[Termes IGN] réalité virtuelle
[Termes IGN] reconstruction 3D
[Termes IGN] reconstruction d'objet
[Termes IGN] vision monoculaireRésumé : (auteur) Most of the existing methods for 3D hand analysis based on RGB images mainly focus on estimating hand keypoints or poses, which cannot capture geometric details of the 3D hand shape. In this work, we propose a novel method to reconstruct a 3D hand mesh from a single monocular RGB image. Different from current parameter-based or pose-based methods, our proposed method directly estimates the 3D hand mesh based on graph convolution neural network (GCN). Our network consists of two modules: the hand localization and mask generation module, and the 3D hand mesh reconstruction module. The first module, which is a VGG16-based network, is applied to localize the hand region in the input image and generate the binary mask of the hand. The second module takes the high-order features from the first and uses a GCN-based network to estimate the coordinates of each vertex of the hand mesh and reconstruct the 3D hand shape. To achieve better accuracy, a novel loss based on the differential properties of the discrete mesh is proposed. We also use professional software to create a large synthetic dataset that contains both ground truth 3D hand meshes and poses for training. To handle the real-world data, we use the CycleGAN network to transform the data domain of real-world images to that of our synthesis dataset. We demonstrate that our method can produce accurate 3D hand mesh and achieve an efficient performance for real-time applications. Numéro de notice : A2020-596 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00371-020-01908-3 Date de publication en ligne : 14/07/2020 En ligne : https://doi.org/10.1007/s00371-020-01908-3 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95936
in The Visual Computer > vol 36 n° 10 - 12 (October 2020) . - pp pages2227 - 2239[article]Comparing the roles of landmark visual salience and semantic salience in visual guidance during indoor wayfinding / Weihua Dong in Cartography and Geographic Information Science, vol 47 n° 3 (May 2020)
[article]
Titre : Comparing the roles of landmark visual salience and semantic salience in visual guidance during indoor wayfinding Type de document : Article/Communication Auteurs : Weihua Dong, Auteur ; Tong Qin, Auteur ; Hua Liao, Auteur Année de publication : 2020 Article en page(s) : pp 229 - 243 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes IGN] analyse visuelle
[Termes IGN] interprétation (psychologie)
[Termes IGN] oculométrie
[Termes IGN] point de repère
[Termes IGN] questionnaire
[Termes IGN] saillance
[Termes IGN] scène intérieure
[Termes IGN] segmentation sémantique
[Termes IGN] test statistique
[Termes IGN] vision
[Termes IGN] vision par ordinateur
[Vedettes matières IGN] GéovisualisationRésumé : (auteur) Landmark visual salience (characterized by features that contrast with their surroundings and visual peculiarities) and semantic salience (characterized by features with unusual or important meaning and content in the environment) are two important factors that affect an individual’s visual attention during wayfinding. However, empirical evidence regarding which factor dominates visual guidance during indoor wayfinding is rare, especially in real-world environments. In this study, we assumed that semantic salience dominates the guidance of visual attention, which means that semantic salience will correlate with participants’ fixations more significantly than visual salience. Notably, in previous studies, semantic salience was shown to guide visual attention in static images or familiar scenes in a laboratory environment. To validate this assumption, first, we collected the eye movement data of 22 participants as they found their way through a building. We then computed the landmark visual and semantic salience using computer vision models and questionnaires, respectively. Finally, we conducted correlation tests to verify our assumption. The results failed to validate our assumption and show that the role of salience in visual guidance in a real-world wayfinding process is different from the role of salience in perceiving static images or scenes in a laboratory. Visual salience dominates visual attention during indoor wayfinding, but the roles of salience in visual guidance are mixed across different landmark classes and tasks. The results provide new evidence for understanding how pedestrians visually interpret landmark information during real-world indoor wayfinding. Numéro de notice : A2020-169 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/15230406.2019.1697965 Date de publication en ligne : 18/12/2019 En ligne : https://doi.org/10.1080/15230406.2019.1697965 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94841
in Cartography and Geographic Information Science > vol 47 n° 3 (May 2020) . - pp 229 - 243[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 032-2020031 RAB Revue Centre de documentation En réserve L003 Disponible Refractive two-view reconstruction for underwater 3D vision / François Chadebecq in International journal of computer vision, vol 128 n° 5 (May 2020)
[article]
Titre : Refractive two-view reconstruction for underwater 3D vision Type de document : Article/Communication Auteurs : François Chadebecq, Auteur ; Francisco Vasconcelos, Auteur ; René Lacher, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 1101 - 1117 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Acquisition d'image(s) et de donnée(s)
[Termes IGN] correction d'image
[Termes IGN] estimation de pose
[Termes IGN] étalonnage d'instrument
[Termes IGN] image sous-marine
[Termes IGN] reconstruction 3D
[Termes IGN] réfraction de l'eau
[Termes IGN] structure-from-motion
[Termes IGN] temps de pose
[Termes IGN] vision stéréoscopiqueRésumé : (auteur) Recovering 3D geometry from cameras in underwater applications involves the Refractive Structure-from-Motion problem where the non-linear distortion of light induced by a change of medium density invalidates the single viewpoint assumption. The pinhole-plus-distortion camera projection model suffers from a systematic geometric bias since refractive distortion depends on object distance. This leads to inaccurate camera pose and 3D shape estimation. To account for refraction, it is possible to use the axial camera model or to explicitly consider one or multiple parallel refractive interfaces whose orientations and positions with respect to the camera can be calibrated. Although it has been demonstrated that the refractive camera model is well-suited for underwater imaging, Refractive Structure-from-Motion remains particularly difficult to use in practice when considering the seldom studied case of a camera with a flat refractive interface. Our method applies to the case of underwater imaging systems whose entrance lens is in direct contact with the external medium. By adopting the refractive camera model, we provide a succinct derivation and expression for the refractive fundamental matrix and use this as the basis for a novel two-view reconstruction method for underwater imaging. For validation we use synthetic data to show the numerical properties of our method and we provide results on real data to demonstrate its practical application within laboratory settings and for medical applications in fluid-immersed endoscopy. We demonstrate our approach outperforms classic two-view Structure-from-Motion method relying on the pinhole-plus-distortion camera model. Numéro de notice : A2020-508 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-019-01218-9 Date de publication en ligne : 18/11/2019 En ligne : https://doi.org/10.1007/s11263-019-01218-9 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96972
in International journal of computer vision > vol 128 n° 5 (May 2020) . - pp 1101 - 1117[article]Multichannel Pulse-Coupled Neural Network-Based Hyperspectral Image Visualization / Puhong Duan in IEEE Transactions on geoscience and remote sensing, vol 58 n° 4 (April 2020)PermalinkAutocovariance-based perceptual textural features corresponding to human visual perception / N. Abbadeni (2020)PermalinkPermalinkContext pyramidal network for stereo matching regularized by disparity gradients / Junhua Kang in ISPRS Journal of photogrammetry and remote sensing, vol 157 (November 2019)PermalinkEmpirical studies on the visual perception of spatial patterns in choropleth maps / Jochen Schiewe in KN, Journal of Cartography and Geographic Information, vol 69 n° 3 (September 2019)PermalinkEstimation de profondeur à partir d'images monoculaires par apprentissage profond / Michel Moukari (2019)PermalinkPrise en compte des imperfections des données en entrée des calculs d’intervisibilité en montagne / Mohssine Kaouadji (2019)PermalinkTowards visual urban scene understanding for autonomous vehicle path tracking using GPS positioning data / Citlalli Gamez Serna (2019)PermalinkVision-based localization with discriminative features from heterogeneous visual data / Nathan Piasco (2019)PermalinkCartographic redundancy in reducing change blindness in detecting extreme values in spatio-temporal maps / Paweł Cybulski in ISPRS International journal of geo-information, vol 7 n° 1 (January 2018)Permalink