Descripteur
Documents disponibles dans cette catégorie (1698)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
A simplified ICA-based local similarity stereo matching / Suting Chen in The Visual Computer, vol 37 n° 2 (February 2021)
[article]
Titre : A simplified ICA-based local similarity stereo matching Type de document : Article/Communication Auteurs : Suting Chen, Auteur ; Jinglin Zhang, Auteur ; Meng Jin, Auteur Année de publication : 2021 Article en page(s) : pp 411 - 419 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse en composantes indépendantes
[Termes IGN] appariement d'images
[Termes IGN] similitudeRésumé : (auteur) Since the existing stereo matching methods may fail in the regions of non-textures, boundaries and tiny details, a simplified independent component correlation algorithm (ICA)-based local similarity stereo matching algorithm is proposed. In order to improve the DispNetC, the proposed algorithm first offers the simplified independent component correlation algorithm (SICA) cost aggregation. Then, the algorithm introduces the matching cost volume pyramid, which simplifies the pre-processing process for the ICA. Also, the SICA loss function is defined. Next, the region-wise loss function combined with the pixel-wise loss function is defined as a local similarity loss function to improve the spatial structure of the disparity map. Finally, the SICA loss function is combined with the local similarity loss function, which is defined to estimate the disparity map and to compensate the edge information of the disparity map. Experimental results on KITTI dataset show that the average absolute error of the proposed algorithm is about 37% lower than that of the DispNetC, and its runtime consuming is about 0.6 s lower than that of GC-Net. Numéro de notice : A2021-176 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00371-020-01811-x Date de publication en ligne : 15/02/2020 En ligne : https://doi.org/10.1007/s00371-020-01811-x Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97286
in The Visual Computer > vol 37 n° 2 (February 2021) . - pp 411 - 419[article]
Titre : 3D point cloud compression Type de document : Thèse/HDR Auteurs : Chao Cao, Auteur ; Titus Zaharia, Directeur de thèse ; Marius Preda, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2021 Importance : 165 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de doctorat de l’Institut polytechnique de Paris, Spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] compression d'image
[Termes IGN] corrélation automatique de points homologues
[Termes IGN] couleur (variable spectrale)
[Termes IGN] état de l'art
[Termes IGN] objet 3D
[Termes IGN] précision géométrique (imagerie)
[Termes IGN] scène 3D
[Termes IGN] segmentation d'image
[Termes IGN] semis de points
[Termes IGN] structure-from-motionIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) With the rapid growth of multimedia content, 3D objects are becoming more and more popular. Most of the time, they are modeled as complex polygonal meshes or dense point clouds, providing immersive experiences in different industrial and consumer multimedia applications. The point cloud, which is easier to acquire than mesh and is widely applicable, has raised many interests in both the academic and commercial worlds.A point cloud is a set of points with different properties such as their geometrical locations and the associated attributes (e.g., color, material properties, etc.). The number of the points within a point cloud can range from a thousand, to constitute simple 3D objects, up to billions, to realistically represent complex 3D scenes. Such huge amounts of data bring great technological challenges in terms of transmission, processing, and storage of point clouds.In recent years, numerous research works focused their efforts on the compression of meshes, while less was addressed for point clouds. We have identified two main approaches in the literature: a purely geometric one based on octree decomposition, and a hybrid one based on both geometry and video coding. The first approach can provide accurate 3D geometry information but contains weak temporal consistency. The second one can efficiently remove the temporal redundancy yet a decrease of geometrical precision can be observed after the projection. Thus, the tradeoff between compression efficiency and accurate prediction needs to be optimized.We focused on exploring the temporal correlations between dynamic dense point clouds. We proposed different approaches to improve the compression performance of the MPEG (Moving Picture Experts Group) V-PCC (Video-based Point Cloud Compression) test model, which provides state-of-the-art compression on dynamic dense point clouds.First, an octree-based adaptive segmentation is proposed to cluster the points with different motion amplitudes into 3D cubes. Then, motion estimation is applied to these cubes using affine transformation. Gains in terms of rate-distortion (RD) performance have been observed in sequences with relatively low motion amplitudes. However, the cost of building an octree for the dense point cloud remains expensive while the resulting octree structures contain poor temporal consistency for the sequences with higher motion amplitudes.An anatomical structure is then proposed to model the motion of the point clouds representing humanoids more inherently. With the help of 2D pose estimation tools, the motion is estimated from 14 anatomical segments using affine transformation.Moreover, we propose a novel solution for color prediction and discuss the residual coding from prediction. It is shown that instead of encoding redundant texture information, it is more valuable to code the residuals, which leads to a better RD performance.Although our contributions have improved the performances of the V-PCC test models, the temporal compression of dynamic point clouds remains a highly challenging task. Due to the limitations of the current acquisition technology, the acquired point clouds can be noisy in both geometry and attribute domains, which makes it challenging to achieve accurate motion estimation. In future studies, the technologies used for 3D meshes may be exploited and adapted to provide temporal-consistent connectivity information between dynamic 3D point clouds. Note de contenu : Chapter 1 - Introduction
1.1. Background and motivation
1.2. Outline of the thesis and contributions
Chapter 2 - 3D Point Cloud Compression: State of the art
2.1. The 3D PCC “Universe Map” for methods
2.2. 1D methods: geometry traversal
2.3. 2D methods: Projection and mapping onto 2D planar domains
2.4. 3D methods: Direct exploitation of 3D correlations
2.5. DL-based methods
2.6. 3D PCC: What is missing?
2.7. MPEG 3D PCC standards
Chapter 3 - Extended Study of MPEG V-PCC and G-PCC Approaches
3.1. V-PCC methodology
3.2. Experimental evaluation of V-PCC
3.3. G-PCC methodology
3.4. Experimental evaluation of G-PCC
3.5. Experiments on the V-PCC inter-coding mode
3.6. Conclusion
Chapter 4 - Octree-based RDO segmentation
4.1. Pipeline
4.2. RDO-based octree segmentation
4.3. Prediction modeS
4.4. Experimental results
4.5. Conclusion
Chapter 5 - Skeleton-based motion estimation and compensation
5.1. Introduction
5.2. 3D Skeleton Generation
5.3. Motion estimation and compression
5.4. Experimental results
5.5. Conclusion
Chapter 6 - Temporal prediction using anatomical segmentation
6.1. Introduction
6.2. A novel dynamic 3D point cloud dataset
6.3. Prediction structure
6.4. Improved anatomy segmentation
6.5. Experimental results
6.6. Conclusion
Chapter 7 - A novel color compression for point clouds using affine transformation
7.1. Introduction
7.2. The residuals from both geometry and color
7.3. The prediction structure
7.4. Compression of the color residuals
7.5. Experimental results
7.6. Conclusion
Chapter 8 - Conclusion and future work
8.1. Conclusion
8.2. Future workNuméro de notice : 26821 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : informatique : Paris : 2021 Organisme de stage : Telecom SudParis nature-HAL : Thèse DOI : sans Date de publication en ligne : 13/04/2022 En ligne : https://tel.hal.science/tel-03524521 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100476 Apprentissage profond et IA pour l’amélioration de la robustesse des techniques de localisation par vision artificielle / Achref Elouni (2021)
Titre : Apprentissage profond et IA pour l’amélioration de la robustesse des techniques de localisation par vision artificielle Type de document : Thèse/HDR Auteurs : Achref Elouni, Auteur ; Michel Dhome, Directeur de thèse Editeur : Clermont-Ferrand : Université Clermont Auvergne Année de publication : 2021 Importance : 121 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur d’Université, Spécialité InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] estimation de pose
[Termes IGN] état de l'art
[Termes IGN] localisation basée vision
[Termes IGN] méthode robuste
[Termes IGN] points homologues
[Termes IGN] réalité augmentée
[Termes IGN] reconstruction 3D
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation sémantiqueIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Le travail réalisé dans le cadre de ce doctorat se place dans le contexte d’un projet collaboratif ayant pour objectif la mise au point d’un casque de réalité augmenté. Afin de faire fonctionner un tel dispositif il s’avère nécessaire de calculer la position d’une caméra embarquée dans l’environnent d’intervention de l’utilisateur. Récemment, deux technologies dénommées SLAM (pour « Simultaneous Localization And Mapping ») et SfM (pour « Structure From Motion ») ont fait preuve de performances indéniables pour la reconstruction 3D d’un environnement à partir d’une collection d’images. Nous nous sommes intéressés à elles afin de résoudre le problème délicat de l’initialisation de notre dispositif ou de sa ré-initialisation en cas d’échec du suivi temps réel de la position. En effet, malgré les travaux de recherche réalisés ces dernières années, plusieurs limitations empêchent les système de localisation d’estimer une pose parfaite dans toutes les conditions. Ces conditions incluent les changements légers du contexte comme les variations de la luminosité, du point d’observation ou des modifications géométriques telles que l’ajout d’objets. Pour faire face à ces limitations et afin de proposer une solution facile à déployer,nous avons étudié la possibilité d’intégrer dans le processus de localisation des informations invariantes qui pourraient augmenter la probabilité d’avoir une pose précise. Deux types d’information invariante (sémantique et géométrique) ont été exploitées dans cette thèse pour aider le système de localisation à trouver sa position. Les solutions proposées ont été validées sur plusieurs jeux de données internes et externes (Dubrovnik, Rome, Oxford, Musée) grâce auxquels nous avons pu comparer nos résultats avec les travaux décrits dans l’état de l’art. Deux types d’images requêtes ont été étudiées dans cette thèse : celle composée d’une seule image et celle issue d’un dispositif stéréo. L’avantage d’utiliser une paire stéréo est de pouvoir trianguler des points homologues afin d’extraire leur hauteur et d’exploiter cette dernière dans le processus de localisation. L’autre approche envisagée consiste à utiliser comme invariant le label des pixels obtenu par un algorithme de segmentation sémantique basé sur un réseau de neurones convolutionnel. Dans les deux cas, les résultats obtenus montrent une amélioration sensible sur la précision des poses estimées. Note de contenu : 1. Introduction générale
1.1 Contexte
2. État de l’art
2.1 Le problème de la reconstruction 3D
2.2 Localisation visuelle basée sur l’image
2.3 Conclusion
3. Descripteur géométrique-visuel pour une localisation améliorée ba?sée sur l’image utilisant un a priori sur la verticale
3.1 Introduction
3.2 Méthode proposée
3.3 Étude expérimentale
3.4 Conclusion
4. La segmentation sémantique pour améliorer la localisation visuelle
4.1 Introduction
4.2 Méthode proposée
4.3 Étude expérimentale
4.4 Conclusion
5. La segmentation sémantique pour améliorer la recherche d’image par le contenu
5.1 Introduction
5.2 Méthode proposée
5.3 Étude expérimentale
5.4 Conclusion
6. Conclusion et PerspectivesNuméro de notice : 26763 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Clermont Ferrand : 2021 Organisme de stage : Institut Pascal nature-HAL : Thèse DOI : sans Date de publication en ligne : 03/02/2022 En ligne : https://tel.hal.science/tel-03554182/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99827
Titre : Content-based image retrieval for map georeferencing Type de document : Article/Communication Auteurs : Jonas Luft, Auteur ; Jochen Schiewe, Auteur Editeur : International Cartographic Association ICA - Association cartographique internationale ACI Année de publication : 2021 Collection : Proceedings of the ICA num. 4 Conférence : ICC 2021, 30th ICA international cartographic conference 14/12/2021 18/12/2021 Florence Italie Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] appariement d'images
[Termes IGN] carte ancienne
[Termes IGN] carte numérisée
[Termes IGN] carte topographique
[Termes IGN] données localisées des bénévoles
[Termes IGN] géoréférencement indirect
[Termes IGN] mesure de similitude
[Termes IGN] recherche d'image basée sur le contenuRésumé : (auteur) In recent years, libraries have made great progress in digitising troves of historical maps with high-resolution scanners. Providing user-friendly information access for cultural heritage through spatial search and webGIS requires georeferencing of the hundreds of thousands of digitised maps. Georeferencing is usually done manually by finding “ground control points”, locations in the digital map image, whose identity is unambiguous and can easily be found in modern-day reference geodata/mapping data. To decide whether two symbols from different maps describe the same object, their semantic and spatial relations need to be matched. Automating this process is the only feasible way to georeference the immense quantities of maps in conceivable time. However, automated solutions for spatial matching quickly fail when faced with incomplete data – which is the greatest challenge when comparing maps of different ages or scales. These problems can be overcome by computing map similarity in the image domain. Treating maps as a special case of image processing allows efficient and robust matching and thus identification of geographical regions without the need to explicitly model semantics. We propose a method to encode worldwide reference VGI mapping data as image features, allowing the construction of an efficient lookup index. With this index, content-based image retrieval can be used for both geolocating a given map for georeferencing with high accuracy. We demonstrate our approach on hundreds of map sheets of different historical topographical survey map series, successfully georeferencing most of them within mere seconds. Numéro de notice : C2021-073 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Communication DOI : 10.5194/ica-proc-4-69-2021 Date de publication en ligne : 03/12/2021 En ligne : https://doi.org/10.5194/ica-proc-4-69-2021 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100007
Titre : Contextual land-cover map translation with semantic segmentation Type de document : Article/Communication Auteurs : Luc Baudoux , Auteur ; Jordi Inglada, Auteur ; Clément Mallet , Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2021 Projets : MAESTRIA / Mallet, Clément Conférence : IGARSS 2021, IEEE International Geoscience And Remote Sensing Symposium 11/07/2021 16/07/2021 Bruxelles Belgique Proceedings IEEE Importance : pp 2488 - 2491 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] base de données d'occupation du sol
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] Corine Land Cover
[Termes IGN] France (administrative)
[Termes IGN] segmentation sémantique
[Termes IGN] transformation géométrique
[Termes IGN] translationRésumé : (auteur) This paper presents a framework for translating a land-cover map into another one in a supervised way. This links to numerous applications (updating, completion, etc.). Conversely to existing approaches, we jointly perform spatial and semantic transformation without any prior knowledge. The proposed method assumes that: i) examples of the source and target maps already exist, ii) the spatial resolution of the source map is equal or higher than the target one. The translation is performed using an asymmetric Convolutional Neural Network with positional encoding. Experimental results show the effectiveness of the method in retrieving a yearly version of Corine Land Cover (CLC) at country-scale (France) using an existing high-resolution map and with similar accuracy than existing CLC maps (~80%). Numéro de notice : C2021-049 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers HAL Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IGARSS47720.2021.9553693 Date de publication en ligne : 12/10/2021 En ligne : https://doi.org/10.1109/IGARSS47720.2021.9553693 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99414 PermalinkPermalinkPermalinkLearning-based representations and methods for 3D shape analysis, manipulation and reconstruction / Marie-Julie Rakotosaona (2021)PermalinkPlanimetric simplification and lexicographic optimal chains for 3D urban scene reconstruction / Julien Vuillamy (2021)PermalinkPermalinkCrater detection and registration of planetary images through marked point processes, multiscale decomposition, and region-based analysis / David Solarna in IEEE Transactions on geoscience and remote sensing, vol 58 n° 9 (September 2020)PermalinkCSVM architectures for pixel-wise object detection in high-resolution remote sensing images / Youyou Li in IEEE Transactions on geoscience and remote sensing, vol 58 n° 9 (September 2020)PermalinkHeliport detection using artificial neural networks / Emre Baseski in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 9 (September 2020)PermalinkA novel deep network and aggregation model for saliency detection / Ye Liang in The Visual Computer, vol 36 n° 9 (September 2020)Permalink