Descripteur
Documents disponibles dans cette catégorie (22)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Configurable 3D scene synthesis and 2D image rendering with per-pixel ground truth using stochastic grammars / Chenfanfu Jiang in International journal of computer vision, vol 126 n° 9 (September 2018)
[article]
Titre : Configurable 3D scene synthesis and 2D image rendering with per-pixel ground truth using stochastic grammars Type de document : Article/Communication Auteurs : Chenfanfu Jiang, Auteur ; Shuyao Qi, Auteur ; Yixin Zhu, Auteur ; et al., Auteur Année de publication : 2018 Article en page(s) : pp 920 - 941 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] architecture pipeline (processeur)
[Termes IGN] compréhension de l'image
[Termes IGN] image RVB
[Termes IGN] rendu réaliste
[Termes IGN] scène intérieure
[Termes IGN] segmentation sémantique
[Termes IGN] synthèse d'imageRésumé : (Auteur) We propose a systematic learning-based approach to the generation of massive quantities of synthetic 3D scenes and arbitrary numbers of photorealistic 2D images thereof, with associated ground truth information, for the purposes of training, benchmarking, and diagnosing learning-based computer vision and robotics algorithms. In particular, we devise a learning-based pipeline of algorithms capable of automatically generating and rendering a potentially infinite variety of indoor scenes by using a stochastic grammar, represented as an attributed Spatial And-Or Graph, in conjunction with state-of-the-art physics-based rendering. Our pipeline is capable of synthesizing scene layouts with high diversity, and it is configurable inasmuch as it enables the precise customization and control of important attributes of the generated scenes. It renders photorealistic RGB images of the generated scenes while automatically synthesizing detailed, per-pixel ground truth data, including visible surface depth and normal, object identity, and material information (detailed to object parts), as well as environments (e.g., illuminations and camera viewpoints). We demonstrate the value of our synthesized dataset, by improving performance in certain machine-learning-based scene understanding tasks—depth and surface normal prediction, semantic segmentation, reconstruction, etc.—and by providing benchmarks for and diagnostics of trained models by modifying object attributes and scene properties in a controllable manner. Numéro de notice : A2018-416 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-018-1103-5 Date de publication en ligne : 30/06/2018 En ligne : https://doi.org/10.1007/s11263-018-1103-5 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90899
in International journal of computer vision > vol 126 n° 9 (September 2018) . - pp 920 - 941[article]Géo-référencement précis d'acquisition photogrammétrique de « longues » scènes d'intérieur / Truong Giang Nguyen (2018)
Titre : Géo-référencement précis d'acquisition photogrammétrique de « longues » scènes d'intérieur Type de document : Thèse/HDR Auteurs : Truong Giang Nguyen , Auteur ; Marc Pierrot-Deseilligny , Directeur de thèse Editeur : Champs/Marne : Université Paris-Est Année de publication : 2018 Note générale : Bibliographie
Thèse de Doctorat de l'Université Paris-Est, Mathématiques et Sciences et Technologies de l'Information et de la Communication, Traitement du signal et de l'imageLangues : Français (fre) Descripteur : [Vedettes matières IGN] Photogrammétrie
[Termes IGN] compensation par faisceaux
[Termes IGN] erreur systématique
[Termes IGN] estimation de pose
[Termes IGN] étalonnage de capteur (imagerie)
[Termes IGN] extraction de points
[Termes IGN] photogrammétrie métrologique
[Termes IGN] points homologues
[Termes IGN] post-traitement
[Termes IGN] scène intérieureIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Au cours des dernières décennies, plusieurs ruptures technologiques ont favorisé le développement de la photogrammétrie : développement et miniaturisation des appareils photographiques numériques, avènement du drone civil et de la cartographie mobile, apparition de nouveaux algorithmes permettant des traitements 100% automatiques, etc. La photogrammétrie est redevenue une technique de mesure et de surveillance incontournable, surtout dans les contextes où le coût et la légèreté du matériel sont contraignants. Dans ce contexte, l'IGN et l'équipe LOEMI du laboratoire LaSTIG cherchent à développer des plateformes matérielles et logicielles permettant d'atteindre simultanément productivité et précision de la mesure. Les utilisations de la photogrammétrie qui nécessitent une grande précision sont par exemple la mesure de déformations ou encore la métrologie industrielle. Sur des acquisitions à larges étendues, notamment les acquisitions linéaires de type corridor, les relevés photogrammétriques sont souvent entachés d'erreurs systématiques, ayant de fortes conséquences sur la précision de localisation du résultat final. Dans la chaı̂ne métrologique de photogrammétrie, l'extraction des points homologues est une des causes de l'imprécision du résultat final. Cette thèse consiste à réaliser une méthode permettant d'améliorer la précision du processus de traitement photogrammétrique existant pour réduire les erreurs systématiques. Nous proposons une méthode de post-traitement du processus photogrammétrique classique. Nous utilisons des modélisations de l'acquisition (poses et calibration des caméras) et de la scène (maillage 3D) obtenue avec un traitement classique, pour extraire de nouveaux points homologues en optimisant leurs caractéristiques pour la photogrammétrie. Ces caractéristiques sont : la distribution optimale dans l'espace image et objet, la multiplicité des points sur les images et la précision de la mesure. Une seconde itération d'ajustement de faisceaux avec les nouveaux points obtenus permet de raffiner l'orientation externe et la calibration de la caméra et donc d'améliorer la précision de localisation des points 3D finaux. Les résultats obtenus à partir des jeux de tests issus de différents scénarios montrent l'efficacité et la robustesse de la méthode en diminuant significativement le résidu des points 3D triangulés. Les temps de calcul et le nombre d'itérations sont également étudiés. Les résultats du processus de raffinement convergent dès la seconde itération et montrent que cette méthode ne demande qu'environ 10% du temps d'exécution total de la chaı̂ne classique pour atteindre une amélioration notable. Numéro de notice : 25448 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Traitement du signal et de l'image : Université Paris-Est : 2018 Organisme de stage : LaSTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 12/02/2020 En ligne : https://theses.hal.science/tel-02476477 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94161 Learning aggregated features and optimizing model for semantic labeling / Jianhua Wang in The Visual Computer, vol 33 n° 12 (December 2017)
[article]
Titre : Learning aggregated features and optimizing model for semantic labeling Type de document : Article/Communication Auteurs : Jianhua Wang, Auteur ; Chuanxia Zheng, Auteur ; Weihai Chen, Auteur ; Xingming Wu, Auteur Année de publication : 2017 Article en page(s) : pp 1587 - 1600 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] attribut
[Termes IGN] champ aléatoire conditionnel
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] image RVB
[Termes IGN] modèle statistique
[Termes IGN] scène intérieure
[Termes IGN] segmentation d'imageRésumé : (Auteur) Semantic labeling for indoor scenes has been extensively developed with the wide availability of affordable RGB-D sensors. However, it is still a challenging task for multi-class recognition, especially for “small” objects. In this paper, a novel semantic labeling model based on aggregated features and contextual information is proposed. Given an RGB-D image, the proposed model first creates a hierarchical segmentation using an adapted gPb/UCM algorithm. Then, a support vector machine is trained to predict initial labels using aggregated features, which fuse small-scale appearance features, mid-scale geometric features, and large-scale scene features. Finally, a joint multi-label Conditional random field model that exploits both spatial and attributive contextual relations is constructed to optimize the initial semantic and attributive predicted results. The experimental results on the public NYU v2 dataset demonstrate the proposed model outperforms the existing state-of-the-art methods on the challenging 40 dominant classes task, and the model also achieves a good performance on a recent SUN RGB-D dataset. Especially, the prediction accuracy of “small” classes has been improved significantly. Numéro de notice : A2017-714 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s00371-016-1302-4 En ligne : https://doi.org/10.1007/s00371-016-1302-4 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=88098
in The Visual Computer > vol 33 n° 12 (December 2017) . - pp 1587 - 1600[article]Salient object detection in complex scenes via D-S evidence theory based region classification / Chunlei Yang in The Visual Computer, vol 33 n° 11 (November 2017)
[article]
Titre : Salient object detection in complex scenes via D-S evidence theory based region classification Type de document : Article/Communication Auteurs : Chunlei Yang, Auteur ; Jiexin Pu, Auteur ; Yongsheng Dong, Auteur ; et al., Auteur Année de publication : 2017 Article en page(s) : pp 1415 - 1428 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] fusion de données
[Termes IGN] information complexe
[Termes IGN] scène intérieure
[Termes IGN] segmentation d'image
[Termes IGN] théorie de Dempster-Shafer
[Termes IGN] zone saillante 3DRésumé : (Auteur) In complex scenes, multiple objects are often concealed in cluttered backgrounds. Their saliency is difficult to be detected by using conventional methods, mainly because single color contrast can not shoulder the mission of saliency measure; other image features should be involved in saliency detection to obtain more accurate results. Using Dempster-Shafer (D-S) evidence theory based region classification, a novel method is presented in this paper. In the proposed framework, depth feature information extracted from a coarse map is employed to generate initial feature evidences which indicate the probabilities of regions belonging to foreground or background. Based on the D-S evidence theory, both uncertainty and imprecision are modeled, and the conflicts between different feature evidences are properly resolved. Moreover, the method can automatically determine the mass functions of the two-stage evidence fusion for region classification. According to the classification result and region relevance, a more precise saliency map can then be generated by manifold ranking. To further improve the detection results, a guided filter is utilized to optimize the saliency map. Both qualitative and quantitative evaluations on three publicly challenging benchmark datasets demonstrate that the proposed method outperforms the contrast state-of-the-art methods, especially for detection in complex scenes. Numéro de notice : A2017-713 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s00371-016-1288-y En ligne : https://doi.org/10.1007/s00371-016-1288-y Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=88094
in The Visual Computer > vol 33 n° 11 (November 2017) . - pp 1415 - 1428[article]Bayesian graph-cut optimization for wall surfaces reconstruction in indoor environments / Georgios-Tsampikos Michailidis in The Visual Computer, vol 33 n° 10 (October 2017)
[article]
Titre : Bayesian graph-cut optimization for wall surfaces reconstruction in indoor environments Type de document : Article/Communication Auteurs : Georgios-Tsampikos Michailidis, Auteur ; Renato Pajarola, Auteur Année de publication : 2017 Article en page(s) : pp 1347 - 1355 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] algorithme Graph-Cut
[Termes IGN] carte d'intérieur
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] mur
[Termes IGN] reconstruction d'objet
[Termes IGN] scène intérieure
[Termes IGN] semis de pointsRésumé : (Auteur) In this paper, a new method capable to extract the wall openings (windows and doors) of interior scenes from point clouds under cluttered and occluded environments is presented. For each wall surface extracted by the polyhedral model of a room, our method constructs a cell complex representation, which is used for the wall object segmentation using a graph-cut method. We evaluate the results of the proposed approach on real-world 3D scans of indoor environments and demonstrate its validity. Numéro de notice : A2017-710 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s00371-016-1230-3 En ligne : https://doi.org/10.1007/s00371-016-1230-3 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=88091
in The Visual Computer > vol 33 n° 10 (October 2017) . - pp 1347 - 1355[article]PermalinkContribution à la mise en oeuvre d'une architecture à base de connaissances pour l'interprétation de scène 2D et 3D / Fadi Sandakly (1995)Permalink