Descripteur
Documents disponibles dans cette catégorie (67)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
3D visibility analysis indicating quantitative and qualitative aspects of the visible space / D. Golub in Survey review, vol 50 n° 359 (March 2018)
[article]
Titre : 3D visibility analysis indicating quantitative and qualitative aspects of the visible space Type de document : Article/Communication Auteurs : D. Golub, Auteur ; Y. Doytsher, Auteur ; D. Fisher-Gewirtzman, Auteur Année de publication : 2018 Article en page(s) : pp 134 - 146 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Géomatique
[Termes IGN] données localisées 3D
[Termes IGN] Matlab
[Termes IGN] milieu urbain
[Termes IGN] rectangle englobant minimum
[Termes IGN] visibilité entre points
[Termes IGN] voxelRésumé : (auteur) This paper presents the development of a 3D visibility analysis model that consist a combination of objective calculations and a subjective evaluation, representing the value of the view and its possible impact on the perception of a viewer. The model, developed in Matlab, has default weightings for different elements of the view, which can be changed in accordance to future users. A bounding box, defined as working area consisting buildings and topography, is divided into equal-size voxels and sub-voxels for higher accuracy. This model may be further developed for use in practice to support a sustainable future urban environment. Numéro de notice : A2018-180 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article DOI : 10.1080/00396265.2016.1253523 Date de publication en ligne : 20/01/2017 En ligne : https://doi.org/10.1080/00396265.2016.1253523 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89824
in Survey review > vol 50 n° 359 (March 2018) . - pp 134 - 146[article]
Titre : Smart fusion of terrestrial and UAV data : Development of tools for tie point analysis Type de document : Mémoire Auteurs : Michaël Gaudin, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2018 Importance : 43 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet pluridisciplinaire, cycle ING2Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] filtrage de points
[Termes IGN] fusion de données
[Termes IGN] image captée par drone
[Termes IGN] image terrestre
[Termes IGN] MicMac
[Termes IGN] Point Cloud Library PCL
[Termes IGN] points homologues
[Termes IGN] semis de points clairsemés
[Termes IGN] superposition de données
[Termes IGN] voxelIndex. décimale : PROJET Mémoires : Rapports de projet - stage des ingénieurs de 2e année Résumé : (auteur) La fusion de données peut être définie comme le processus d’intégration de plusieurs sources de données afin de produire des informations plus cohérentes, plus précises et plus utiles que celles fournies par n'importe quelle source de données individuelles. Nous sommes intéressés par la fusion de données acquises avec différentes techniques (à différentes densités de points et précisions de mesure) d’une manière "scientifique", et par le développement de nouveaux traitements des données. Nous essayons de fusionner des données hétérogènes et d'obtenir un résultat cohérent. Nous proposons une nouvelle approche pour fusionner les données photogrammétriques issues de différents capteurs, dans notre cas à partir d'images terrestres et d'images de drones. Nous avons développé des outils de calcul d'attributs sur les points caractéristiques, afin de les filtrer grâce à une approche par voxels. Nous avons utilisé MicMac pour les processus photogrammétriques et développé un nouvel outil dans MicMac, Grappa, qui génère un fichier avec les points de liaison et les caractéristiques associées. Nous avons également utilisé Point Cloud Library pour le calcul d’une fonction de saillance 3D, la Différence des Normales. Nous avons travaillé avec une approche par voxels en Python pour le filtrage des points, et nous expérimentons les différents outils sur un ensemble d'images terrestres et drones de la cathédrale de Modène en Italie. Nous analysons enfin les résultats de la reconstruction photogrammétrique et laissons quelques perspectives sur le domaine de la fusion de données. Note de contenu : Introduction
1- Literature review on data fusion
2- Vocabulary
3- Features for data anlaysis
4- Process
5- Sparse point cloudprocessing
6- Voxelisation, analysis and filtering
7- Dense reconstruction
8- Results
ConclusionNuméro de notice : 21799 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : Fundazione Bruno Kessler Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91285 Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 21799-01 PROJET Livre Centre de documentation Travaux d'élèves Disponible Documents numériques
peut être téléchargé
Smart fusion of terrestrial... - pdf auteurAdobe Acrobat PDF Tubelets : Unsupervised action proposals from spatiotemporal super-voxels / Mihir Jain in International journal of computer vision, vol 124 n° 3 (15 September 2017)
[article]
Titre : Tubelets : Unsupervised action proposals from spatiotemporal super-voxels Type de document : Article/Communication Auteurs : Mihir Jain, Auteur ; Jan van Gemert, Auteur ; Hervé Jégou, Auteur ; Patrick Bouthemy, Auteur ; Cees G. M. Snoek, Auteur Année de publication : 2017 Article en page(s) : pp 287 - 311 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] données spatiotemporelles
[Termes IGN] reconnaissance de gestes
[Termes IGN] rectangle englobant minimum
[Termes IGN] séquence d'images
[Termes IGN] voxelRésumé : (Auteur) This paper considers the problem of localizing actions in videos as sequences of bounding boxes. The objective is to generate action proposals that are likely to include the action of interest, ideally achieving high recall with few proposals. Our contributions are threefold. First, inspired by selective search for object proposals, we introduce an approach to generate action proposals from spatiotemporal super-voxels in an unsupervised manner, we call them Tubelets. Second, along with the static features from individual frames our approach advantageously exploits motion. We introduce independent motion evidence as a feature to characterize how the action deviates from the background and explicitly incorporate such motion information in various stages of the proposal generation. Finally, we introduce spatiotemporal refinement of Tubelets, for more precise localization of actions, and pruning to keep the number of Tubelets limited. We demonstrate the suitability of our approach by extensive experiments for action proposal quality and action localization on three public datasets: UCF Sports, MSR-II and UCF101. For action proposal quality, our unsupervised proposals beat all other existing approaches on the three datasets. For action localization, we show top performance on both the trimmed videos of UCF Sports and UCF101 as well as the untrimmed videos of MSR-II. Numéro de notice : A2017-812 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s11263-017-1023-9 En ligne : https://doi.org/10.1007/s11263-017-1023-9 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89252
in International journal of computer vision > vol 124 n° 3 (15 September 2017) . - pp 287 - 311[article]A TV prior for high-quality scalable multi-view stereo reconstruction / Andreas Kuhn in International journal of computer vision, vol 124 n° 1 (August 2017)
[article]
Titre : A TV prior for high-quality scalable multi-view stereo reconstruction Type de document : Article/Communication Auteurs : Andreas Kuhn, Auteur ; Heiko Hirschmüller, Auteur ; Daniel Scharstein, Auteur ; Helmut Mayer, Auteur Année de publication : 2017 Article en page(s) : pp 2 – 17 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image numérique
[Termes IGN] erreur
[Termes IGN] fusion d'images
[Termes IGN] fusion de données multisource
[Termes IGN] modèle stéréoscopique
[Termes IGN] reconstruction 3D
[Termes IGN] visibilité
[Termes IGN] voxelRésumé : (auteur) We present a scalable multi-view stereo method able to reconstruct accurate 3D models from hundreds of high-resolution input images. Local fusion of disparity maps obtained with semi-global matching enables the reconstruction of large scenes that do not fit into main memory. Since disparity maps may vary widely in quality and resolution, careful modeling of the 3D errors is crucial. We derive a sound stereo error model based on disparity uncertainty, which can vary spatially from tenths to several pixels. We introduce a feature based on total variation that allows pixel-wise classification of disparities into different error classes. For each class, we learn a disparity error distribution from ground-truth data using expectation maximization. We present a novel method for stochastic fusion of data with varying quality by adapting a multi-resolution volumetric fusion process that uses our error classes as a prior and models surface probabilities via an octree of voxels. Conflicts during surface extraction are resolved using visibility constraints and preference for voxels at higher resolutions. Experimental results on several challenging large-scale datasets demonstrate that our method yields improved performance both qualitatively and quantitatively. Numéro de notice : A2017-397 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007%2Fs11263-016-0946-x En ligne : https://doi.org/10.1007/s11263-016-0946-x Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=85934
in International journal of computer vision > vol 124 n° 1 (August 2017) . - pp 2 – 17[article]Robust point cloud classification based on multi-level semantic relationships for urban scenes / Qing Zhu in ISPRS Journal of photogrammetry and remote sensing, vol 129 (July 2017)
[article]
Titre : Robust point cloud classification based on multi-level semantic relationships for urban scenes Type de document : Article/Communication Auteurs : Qing Zhu, Auteur ; Yuan Li, Auteur ; Han Hu, Auteur ; Bo Wu, Auteur Année de publication : 2017 Article en page(s) : pp 86 - 102 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] champ aléatoire de Markov
[Termes IGN] classification
[Termes IGN] description multiniveau
[Termes IGN] exploration de données géographiques
[Termes IGN] relation sémantique
[Termes IGN] semis de points
[Termes IGN] voxel
[Termes IGN] zone urbaineRésumé : (Auteur) The semantic classification of point clouds is a fundamental part of three-dimensional urban reconstruction. For datasets with high spatial resolution but significantly more noises, a general trend is to exploit more contexture information to surmount the decrease of discrimination of features for classification. However, previous works on adoption of contexture information are either too restrictive or only in a small region and in this paper, we propose a point cloud classification method based on multi-level semantic relationships, including point–homogeneity, supervoxel–adjacency and class–knowledge constraints, which is more versatile and incrementally propagate the classification cues from individual points to the object level and formulate them as a graphical model. The point–homogeneity constraint clusters points with similar geometric and radiometric properties into regular-shaped supervoxels that correspond to the vertices in the graphical model. The supervoxel–adjacency constraint contributes to the pairwise interactions by providing explicit adjacent relationships between supervoxels. The class–knowledge constraint operates at the object level based on semantic rules, guaranteeing the classification correctness of supervoxel clusters at that level. International Society of Photogrammetry and Remote Sensing (ISPRS) benchmark tests have shown that the proposed method achieves state-of-the-art performance with an average per-area completeness and correctness of 93.88% and 95.78%, respectively. The evaluation of classification of photogrammetric point clouds and DSM generated from aerial imagery confirms the method’s reliability in several challenging urban scenes. Numéro de notice : A2017-347 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2017.04.022 En ligne : https://dx.doi.org/10.1016/j.isprsjprs.2017.04.022 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=85611
in ISPRS Journal of photogrammetry and remote sensing > vol 129 (July 2017) . - pp 86 - 102[article]Exemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2017071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2017073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2017072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Ionospheric tomography based on GNSS observations of the CMONOC: performance in the topside ionosphere / Zhe Yang in GPS solutions, vol 21 n° 2 (April 2017)PermalinkA classification-segmentation framework for the detection of individual trees in dense MMS point cloud data acquired in urban areas / Martin Weinmann in Remote sensing, vol 9 n° 3 (March 2017)PermalinkAerial lidar point cloud voxelization with its 3D ground filtering application / Liying Wang in Photogrammetric Engineering & Remote Sensing, PERS, vol 83 n° 2 (February 2017)PermalinkCharacterizing vegetation canopy structure using airborne remote sensing data / Debsunder Dutta in IEEE Transactions on geoscience and remote sensing, vol 55 n° 2 (February 2017)PermalinkA virtual globe-oriented visualization method for 3D meteorological fields / Jing Chen in Geomatics and Information Science of Wuhan University, vol 41 n° 12 (December 2016)Permalink3D change detection – Approaches and applications / Rongjun Qin in ISPRS Journal of photogrammetry and remote sensing, vol 122 (December 2016)PermalinkEffective number of layers: A new measure for quantifying three-dimensional stand structure based on sampling with terrestrial LiDAR / Martin Ehbrecht in Forest ecology and management, vol 380 (15 november 2016)PermalinkDynamic occlusion detection and inpainting of in situ captured terrestrial laser scanning point clouds sequence / Chi Chen in ISPRS Journal of photogrammetry and remote sensing, vol 119 (September 2016)PermalinkFusion of waveform LiDAR data and hyperspectral imagery for land cover classification / Hongzhou Wang in ISPRS Journal of photogrammetry and remote sensing, vol 108 (October 2015)PermalinkHierarchical extraction of urban objects from mobile laser scanning data / Bisheng Yang in ISPRS Journal of photogrammetry and remote sensing, vol 99 (January 2015)Permalink