Descripteur
Termes IGN > imagerie > image numérique
image numériqueSynonyme(s)image en mode mailléVoir aussi |
Documents disponibles dans cette catégorie (2121)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile / Sylvie Daniel in Geomatica, vol 72 n° 1 (March 2018)
![]()
[article]
Titre : Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile Type de document : Article/Communication Auteurs : Sylvie Daniel, Auteur Année de publication : 2018 Article en page(s) : pp 1 - 15 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] classificateur
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] grande échelle
[Termes IGN] performance
[Termes IGN] scène urbaine
[Termes IGN] semis de pointsRésumé : (Auteur) La compréhension de nuage de points LiDAR consiste à reconnaitre les objets qui sont présents dans la scène et à associer des interprétations aux nuages d’objets qui le composent. Les données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile présentent plusieurs difficultés propres à ce contexte : chevauchement entre les nuages de points, occlusions entre les objets qui ne sont vus que partiellement, variations de la densité des points. Compte tenu de ces difficultés, beaucoup de descripteurs tridimensionnels (3D) proposés dans la littérature pour la classification et la reconnaissance d’objets voient leurs performances se dégrader dans ce contexte applicatif, car ils ont souvent été introduits et évalués avec des jeux de données portant sur de petits objets. De plus, il y a un manque de comparaison approfondie entre les descripteurs 3D mis en œuvre dans des environnements à grande échelle, ce qui a pour conséquence un manque de connaissance au moment de sélectionner le descripteur 3D le plus adapté à un nuage de points LiDAR acquis dans de tels environnements. Le présent article propose une revue approfondie des travaux portant sur l’application des descripteurs 3D à des données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile. Les principaux descripteurs 3D appliqués dans de tels contextes sont ainsi recensés. Une synthèse de leurs performances et limites est ensuite effectuée de manière comparative sur la base des travaux disponibles dans la littérature. Enfin, une discussion abordant les éléments impactant le plus les performances des descripteurs et des pistes d’amélioration vient compléter cette revue. Numéro de notice : A2018-338 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1139/geomat-2018-0001 Date de publication en ligne : 30/07/2018 En ligne : https://doi.org/10.1139/geomat-2018-0001 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90552
in Geomatica > vol 72 n° 1 (March 2018) . - pp 1 - 15[article]
[article]
Titre : Saint-Quentin-en-Yvelines à 2,5 cm Type de document : Article/Communication Auteurs : Anonyme, Auteur Année de publication : 2018 Article en page(s) : pp 6 - 9 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Orthophotographie, orthoimage
[Termes IGN] limite de résolution géométrique
[Termes IGN] modèle 3D de l'espace urbain
[Termes IGN] modèle numérique de terrain
[Termes IGN] orthophotoplan numérique
[Termes IGN] point d'appui
[Termes IGN] Saint-Quentin-en-Yvelines
[Termes IGN] semis de pointsRésumé : (éditeur) La communauté d’agglomération de la ville nouvelle de Saint-Quentin-en-Yvelines a fait réaliser une orthophotographie à 2,5 cm d’une partie de la ville de Plaisir, avec en bonus un modèle 3D ultra-réaliste réalisé à partir de l’extraction stéréoscopique. De quoi satisfaire nombre de demandes de ses services techniques. Numéro de notice : A2018-261 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90317
in Géomatique expert > n° 121 (mars - avril 2018) . - pp 6 - 9[article]Réservation
Réserver ce documentExemplaires(2)
Code-barres Cote Support Localisation Section Disponibilité 265-2018021 RAB Revue Centre de documentation En réserve L003 Disponible IFN-001-P002038 PER Revue Nogent-sur-Vernisson Salle périodiques Exclu du prêt Towards automatic SAR-optical stereogrammetry over urban areas using very high resolution imagery / Chunping Qiu in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)
![]()
[article]
Titre : Towards automatic SAR-optical stereogrammetry over urban areas using very high resolution imagery Type de document : Article/Communication Auteurs : Chunping Qiu, Auteur ; Michael Schmitt, Auteur ; Xiao Xiang Zhu, Auteur Année de publication : 2018 Article en page(s) : pp 218 - 231 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] couple stéréoscopique
[Termes IGN] géométrie épipolaire
[Termes IGN] image optique
[Termes IGN] image radar moirée
[Termes IGN] image TerraSAR-X
[Termes IGN] image Worldview
[Termes IGN] mesure de similitude
[Termes IGN] points homologues
[Termes IGN] précision de localisation
[Termes IGN] reconstruction 3D
[Termes IGN] zone urbaineRésumé : (Auteur) In this paper, we discuss the potential and challenges regarding SAR-optical stereogrammetry for urban areas, using very-high-resolution (VHR) remote sensing imagery. Since we do this mainly from a geometrical point of view, we first analyze the height reconstruction accuracy to be expected for different stereogrammetric configurations. Then, we propose a strategy for simultaneous tie point matching and 3D reconstruction, which exploits an epipolar-like search window constraint. To drive the matching and ensure some robustness, we combine different established hand-crafted similarity measures. For the experiments, we use real test data acquired by the Worldview-2, TerraSAR-X and MEMPHIS sensors. Our results show that SAR-optical stereogrammetry using VHR imagery is generally feasible with 3D positioning accuracies in the meter-domain, although the matching of these strongly hetereogeneous multi-sensor data remains very challenging. Numéro de notice : A2018-124 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2017.12.006 En ligne : https://doi.org/10.1016/j.isprsjprs.2017.12.006 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89586
in ISPRS Journal of photogrammetry and remote sensing > vol 138 (April 2018) . - pp 218 - 231[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018041 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018043 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018042 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Video event recognition and anomaly detection by combining gaussian process and hierarchical dirichlet process models / Michael Ying Yang in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 4 (April 2018)
![]()
[article]
Titre : Video event recognition and anomaly detection by combining gaussian process and hierarchical dirichlet process models Type de document : Article/Communication Auteurs : Michael Ying Yang, Auteur ; Wentong Liao, Auteur ; Yanpeng Cao, Auteur ; Bodo Rosenhahn, Auteur Année de publication : 2018 Article en page(s) : pp 203 - 214 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] agent (intelligence artificielle)
[Termes IGN] apprentissage non-dirigé
[Termes IGN] approche hiérarchique
[Termes IGN] image vidéo
[Termes IGN] modèle de Markov
[Termes IGN] modèle orienté agent
[Termes IGN] séquence d'imagesRésumé : (Auteur) In this paper, we present an unsupervised learning framework for analyzing activities and interactions in surveillance videos. In our framework, three levels of video events are connected by Hierarchical Dirichlet Process (HDP) model: low-level visual features, simple atomic activities, and multi-agent interactions. Atomic activities are represented as distribution of low-level features, while complicated interactions are represented as distribution of atomic activities. This learning process is unsupervised. Given a training video sequence, low-level visual features are extracted based on optic flow and then clustered into different atomic activities and video clips are clustered into different interactions. The HDP model automatically decides the number of clusters, i.e., the categories of atomic activities and interactions. Based on the learned atomic activities and interactions, a training dataset is generated to train the Gaussian Process (GP) classifier. Then, the trained GP models work in newly captured video to classify interactions and detect abnormal events in real time. Furthermore, the temporal dependencies between video events learned by HDP-Hidden Markov Models (HMM) are effectively integrated into GP classifier to enhance the accuracy of the classification in newly captured videos. Our framework couples the benefits of the generative model (HDP) with the discriminant model (GP). We provide detailed experiments showing that our framework enjoys favorable performance in video event classification in real-time in a crowded traffic scene. Numéro de notice : A2018-139 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.84.4.203 Date de publication en ligne : 01/04/2018 En ligne : https://doi.org/10.14358/PERS.84.4.203 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89689
in Photogrammetric Engineering & Remote Sensing, PERS > vol 84 n° 4 (April 2018) . - pp 203 - 214[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2018041 RAB Revue Centre de documentation En réserve L003 Disponible Mapping tree cover with Sentinel-2 data using the Support Vector Machine (SVM) / Anna Mirończuk in Geoinformation issues, Vol 9 n° 1 (2017)
![]()
[article]
Titre : Mapping tree cover with Sentinel-2 data using the Support Vector Machine (SVM) Type de document : Article/Communication Auteurs : Anna Mirończuk, Auteur ; Agata Hościło, Auteur Année de publication : 2018 Article en page(s) : pp 27 - 38 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] carte de la végétation
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] couvert forestier
[Termes IGN] image multitemporelle
[Termes IGN] image Sentinel-MSI
[Termes IGN] parc naturel
[Termes IGN] PologneRésumé : (auteur) The knowledge on forest resources is important for sustainable forest management at local and national level. The aim of this paper is to examine the efficacy of the Support Vector Machine (SVM) approach for tree cover mapping based on Sentinel-2 images and to explore the potential of the Sentinel-2 data for the assessment of tree cover. Sentinel-2 is a constellation of two European satellites providing innovative wide-swath (up to 290 km), high-resolution and multispectral data (13 spectral bands at 10, 20 and 60 m spatial resolution).The study area is located in the Forest Promotion Complex, which is a part of the Knyszyn Forest Landscape Park in Poland. The SVM classification was performed on the single images (spring and summer season) and on multi-date Sentinel-2 images (images from two dates classified simultaneously). In addition, the use of high-resolution bands and a combination of the 10 m and 20 m spatial resolution data was examined. The overall accuracy for all performed classification was very high and reached the level of 96.7%–99.6%, which con-firms that SVM classification can be successfully applied for tree cover mapping. The analysis showed that the Sentinel-2 images acquired in the middle of the vegetation season, when the leaves are fully developed are more suitable for tree cover mapping than the images acquired in spring. Numéro de notice : A2018-629 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article DOI : sans Date de publication en ligne : 01/03/2018 En ligne : http://www.igik.edu.pl/upload/File/wydawnictwa/GI9MiroczukA.pdf Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92885
in Geoinformation issues > Vol 9 n° 1 (2017) . - pp 27 - 38[article]Sensitivity analysis of pansharpening in hyperspectral change detection / Seyd Teymoor Seydi in Applied geomatics, vol 10 n° 1 (March 2018)
PermalinkUnderstanding the temporal dimension of the red-edge spectral region for forest decline detection using high-resolution hyperspectral and Sentinel-2a imagery / Pablo J. Zarco-Tejada in ISPRS Journal of photogrammetry and remote sensing, vol 137 (March 2018)
PermalinkEstimating forest standing biomass in savanna woodlands as an indicator of forest productivity using the new generation WorldView-2 sensor / Timothy Dube in Geocarto international, vol 33 n° 2 (February 2018)
PermalinkFine-grained object recognition and zero-shot learning in remote sensing imagery / Gencer Sumbul in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
PermalinkPermalinkLRAGE : learning latent relationships with adaptive graph embedding for aerial scene classification / Yuebin Wang in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
PermalinkMultisource remote sensing data classification based on convolutional neural network / Xiaodong Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
PermalinkActive learning-based optimized training library generation for object-oriented image classification / Rajeswari Balasubramaniam in IEEE Transactions on geoscience and remote sensing, vol 56 n° 1 (January 2018)
PermalinkPermalinkPermalink