Descripteur
Termes IGN > imagerie > image numérique
image numériqueSynonyme(s)image en mode mailléVoir aussi |
Documents disponibles dans cette catégorie (2121)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Multi-scale assessment of invasive plant species diversity using Pléiades 1A, RapidEye and Landsat-8 data / Siddhartha Khare in Geocarto international, vol 33 n° 7 (July 2018)
![]()
[article]
Titre : Multi-scale assessment of invasive plant species diversity using Pléiades 1A, RapidEye and Landsat-8 data Type de document : Article/Communication Auteurs : Siddhartha Khare, Auteur ; Hooman Latifi, Auteur ; Sanjay Kumar Ghosh, Auteur Année de publication : 2018 Article en page(s) : pp 681 - 698 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] arbre caducifolié
[Termes IGN] espèce exotique envahissante
[Termes IGN] forêt
[Termes IGN] Himalaya
[Termes IGN] image Landsat-8
[Termes IGN] image optique
[Termes IGN] image Pléiades-HR
[Termes IGN] image RapidEye
[Termes IGN] réflectance végétaleRésumé : (Auteur) We used a full remote sensing-based approach to assess plant species diversity in large and inaccessible areas affected by Lantana camara L., a common invasive species within the deciduous forests of Western Himalayan region of India, using spectral heterogeneity information extracted from optical data. The spread of L. camara was precisely mapped by Pléiades 1A data, followed by comparing Pléiades 1A, RapidEye and Landsat-8 OLI – assessed plant species diversities in invaded areas. The single plant species analysis was improved by Pléiades 1A-based diversity analysis, and higher species diversity values were observed for mixed vegetation cover. Furthermore, lower Coefficient of Variation and Renyi diversity values were observed where L. camara was the only species, while higher variations were observed in areas with a mixed spectral reflectance. This study was concluded to add a crucial baseline to the previous studies on remote sensing-based solutions for rapid estimation of biodiversity attributes. Numéro de notice : A2018-334 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10106049.2017.1289562 Date de publication en ligne : 10/02/2017 En ligne : https://doi.org/10.1080/10106049.2017.1289562 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90530
in Geocarto international > vol 33 n° 7 (July 2018) . - pp 681 - 698[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 059-2018031 RAB Revue Centre de documentation En réserve L003 Disponible Real-time relative mobile target positioning using GPS-assisted stereo videogrammetry / Bahadir Ergun in Survey review, vol 50 n° 361 (July 2018)
![]()
[article]
Titre : Real-time relative mobile target positioning using GPS-assisted stereo videogrammetry Type de document : Article/Communication Auteurs : Bahadir Ergun, Auteur ; Irfan Sayim, Auteur ; Cumhur Sahin, Auteur ; N. Tok, Auteur Année de publication : 2018 Article en page(s) : pp 326 - 335 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] détection de cible
[Termes IGN] image vidéo
[Termes IGN] photogrammétrie métrologique
[Termes IGN] VidéogrammétrieRésumé : (Auteur) Positioning of a GPS-equipped (Global Positioning System) moving target was determined by stereo-videogrammetry from two images of cameras where they were placed on another GPS-equipped moving platform. The computed position outputs of target were compared with the relative positions obtained from two GPS receivers. The target, a small square-like pattern, was tracked from a certain distance depending on the base distance between the cameras. The video files were created from acquired images data. These video files were used in real-time computation to get the target image position for every film frame. First, the location of target was computed within video film frames. Since the target cannot be searched on the whole picture, maximum pixel length, which the target can travel on the consecutive film frames was considered as offset. Therefore, the search was made over a small area rather than whole picture. That was improved the performance of positioning. Finally, videogrammetrically computed coordinates for all epochs were compared with GPS-based relative distances to justify performance of relative target positioning results. Numéro de notice : A2018-443 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/00396265.2016.1267303 Date de publication en ligne : 27/12/2016 En ligne : https://doi.org/10.1080/00396265.2016.1267303 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91015
in Survey review > vol 50 n° 361 (July 2018) . - pp 326 - 335[article]Using UAVs for map creation and updating: A case study in Rwanda / Mila Koeva in Survey review, vol 50 n° 361 (July 2018)
![]()
[article]
Titre : Using UAVs for map creation and updating: A case study in Rwanda Type de document : Article/Communication Auteurs : Mila Koeva, Auteur ; M. Muneza, Auteur ; Caroline M. Gevaert, Auteur ; Markus Gerke, Auteur ; Francesco Nex, Auteur Année de publication : 2018 Article en page(s) : pp 312 - 325 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] image captée par drone
[Termes IGN] orthophotoplan numérique
[Termes IGN] précision centimétrique
[Termes IGN] Rwanda
[Termes IGN] scène urbaine
[Termes IGN] zone urbaineRésumé : (Auteur) Aerial or satellite images are conventionally used for geospatial data collection. However, unmanned aerial vehicles (UAVs) are emerging as a suitable technology for providing very high spatial and temporal resolution data at a low cost. This paper aims to show the potential of using UAVs for map creation and updating. The whole workflow is introduced in the paper, using a case study in Rwanda, where 954 images were collected with a DJI Phantom 2 Vision Plus quadcopter. An orthophoto covering 0.095 km2 with a spatial resolution of 3.3 cm was produced and used to extract features with a sub-decimetre accuracy. Quantitative and qualitative control of the UAV data products were performed, indicating that the obtained accuracies comply to international standards. Moreover, possible problems and further perspectives were also discussed. The results demonstrate that UAVs provide promising opportunities to create high-resolution and highly accurate orthophotos, thus facilitating map creation and updating. Numéro de notice : A2018-442 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/00396265.2016.1268756 Date de publication en ligne : 30/12/2016 En ligne : https://doi.org/10.1080/00396265.2016.1268756 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91014
in Survey review > vol 50 n° 361 (July 2018) . - pp 312 - 325[article]Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
![]()
[article]
Titre : Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine Type de document : Article/Communication Auteurs : Cyril Wendl, Auteur ; Arnaud Le Bris , Auteur ; Nesrine Chehata
, Auteur ; Anne Puissant, Auteur ; Tristan Postadjian
, Auteur
Année de publication : 2018 Projets : GeoSud / Article en page(s) : pp 87 - 97 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par réseau neuronal
[Termes IGN] classification pixellaire
[Termes IGN] contraste local
[Termes IGN] détection du bâti
[Termes IGN] fusion d'images
[Termes IGN] image multibande
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] régularisation
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation d'image
[Termes IGN] surface imperméableRésumé : (auteur) La fusion d'images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d'images moins résolues spatialement mais comportant plus de bandes spectrales permet d'améliorer la classification de l'occupation du sol. Elle permet en effet de tirer le meilleur parti des points forts, respectivement, géométriques et sémantiques de ces deux sources. Le travail proposé ici s'intéresse à un processus d'extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications obtenues respectivement à partir d'images satellitaires Sentinel-2 et SPOT 6/7. Ces deux sources sont d'abord analysées indépendamment selon 5 classes, respectivement par Forêt Aléatoire et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d'extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire, suivie d'une étape de régularisation spatiale intégrant un terme lié au contraste de l'image. Le résultat obtenu connaît ensuite une seconde fusion afin d'en déduire la-tache urbaine en elle-même : une mesure a priori de zone urbaine est calculée à partir des objets bâtiments détectés au préalable, puis fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2. Les résultats montrent bien la complémentarité des deux sources de données ainsi que la pertinence de l'adoption d'une stratégie de fusion tardive. Numéro de notice : A2018-512 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2018.415 En ligne : https://doi.org/10.52638/rfpt.2018.415 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91266
in Revue Française de Photogrammétrie et de Télédétection > n° 217-218 (juin - septembre 2018) . - pp 87 - 97[article]SDF-2-SDF registration for real-time 3D reconstruction from RGB-D data / Miroslava Slavcheva in International journal of computer vision, vol 126 n° 6 (June 2018)
![]()
[article]
Titre : SDF-2-SDF registration for real-time 3D reconstruction from RGB-D data Type de document : Article/Communication Auteurs : Miroslava Slavcheva, Auteur ; Wadim Kehl, Auteur ; Nassir Navab, Auteur ; Slobodan Ilic, Auteur Année de publication : 2018 Article en page(s) : pp 615 - 636 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] contrainte géométrique
[Termes IGN] estimation de pose
[Termes IGN] image RVB
[Termes IGN] Kinect
[Termes IGN] méthode de réduction d'énergie
[Termes IGN] optimisation (mathématiques)
[Termes IGN] reconstruction d'objet
[Termes IGN] semis de points
[Termes IGN] voxelMots-clés libres : simultaneous localization and mapping (SLAM) Résumé : (Auteur) We tackle the task of dense 3D reconstruction from RGB-D data. Contrary to the majority of existing methods, we focus not only on trajectory estimation accuracy, but also on reconstruction precision. The key technique is SDF-2-SDF registration, which is a correspondence-free, symmetric, dense energy minimization method, performed via the direct voxel-wise difference between a pair of signed distance fields. It has a wider convergence basin than traditional point cloud registration and cloud-to-volume alignment techniques. Furthermore, its formulation allows for straightforward incorporation of photometric and additional geometric constraints. We employ SDF-2-SDF registration in two applications. First, we perform small-to-medium scale object reconstruction entirely on the CPU. To this end, the camera is tracked frame-to-frame in real time. Then, the initial pose estimates are refined globally in a lightweight optimization framework, which does not involve a pose graph. We combine these procedures into our second, fully real-time application for larger-scale object reconstruction and SLAM. It is implemented as a hybrid system, whereby tracking is done on the GPU, while refinement runs concurrently over batches on the CPU. To bound memory and runtime footprints, registration is done over a fixed number of limited-extent volumes, anchored at geometry-rich locations. Extensive qualitative and quantitative evaluation of both trajectory accuracy and model fidelity on several public RGB-D datasets, acquired with various quality sensors, demonstrates higher precision than related techniques. Numéro de notice : A2018-410 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-017-1057-z Date de publication en ligne : 18/12/2017 En ligne : https://doi.org/10.1007/s11263-017-1057-z Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90884
in International journal of computer vision > vol 126 n° 6 (June 2018) . - pp 615 - 636[article]Vers une remise en géométrie automatique des prises de vue aériennes historiques photogrammétriques / Arnaud Le Bris in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
PermalinkA voxel- and graph-based strategy for segmenting man-made infrastructures using perceptual grouping laws: comparison and evaluation / Yusheng Xu in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 6 (juin 2018)
PermalinkSensor-topology based simplicial complex reconstruction from mobile laser scanning / Stéphane Guinard in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-2 (June 2018)
PermalinkAccurate facade feature extraction method for buildings from three-dimensional point cloud data considering structural information / Yongzhi Wang in ISPRS Journal of photogrammetry and remote sensing, vol 139 (May 2018)
PermalinkClassification of aerial photogrammetric 3D point clouds / Carlos Becker in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)
PermalinkHackAIR : towards raising awareness about air quality in Europe by developing a collective online platform / Evangelos Kosmidis in ISPRS International journal of geo-information, vol 7 n° 5 (May 2018)
PermalinkLarge-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)
PermalinkBinary patterns encoded convolutional neural networks for texture recognition and remote sensing scene classification / Rama Rao Nidamanuri in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)
PermalinkClose-range hyperspectral image analysis for the early detection of stress responses in individual plants in a high-throughput phenotyping platform / Mohd Shahrimie Mohd Asaari in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)
PermalinkReal-time accurate 3D head tracking and pose estimation with consumer RGB-D cameras / David Joseph Tan in International journal of computer vision, vol 126 n° 2-4 (April 2018)
Permalink