Photogrammetric record / Remote sensing and photogrammetry society . vol 35 n° 169Paru le : 01/03/2020 |
[n° ou bulletin]
[n° ou bulletin]
|
Dépouillements
Ajouter le résultat dans votre panierA precise visual localisation method for the Chinese Chang’e‐4 Yutu‐2 rover / YouQing Ma in Photogrammetric record, vol 35 n° 169 (March 2020)
[article]
Titre : A precise visual localisation method for the Chinese Chang’e‐4 Yutu‐2 rover Type de document : Article/Communication Auteurs : YouQing Ma, Auteur ; ShaoChuang Liu, Auteur ; Bing Sima, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 10 - 39 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Technologies spatiales
[Termes IGN] compensation par faisceaux
[Termes IGN] compensation par moindres carrés
[Termes IGN] localisation basée vision
[Termes IGN] Lune
[Termes IGN] mission spatialeRésumé : (Auteur) Precise localisation of the Yutu‐2 moon rover plays an important role in path planning, obstacle avoidance and navigating to target features. To provide high‐precision localisation information, a stereo bundle adjustment method using the theory of the unit quaternions is presented for the first time. To improve the precision and robustness of the proposed method, the rover's pose, from a visual odometry technique assisted by an inertial measurement unit and the rotation angles of the mast mechanism, is viewed as a pseudo‐observation. A reasonable weighting strategy and a rational geometric constraint condition of the stereo cameras is also invoked. Experimental results demonstrate that the proposed method provides more accurate localisation results than either a bundle adjustment alone or a weighted total least‐squares method. The proposed method has been successfully used in Chang'e‐4 mission operations. Numéro de notice : A2020-130 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/phor.12309 Date de publication en ligne : 29/03/2020 En ligne : https://doi.org/10.1111/phor.12309 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94807
in Photogrammetric record > vol 35 n° 169 (March 2020) . - pp 10 - 39[article]An improved RANSAC algorithm for extracting roof planes from airborne lidar data / Sibel Canaz Sevgen in Photogrammetric record, vol 35 n° 169 (March 2020)
[article]
Titre : An improved RANSAC algorithm for extracting roof planes from airborne lidar data Type de document : Article/Communication Auteurs : Sibel Canaz Sevgen, Auteur ; Fevzi Karsli, Auteur Année de publication : 2020 Article en page(s) : pp 40 - 57 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Algorithmique
[Termes IGN] bord décollé (toit)
[Termes IGN] contrôle qualité
[Termes IGN] détection du bâti
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] Ransac (algorithme)
[Termes IGN] segmentation en régions
[Termes IGN] semis de pointsRésumé : (Auteur) The extraction of building roof planes from lidar data has become a popular research topic with random sample consensus (RANSAC) being one of the most commonly adopted algorithms. RANSAC extracts full planes, which is problematic when there are other points outside the plane boundary but within the plane space. This study proposes an improved RANSAC (I‐RANSAC) algorithm by removing points that do not belong to the roof plane. I‐RANSAC selects a random point from the extracted roof plane and then searches for its neighbours within a given threshold to identify and remove outliers. The new algorithm was tested with 14 buildings from two datasets, where quality control measures showed significant improvement over standard RANSAC. Numéro de notice : A2020-131 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Numéro de périodique nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/phor.12296 Date de publication en ligne : 13/11/2019 En ligne : https://doi.org/10.1111/phor.12296 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94815
in Photogrammetric record > vol 35 n° 169 (March 2020) . - pp 40 - 57[article]Assessment of dense image matchers for digital surface model generation using airborne and spaceborne images – an update / Yilong Han in Photogrammetric record, vol 35 n° 169 (March 2020)
[article]
Titre : Assessment of dense image matchers for digital surface model generation using airborne and spaceborne images – an update Type de document : Article/Communication Auteurs : Yilong Han, Auteur ; Rongjun Qin, Auteur ; Xu Huang, Auteur Année de publication : 2020 Article en page(s) : pp 58 - 80 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] appariement d'images
[Termes IGN] estimation de précision
[Termes IGN] image captée par drone
[Termes IGN] image satellite
[Termes IGN] modèle numérique de surfaceRésumé : (Auteur) Digital surface model (DSM) generation is one of the fundamental issues in photogrammetry and the mapping industry. This paper provides a comprehensive assessment of state‐of‐the‐art image matchers using nine open‐source and commercial software packages on aerial and unmanned aerial vehicle (UAV) images and five software packages on spaceborne images. Two datasets provide an update on DSM generation software for both airborne and spaceborne data: a 5 × 5 UAV image block with high‐precision models; and a WorldView‐1 stereopair with lidar reference data. To understand the performance of the image matchers, accuracy analysis is additionally performed on five selected ground objects. The tested image matchers adopting hierarchical semi‐global matching fitted the reference DSM better, thus yielding better accuracy. Numéro de notice : A2020-132 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/phor.12310 Date de publication en ligne : 29/03/2020 En ligne : https://doi.org/10.1111/phor.12310 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94816
in Photogrammetric record > vol 35 n° 169 (March 2020) . - pp 58 - 80[article]Hierarchical classification of pole‐like objects in mobile laser scanning point clouds / Rufei Liu in Photogrammetric record, vol 35 n° 169 (March 2020)
[article]
Titre : Hierarchical classification of pole‐like objects in mobile laser scanning point clouds Type de document : Article/Communication Auteurs : Rufei Liu, Auteur ; Peng Wang, Auteur ; Zhaojin Yan, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 81 - 107 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] analyse de la valeur
[Termes IGN] classification ascendante hiérarchique
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] lidar mobile
[Termes IGN] milieu urbain
[Termes IGN] semis de points
[Termes IGN] valeur propreRésumé : (Auteur) For the classification of pole‐like objects (trees, lamp posts, traffic lights and traffic signs) in mobile laser scanning (MLS) point clouds, a hierarchical classification method is proposed. The method consists of three major steps. (1) The objects’ cylindrical column sections are detected based on the characteristics of arc‐like points using RANSAC after denoising. (2) These detected objects are roughly classified into trees and man‐made poles based on the azimuthal coverage of point clouds above the cylindrical column. (3) Eigenvalue analysis and the principal direction of the upper pole projections are used to differentiate lamp posts, traffic lights and traffic signs. Experimental analysis shows that the method can effectively identify different types of pole‐like objects. Numéro de notice : A2020-133 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/phor.12307 Date de publication en ligne : 10/01/2020 En ligne : https://doi.org/10.1111/phor.12307 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94819
in Photogrammetric record > vol 35 n° 169 (March 2020) . - pp 81 - 107[article]