Descripteur
Documents disponibles dans cette catégorie (9390)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Apport des données Pléiades Neo pour la détection des dommages au bâti : Comparaison avec des données Pléiades-HR sur le séisme au Maroc de septembre 2023 / Stéphanie Battiston ; Mathias Studer in Revue Française de Photogrammétrie et de Télédétection, n° 226 (2024)
[article]
Titre : Apport des données Pléiades Neo pour la détection des dommages au bâti : Comparaison avec des données Pléiades-HR sur le séisme au Maroc de septembre 2023 Type de document : Article/Communication Auteurs : Stéphanie Battiston, Auteur ; Mathias Studer, Auteur Année de publication : 2024 Article en page(s) : pp 19 - 30 Langues : Français (fre) Descripteur : [Termes IGN] Centre national d'études spatiales
[Termes IGN] détection du bâti
[Termes IGN] image Pléiades-Neo
[Termes IGN] photogrammètre
[Termes IGN] télédétectionRésumé : Cette étude approfondie de l'utilisation des données satellitaires Pléiades Neo dans la détection des dommages aux bâtiments, comparée aux données Pléiades-HR, s'est concentrée sur l'évaluation des performances de ces deux capteurs suite au séisme au Maroc en septembre 2023. Les résultats indiquent de manière concluante que la résolution spatiale supérieure des images Pléiades Neo améliore significativement l'interprétation du paysage et la détection des dommages dans les zones bâties. En particulier, ce gain en résolution a permis d'identifier 74% de bâtiments endommagés supplémentaires à Marrakech et de rectifier 24% et 11% de la classification des dommages, respectivement dans les secteurs de Marrakech et d'Imidal. L'étude souligne également la capacité de Pléiades Neo à détecter des détails du paysage urbain, comme les créneaux des remparts de la ville, offrant ainsi la possibilité de repérer des dommages sur d'autres objets ou infrastructures de taille équivalente, une capacité qui n'est pas aussi prononcée avec Pléiades-HR. Les résultats illustrent et confirment les avantages substantiels des données Pléiades Neo pour l'évaluation post-catastrophe, avec une précision accrue dans la détection et la caractérisation des dommages au bâti. L'importance de l'angle d'acquisition des images, mais également la complémentarité de Pléiades Neo par rapport à Pléiades-HR dans le contexte de la cartographie d'urgence, ont également été évoquées. Cette étude atteste des avantages des images Pléiades Neo par rapport à Pléiades-HR dans la gestion des dégâts au bâti suite à des événements catastrophiques. Numéro de notice : A-20241930 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtSansCL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103660
in Revue Française de Photogrammétrie et de Télédétection > n° 226 (2024) . - pp 19 - 30[article]De pléiades à pléiades NEO: une analyse de l'amélioration de les restitution 3D / David Youssefi in Revue Française de Photogrammétrie et de Télédétection, n° 226 (2024)
[article]
Titre : De pléiades à pléiades NEO: une analyse de l'amélioration de les restitution 3D Type de document : Article/Communication Auteurs : David Youssefi, Auteur ; E. Dubois, Auteur ; Jean-Marc Delvit, Auteur Année de publication : 2024 Article en page(s) : pp. 01-09 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Termes IGN] 3D analyst
[Termes IGN] Centre national d'études spatiales
[Termes IGN] code source libre
[Termes IGN] modèle numérique de surface
[Termes IGN] modèle numérique de terrain
[Termes IGN] Pléiades-NeoMots-clés libres : Pléiades, Pléiades Neo, Modèle Numérique de Surface, Modèle Numérique de Terrain, Code ouvert Résumé : Fort de son expertise en géométrie et en 3D, le Centre National d’Études Spatiales (CNES) développe de nouveaux outils open-source capitalisant une partie de son savoir-faire. Ils sont destinés à être au cœur du segment sol de la mission CO3D et à servir tout l’écosystème aval. Le traitement de ces données impose de concevoir des chaînes robustes, capables de passer à l’échelle. De ce fait, les outils 3D du CNES sont massivement parallélisables, utilisant des technologies multiprocesseurs voire multi-nœuds tout en restant agnostique au matériel utilisé. Ces logiciels proposent des interfaces simples afin de permettre également leur utilisation en dehors des chaînes de traitement opérationnelles. Ces outils sont capables de produire un Modèle Numérique de Surface (MNS) à partir de couples stéréoscopiques d’images (CARS) dont l’étape majeure repose sur la mise en correspondance (Pandora). Par la suite, ils permettent d’extraire un Modèle Numérique de Terrain (MNT) à partir du MNS produit (Bulldozer) et d’en dériver un Modèle Numérique de Hauteur (MNH). Suite à cela, des comparaisons entre tous ces modèles numériques d’élévation peuvent également être effectuées (Demcompare). Dans l’attente de l’arrivée des données CO3D, le CNES éprouve d’ores et déjà ces outils sur d’autres capteurs, dont Pléiades et plus récemment Pléiades Neo. Cet article qualifie l’amélioration de cette restitution 3D apportée par cette nouvelle génération de satellite. Les outils 3D du CNES sont sous licence libre et non contaminante (Licence Apache v2) afin de notamment permettre l’exploitation et la valorisation des données Pléiades et maintenant Pléiades Neo. Ils offrent enfin la possibilité de reproduire les résultats présentés dans cet article. Numéro de notice : A2024-19 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat En ligne : https://rfpt.sfpt.fr/index.php/RFPT/article/view/672/503 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103656
in Revue Française de Photogrammétrie et de Télédétection > n° 226 (2024) . - pp. 01-09[article]Accuracy analysis of UAV photogrammetry using RGB and multispectral sensors / Nikola Santrač in Geodetski vestnik, vol 67 n° 4 (December 2023)
[article]
Titre : Accuracy analysis of UAV photogrammetry using RGB and multispectral sensors Type de document : Article/Communication Auteurs : Nikola Santrač, Auteur ; Pavel Benka, Auteur ; Mehmed Batilović, Auteur ; et al., Auteur Année de publication : 2023 Article en page(s) : pp 459 - 472 Note générale : bibliographie Langues : Anglais (eng) Slovène (slv) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] image captée par drone
[Termes IGN] image multibande
[Termes IGN] image RVB
[Termes IGN] modèle géométrique de prise de vue
[Termes IGN] point d'appui
[Termes IGN] positionnement cinématique en temps réel
[Termes IGN] qualité des donnéesRésumé : (auteur) In recent years, unmanned aerial vehicles (UAVs) have become increasingly important as a tool for quickly collecting high-resolution (spatial and spectral) imagery of the Earth's surface. The final products are highly dependent on the choice of values for various parameters in flight planning, the type of sensors, and the processing of the data. In this paper ground control points (GCPs) were first measured using the Global Navigation Satellite System (GNSS) Real-Time Kinematic (RTK) method, and then due to the low height accuracy of the GNSS RTK method all points were measured using a detailed leveling method. This study aims to provide a basic assessment of quality, including four main aspects: (1) the difference between an RGB sensor and a five-band multispectral sensor on accuracy and the amount of data, (2) the impact of the number of GCPs on the accuracy of the final products, (3) the impact of different altitudes and cross flight strips, and (4) the accuracy analysis of multi-altitude models. The results suggest that the type of sensor, flight configuration, and GCP setup strongly affect the quality and quantity of the final product data while creating a multi-altitude model does not result in the expected quality of data. With its unique combination of sensors and parameters, the results and recommendations presented in this paper can assist professionals and researchers in their future work. Numéro de notice : A2023-241 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.15292/geodetski-vestnik.2023.04.459-472 Date de publication en ligne : 01/12/2023 En ligne : https://dx.doi.org/10.15292/geodetski-vestnik.2023.04.459-472 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103604
in Geodetski vestnik > vol 67 n° 4 (December 2023) . - pp 459 - 472[article]Automated extraction and validation of Stone Pine (Pinus pinea L.) trees from UAV-based digital surface models / Asli Ozdarici-Ok in Geo-spatial Information Science, vol 26 n° inconnu ([01/08/2023])
[article]
Titre : Automated extraction and validation of Stone Pine (Pinus pinea L.) trees from UAV-based digital surface models Type de document : Article/Communication Auteurs : Asli Ozdarici-Ok, Auteur ; Ali Ozgun Ok, Auteur ; et al., Auteur Année de publication : 2023 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image captée par drone
[Termes IGN] modèle numérique de surface
[Termes IGN] Pinus pinea
[Termes IGN] semis de points
[Termes IGN] TurquieRésumé : (auteur) Stone Pine (Pinus pinea L.) is currently the pine species with the highest commercial value with edible seeds. In this respect, this study introduces a new methodology for extracting Stone Pine trees from Digital Surface Models (DSMs) generated through an Unmanned Aerial Vehicle (UAV) mission. We developed a novel enhanced probability map of local maxima that facilitates the computation of the orientation symmetry by means of new probabilistic local minima information. Four test sites are used to evaluate our automated framework within one of the most important Stone Pine forest areas in Antalya, Turkey. A Hand-held Mobile Laser Scanner (HMLS) was utilized to collect the reference point cloud dataset. Our findings confirm that the proposed methodology, which uses a single DSM as an input, secures overall pixel-based and object-based F1-scores of 88.3% and 97.7%, respectively. The overall median Euclidean distance revealed between the automatically extracted stem locations and the manually extracted ones is computed to be 36 cm (less than 4 pixels), demonstrating the effectiveness and robustness of the proposed methodology. Finally, the comparison with the state-of-the-art reveals that the outcomes of the proposed methodology outperform the results of six previous studies in this context. Numéro de notice : A2022-620 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10095020.2022.2090864 Date de publication en ligne : 21/07/2022 En ligne : https://doi.org/10.1080/10095020.2022.2090864 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101364
in Geo-spatial Information Science > vol 26 n° inconnu [01/08/2023][article]Deblurring low-light images with events / Chu Zhou in International journal of computer vision, vol 131 n° 5 (May 2023)
[article]
Titre : Deblurring low-light images with events Type de document : Article/Communication Auteurs : Chu Zhou, Auteur ; Minggui Teng, Auteur ; Jin Han, Auteur ; et al., Auteur Année de publication : 2023 Article en page(s) : pp 1284 - 1298 Note générale : bilbiographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] caméra d'événement
[Termes IGN] correction d'image
[Termes IGN] filtrage du bruit
[Termes IGN] flou
[Termes IGN] image à basse résolution
[Termes IGN] image RVBRésumé : (auteur) Modern image-based deblurring methods usually show degenerate performance in low-light conditions since the images often contain most of the poorly visible dark regions and a few saturated bright regions, making the amount of effective features that can be extracted for deblurring limited. In contrast, event cameras can trigger events with a very high dynamic range and low latency, which hardly suffer from saturation and naturally encode dense temporal information about motion. However, in low-light conditions existing event-based deblurring methods would become less robust since the events triggered in dark regions are often severely contaminated by noise, leading to inaccurate reconstruction of the corresponding intensity values. Besides, since they directly adopt the event-based double integral model to perform pixel-wise reconstruction, they can only handle low-resolution grayscale active pixel sensor images provided by the DAVIS camera, which cannot meet the requirement of daily photography. In this paper, to apply events to deblurring low-light images robustly, we propose a unified two-stage framework along with a motion-aware neural network tailored to it, reconstructing the sharp image under the guidance of high-fidelity motion clues extracted from events. Besides, we build an RGB-DAVIS hybrid camera system to demonstrate that our method has the ability to deblur high-resolution RGB images due to the natural advantages of our two-stage framework. Experimental results show our method achieves state-of-the-art performance on both synthetic and real-world images. Numéro de notice : A2023-210 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s11263-023-01754-5 Date de publication en ligne : 06/02/2023 En ligne : https://doi.org/10.1007/s11263-023-01754-5 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103062
in International journal of computer vision > vol 131 n° 5 (May 2023) . - pp 1284 - 1298[article]Global-aware siamese network for change detection on remote sensing images / Ruiqian Zhang in ISPRS Journal of photogrammetry and remote sensing, vol 199 (May 2023)PermalinkIntegrating topographic knowledge into point cloud simplification for terrain modelling / Jun Chen in International journal of geographical information science IJGIS, vol 37 n° 5 (May 2023)PermalinkAutomatic generation of outline-based representations of landmark buildings with distinctive shapes / Peng Ti in International journal of geographical information science IJGIS, vol 37 n° 4 (April 2023)PermalinkLa cartographie du relief : Une gageure technique et des solutions / Laurent Polidori in Géomètre, n° 2212 (avril 2023)PermalinkMapping the walk: A scalable computer vision approach for generating sidewalk network datasets from aerial imagery / Maryam Hosseini in Computers, Environment and Urban Systems, vol 101 (April 2023)PermalinkTowards global scale segmentation with OpenStreetMap and remote sensing / Munazza Usmani in ISPRS Open Journal of Photogrammetry and Remote Sensing, vol 8 (April 2023)PermalinkAssessing the cognition of movement trajectory visualizations: interpreting speed and direction / Crystal J. Bae in Cartography and Geographic Information Science, Vol 50 n° 2 (March 2023)PermalinkAutomatic detection of thin oil films on water surfaces in ultraviolet imagery / Ming Xie in Photogrammetric record, vol 38 n° 181 (March 2023)PermalinkDomain adaptation in segmenting historical maps: A weakly supervised approach through spatial co-occurrence / Sidi Wu in ISPRS Journal of photogrammetry and remote sensing, vol 197 (March 2023)PermalinkGeneration of concise 3D building model from dense meshes by extracting and completing planar primitives / Xinyi Liu in Photogrammetric record, vol 38 n° 181 (March 2023)Permalink