Descripteur
Documents disponibles dans cette catégorie (8943)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Étude des outils permettant la classification d’un nuage de points LiDAR aérien et optimisation de la chaîne de traitement dans le cadre du programme national du LiDAR HD in XYZ, n° 179 (juin 2024)
[article]
Titre : Étude des outils permettant la classification d’un nuage de points LiDAR aérien et optimisation de la chaîne de traitement dans le cadre du programme national du LiDAR HD Type de document : Article/Communication Année de publication : 2024 Article en page(s) : pp. 35 - 42 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] classification
[Termes IGN] image aérienne
[Termes IGN] intelligence artificielle
[Termes IGN] Lidar
[Termes IGN] semis de pointsRésumé : Ce travail présente une étude portant sur la classification de nuages de points issus d’une acquisition aérienne, en se concentrant sur les données acquises dans le cadre du projet national LiDAR HD. Il réalise une analyse critique des outils proposés par Terrascan et des méthodes pa- ramétriques qui offrent un bon rapport temps/qualité, mais il subsiste des confusions qui demandent un temps de correction conséquent. De plus, les outils Terrascan sont limités à la classification du sol, des bâtiments et d’une partie de la végétation. Il n’est pas proposé de méthodes efficaces pour classifier des éléments de la classe du sursol pérenne, comme les pylônes électriques ou les éoliennes notamment. Pour y remédier, une autre méthode innovante, basée sur les descripteurs 3D est proposée. Cette méthode offre une meilleure détection des bâtiments et permet, en outre, de classifier des éléments du sursol pérenne. Enfin, il est étudié les synergies entre les différents outils testés. Puis les performances d’une IA sont introduites afin de discuter de l’avenir de la classification des nuages de points aériens. Numéro de notice : A2024-1792 Affiliation des auteurs : non IGN Thématique : POSITIONNEMENT Nature : Article nature-HAL : ArtSansCL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103658
in XYZ > n° 179 (juin 2024) . - pp. 35 - 42[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 112-2024021 RAB Revue Centre de documentation En réserve L003 Exclu du prêt De pléiades à pléiades NEO: une analyse de l'amélioration de les restitution 3D / David Youssefi in Revue Française de Photogrammétrie et de Télédétection, n° 226 (2024)
[article]
Titre : De pléiades à pléiades NEO: une analyse de l'amélioration de les restitution 3D Type de document : Article/Communication Auteurs : David Youssefi, Auteur ; E. Dubois, Auteur ; Jean-Marc Delvit, Auteur Année de publication : 2024 Article en page(s) : pp. 01-09 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Termes IGN] 3D analyst
[Termes IGN] Centre national d'études spatiales
[Termes IGN] code source libre
[Termes IGN] modèle numérique de surface
[Termes IGN] modèle numérique de terrain
[Termes IGN] Pléiades-NeoMots-clés libres : Pléiades, Pléiades Neo, Modèle Numérique de Surface, Modèle Numérique de Terrain, Code ouvert Résumé : Fort de son expertise en géométrie et en 3D, le Centre National d’Études Spatiales (CNES) développe de nouveaux outils open-source capitalisant une partie de son savoir-faire. Ils sont destinés à être au cœur du segment sol de la mission CO3D et à servir tout l’écosystème aval. Le traitement de ces données impose de concevoir des chaînes robustes, capables de passer à l’échelle. De ce fait, les outils 3D du CNES sont massivement parallélisables, utilisant des technologies multiprocesseurs voire multi-nœuds tout en restant agnostique au matériel utilisé. Ces logiciels proposent des interfaces simples afin de permettre également leur utilisation en dehors des chaînes de traitement opérationnelles. Ces outils sont capables de produire un Modèle Numérique de Surface (MNS) à partir de couples stéréoscopiques d’images (CARS) dont l’étape majeure repose sur la mise en correspondance (Pandora). Par la suite, ils permettent d’extraire un Modèle Numérique de Terrain (MNT) à partir du MNS produit (Bulldozer) et d’en dériver un Modèle Numérique de Hauteur (MNH). Suite à cela, des comparaisons entre tous ces modèles numériques d’élévation peuvent également être effectuées (Demcompare). Dans l’attente de l’arrivée des données CO3D, le CNES éprouve d’ores et déjà ces outils sur d’autres capteurs, dont Pléiades et plus récemment Pléiades Neo. Cet article qualifie l’amélioration de cette restitution 3D apportée par cette nouvelle génération de satellite. Les outils 3D du CNES sont sous licence libre et non contaminante (Licence Apache v2) afin de notamment permettre l’exploitation et la valorisation des données Pléiades et maintenant Pléiades Neo. Ils offrent enfin la possibilité de reproduire les résultats présentés dans cet article. Numéro de notice : A2024-19 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat En ligne : https://rfpt.sfpt.fr/index.php/RFPT/article/view/672/503 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103656
in Revue Française de Photogrammétrie et de Télédétection > n° 226 (2024) . - pp. 01-09[article]
Titre : Cartographier l'anthropocène 2024 : Altas IGN - A l'ère de l'intelligence artificielle Type de document : Atlas/Carte Auteurs : IGN, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2024 Importance : 90 p. Format : 31 x 21,5 cm Langues : Français (fre) Descripteur : [Vedettes matières IGN] Environnement
[Vedettes matières IGN] Intelligence artificielle
[Vedettes matières IGN] Urbanisme
[Termes IGN] agriculture
[Termes IGN] cartographie
[Termes IGN] énergie
[Termes IGN] forêt
[Termes IGN] numérisation
[Termes IGN] risque environnementalIndex. décimale : 42.40 Histoire IGN Numéro de notice : 24113 Affiliation des auteurs : IGN (2020- ) Thématique : BIODIVERSITE/FORET/GEOMATIQUE/IMAGERIE Nature : Atlas En ligne : https://www.ign.fr/publications-de-l-ign/institut/kiosque/publications/atlas_ant [...] Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103781 Documents numériques
peut être téléchargé
Cartographier l'anthropocène 2024 : Altas IGN - A l'ère de l'intelligence artificielleAdobe Acrobat PDF A conceptual framework for developing dashboards for big mobility data / Lindsey Conrow in Cartography and Geographic Information Science, Vol 50 n° 5 (June 2023)
[article]
Titre : A conceptual framework for developing dashboards for big mobility data Type de document : Article/Communication Auteurs : Lindsey Conrow, Auteur ; Cheng Fu, Auteur ; et al., Auteur Année de publication : 2023 Article en page(s) : pp 495 - 514 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes IGN] cadre conceptuel
[Termes IGN] données massives
[Termes IGN] mobilité humaine
[Termes IGN] tableau de bordRésumé : (auteur) Dashboards are an increasingly popular form of data visualization. Large, complex, and dynamic mobility data present a number of challenges in dashboard design. The overall aim for dashboard design is to improve information communication and decision making, though big mobility data in particular require considering privacy alongside size and complexity. Taking these issues into account, a gap remains between wrangling mobility data and developing meaningful dashboard output. Therefore, there is a need for a framework that bridges this gap to support the mobility dashboard development and design process. In this paper we outline a conceptual framework for mobility data dashboards that provides guidance for the development process while considering mobility data structure, volume, complexity, varied application contexts, and privacy constraints. We illustrate the proposed framework’s components and process using example mobility dashboards with varied inputs, end-users and objectives. Overall, the framework offers a basis for developers to understand how informational displays of big mobility data are determined by end-user needs as well as the types of data selection, transformation, and display available to particular mobility datasets. Numéro de notice : A2023-236 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article DOI : 10.1080/15230406.2023.2190164 Date de publication en ligne : 11/04/2023 En ligne : https://doi.org/10.1080/15230406.2023.2190164 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103595
in Cartography and Geographic Information Science > Vol 50 n° 5 (June 2023) . - pp 495 - 514[article]Research on map emotional semantics using deep learning approach / Daping Xi in Cartography and Geographic Information Science, Vol 50 n° 5 (June 2023)
[article]
Titre : Research on map emotional semantics using deep learning approach Type de document : Article/Communication Auteurs : Daping Xi, Auteur ; Xini Hu, Auteur ; et al., Auteur Année de publication : 2023 Article en page(s) : pp 465 - 480 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes IGN] apprentissage profond
[Termes IGN] émotion
[Termes IGN] réseau neuronal profondRésumé : (auteur) The main purpose of the research on map emotional semantics is to describe and express the emotional responses caused by people observing images through computer technology. Nowadays, map application scenarios tend to be diversified, and the increasing demand for emotional information of map users bring new challenges for cartography. However, the lack of evaluation of emotions in the traditional map drawing process makes it difficult for the resulting maps to reach emotional resonance with map users. The core of solving this problem is to quantify the emotional semantics of maps, it can help mapmakers to better understand map emotions and improve user satisfaction. This paper aims to perform the quantification of map emotional semantics by applying transfer learning methods and the efficient computational power of convolutional neural networks (CNN) to establish the correspondence between visual features and emotions. The main contributions of this paper are as follows: (1) a Map Sentiment Dataset containing five discrete emotion categories; (2) three different CNNs (VGG16, VGG19, and InceptionV3) are applied for map sentiment classification task and evaluated by accuracy performance; (3) six different parameter combinations to conduct experiments that would determine the best combination of learning rate and batch size; and (4) the analysis of visual variables that affect the sentiment of a map according to the chart and visualization results. The experimental results reveal that the proposed method has good accuracy performance (around 88%) and that the emotional semantics of maps have some general rules. Numéro de notice : A2023-235 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article DOI : 10.1080/15230406.2023.2172081 Date de publication en ligne : 21/02/2023 En ligne : https://doi.org/10.1080/15230406.2023.2172081 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103594
in Cartography and Geographic Information Science > Vol 50 n° 5 (June 2023) . - pp 465 - 480[article]Resilient GNSS real-time kinematic precise positioning with inequality and equality constraints / Zhetao Zhang in GPS solutions, vol 27 n° 3 (July 2023)PermalinkFORMS: Forest Multiple Source height, wood volume, and biomass maps in France at 10 to 30 m resolution based on Sentinel-1, Sentinel-2, and GEDI data with a deep learning approach / Martin Schwartz in Earth System Science Data, vol 15 n° inconnu (2023)PermalinkA minimal solution for image-based sphere estimation / Tekla Tóth in International journal of computer vision, vol 131 n° 6 (June 2023)PermalinkOptimized position estimation in mobile multipath environments using machine learning / Nesreen I. Ziedan in Navigation : journal of the Institute of navigation, vol 70 n° 2 (Summer 2023)PermalinkDeblurring low-light images with events / Chu Zhou in International journal of computer vision, vol 131 n° 5 (May 2023)PermalinkDetecting spatiotemporal propagation patterns of traffic congestion from fine-grained vehicle trajectory data / Haoyi Xiong in International journal of geographical information science IJGIS, vol 37 n° 5 (May 2023)PermalinkTransform paper-based cadastral data into digital systems using GIS and end-to-end deep learning techniques / Joseph Mango in International journal of geographical information science IJGIS, vol 37 n° 5 (May 2023)PermalinkAutomatic generation of outline-based representations of landmark buildings with distinctive shapes / Peng Ti in International journal of geographical information science IJGIS, vol 37 n° 4 (April 2023)PermalinkEvaluating future railway-induced urban growth of twelve cities using multiple SLEUTH models with open-source geospatial inputs / Alvin Christopher G. Varquez in Sustainable Cities and Society, vol 91 (April 2023)PermalinkA global long-term, high-resolution satellite radar backscatter data record (1992–2022+): merging C-band ERS/ASCAT and Ku-band QSCAT / Shengli Tao in Earth System Science Data, vol 15 n° 4 (2023)PermalinkImprovement in crop mapping from satellite image time series by effectively supervising deep neural networks / Sina Mohammadi in ISPRS Journal of photogrammetry and remote sensing, vol 198 (April 2023)PermalinkLight mode and dark mode: Which one is suitable when using public-facing web maps? An experimental evaluation using eye-tracking / Lige Qiao in Transactions in GIS, vol 27 n° 2 (april 2023)PermalinkMapping the walk: A scalable computer vision approach for generating sidewalk network datasets from aerial imagery / Maryam Hosseini in Computers, Environment and Urban Systems, vol 101 (April 2023)PermalinkMethods for matching English language addresses / Keshav Ramani in Transactions in GIS, vol 27 n° 2 (april 2023)PermalinkPoint cloud registration for LiDAR and photogrammetric data: A critical synthesis and performance analysis on classic and deep learning algorithms / Ningli Xu in ISPRS Open Journal of Photogrammetry and Remote Sensing, vol 8 (April 2023)PermalinkAnalyse des performances de levers LiDAR via l’iPad Pro en vue de la réalisation de plans d’intérieurs et de maquettes numériques de bâtiments / Pauline Chardon in XYZ, n° 174 (mars 2023)PermalinkAssessing the cognition of movement trajectory visualizations: interpreting speed and direction / Crystal J. Bae in Cartography and Geographic Information Science, Vol 50 n° 2 (March 2023)PermalinkChatGPT pour la géomatique, potentiel d’utilisation et limites / Emmanuel Clédat in XYZ, n° 174 (mars 2023)PermalinkDeriving map images of generalised mountain roads with generative adversarial networks / Azelle Courtial in International journal of geographical information science IJGIS, vol 37 n° 3 (March 2023)PermalinkDomain adaptation in segmenting historical maps: A weakly supervised approach through spatial co-occurrence / Sidi Wu in ISPRS Journal of photogrammetry and remote sensing, vol 197 (March 2023)Permalink