Descripteur



Etendre la recherche sur niveau(x) vers le bas
Pan-sharpening via multiscale dynamic convolutional neural network / Jianwen Hu in IEEE Transactions on geoscience and remote sensing, Vol 59 n° 3 (March 2021)
![]()
[article]
Titre : Pan-sharpening via multiscale dynamic convolutional neural network Type de document : Article/Communication Auteurs : Jianwen Hu, Auteur ; Pei Hu, Auteur ; Xudong Kang, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 2231 - 2244 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes descripteurs IGN] classification par réseau neuronal convolutif
[Termes descripteurs IGN] données multiéchelles
[Termes descripteurs IGN] image Geoeye
[Termes descripteurs IGN] image multibande
[Termes descripteurs IGN] image panchromatique
[Termes descripteurs IGN] image Quickbird
[Termes descripteurs IGN] image Worldview
[Termes descripteurs IGN] pansharpening (fusion d'images)
[Termes descripteurs IGN] reconstruction d'imageRésumé : (Auteur) Pan-sharpening is an effective method to obtain high-resolution multispectral images by fusing panchromatic (PAN) images with fine spatial structure and low-resolution multispectral images with rich spectral information. In this article, a multiscale pan-sharpening method based on dynamic convolutional neural network is proposed. The filters in dynamic convolution are generated dynamically and locally by the filter generation network which is different from the standard convolution and strengthens the adaptivity of the network. The dynamic filters are adaptively changed according to the input images. The proposed multiscale dynamic convolutions extract detail feature of PAN image at different scales. Multiscale network structure is beneficial to obtain effective detail features. The weights obtained by the weight generation network are used to adjust the relationship among the detail features in each scale. The GeoEye-1, QuickBird, and WorldView-3 data are used to evaluate the performance of the proposed method. Compared with the widely used state-of-the-art pan-sharpening approaches, the experimental results demonstrate the superiority of the proposed method in terms of both objective quality indexes and visual performance. Numéro de notice : A2021-216 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2020.3007884 date de publication en ligne : 16/07/2020 En ligne : https://doi.org/10.1109/TGRS.2020.3007884 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97206
in IEEE Transactions on geoscience and remote sensing > Vol 59 n° 3 (March 2021) . - pp 2231 - 2244[article]Elevation models for reproducible evaluation of terrain representation / Patrick Kennelly in Cartography and Geographic Information Science, vol 48 n° 1 (January 2021)
![]()
[article]
Titre : Elevation models for reproducible evaluation of terrain representation Type de document : Article/Communication Auteurs : Patrick Kennelly, Auteur ; Tom Patterson, Auteur ; Bernhard Jenny, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 63 - 77 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes descripteurs IGN] altitude
[Termes descripteurs IGN] données multiéchelles
[Termes descripteurs IGN] figuré du terrain
[Termes descripteurs IGN] modèle numérique de surface
[Termes descripteurs IGN] réalité de terrain
[Termes descripteurs IGN] relief
[Termes descripteurs IGN] représentation du relief
[Termes descripteurs IGN] reproductibilité
[Termes descripteurs IGN] visualisation de donnéesRésumé : (auteur) This paper proposes elevation models to promote, evaluate, and compare various terrain representation techniques. Our goal is to increase the reproducibility of terrain rendering algorithms and techniques across different scales and landscapes. We introduce elevation models of varying terrain types, available to the user at no cost, with minimal common data imperfections such as missing data values, resampling artifacts, and seams. Three multiscale elevation models are available, each consisting of a set of elevation grids, centered on the same geographic location, with increasing cell sizes and spatial extents. We also propose a collection of single-scale elevation models of archetypal landforms including folded ridges, a braided riverbed, active and stabilized sand dunes, and a volcanic caldera. An inventory of 78 publications with a total of 155 renderings illustrating terrain visualization techniques guided the selection of landform types in the elevation models. The benefits of using the proposed elevation models include straightforward comparison of terrain representation methods across different publications and better documentation of the source data, which increases the reproducibility of terrain representations. Numéro de notice : A2021-719 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/15230406.2020.1830856 date de publication en ligne : 04/11/2020 En ligne : https://doi.org/10.1080/15230406.2020.1830856 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96459
in Cartography and Geographic Information Science > vol 48 n° 1 (January 2021) . - pp 63 - 77[article]Exploring multiscale object-based convolutional neural network (multi-OCNN) for remote sensing image classification at high spatial resolution / Vitor Martins in ISPRS Journal of photogrammetry and remote sensing, vol 168 (October 2020)
![]()
[article]
Titre : Exploring multiscale object-based convolutional neural network (multi-OCNN) for remote sensing image classification at high spatial resolution Type de document : Article/Communication Auteurs : Vitor Martins, Auteur ; Amy L. Kaleita, Auteur ; Brian K. Gelder, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 56 - 73 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes descripteurs IGN] analyse d'image orientée objet
[Termes descripteurs IGN] apprentissage profond
[Termes descripteurs IGN] classification par réseau neuronal convolutif
[Termes descripteurs IGN] données multiéchelles
[Termes descripteurs IGN] étiquetage sémantique
[Termes descripteurs IGN] hétérogénéité environnementale
[Termes descripteurs IGN] image à haute résolution
[Termes descripteurs IGN] occupation du sol
[Termes descripteurs IGN] reconnaissance d'objets
[Termes descripteurs IGN] segmentation d'image
[Termes descripteurs IGN] squelettisationRésumé : (auteur) Convolutional Neural Network (CNN) has been increasingly used for land cover mapping of remotely sensed imagery. However, large-area classification using traditional CNN is computationally expensive and produces coarse maps using a sliding window approach. To address this problem, object-based CNN (OCNN) becomes an alternative solution to improve classification performance. However, previous studies were mainly focused on urban areas or small scenes, and implementation of OCNN method is still needed for large-area classification over heterogeneous landscape. Additionally, the massive labeling of segmented objects requires a practical approach for less computation, including object analysis and multiple CNNs. This study presents a new multiscale OCNN (multi-OCNN) framework for large-scale land cover classification at 1-m resolution over 145,740 km2. Our approach consists of three main steps: (i) image segmentation, (ii) object analysis with skeleton-based algorithm, and (iii) application of multiple CNNs for final classification. Also, we developed a large benchmark dataset, called IowaNet, with 1 million labeled images and 10 classes. In our approach, multiscale CNNs were trained to capture the best contextual information during the semantic labeling of objects. Meanwhile, skeletonization algorithm provided morphological representation (“medial axis”) of objects to support the selection of convolutional locations for CNN predictions. In general, proposed multi-OCNN presented better classification accuracy (overall accuracy ~87.2%) compared to traditional patch-based CNN (81.6%) and fixed-input OCNN (82%). In addition, the results showed that this framework is 8.1 and 111.5 times faster than traditional pixel-wise CNN16 or CNN256, respectively. Multiple CNNs and object analysis have proved to be essential for accurate and fast classification. While multi-OCNN produced a high-level of spatial details in the land cover product, misclassification was observed for some classes, such as road versus buildings or shadow versus lake. Despite these minor drawbacks, our results also demonstrated the benefits of IowaNet training dataset in the model performance; overfitting process reduces as the number of samples increases. The limitations of multi-OCNN are partially explained by segmentation quality and limited number of spectral bands in the aerial data. With the advance of deep learning methods, this study supports the claim of multi-OCNN benefits for operational large-scale land cover product at 1-m resolution. Numéro de notice : A2020-634 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2020.08.004 date de publication en ligne : 13/08/2020 En ligne : https://doi.org/10.1016/j.isprsjprs.2020.08.004 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96057
in ISPRS Journal of photogrammetry and remote sensing > vol 168 (October 2020) . - pp 56 - 73[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2020101 SL Revue Centre de documentation Revues en salle Disponible 081-2020103 DEP-RECP Revue MATIS Dépôt en unité Exclu du prêt 081-2020102 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Designing multi-scale maps: lessons learned from existing practices / Marion Dumont in International journal of cartography, Vol 6 n° 1 (March 2020)
![]()
[article]
Titre : Designing multi-scale maps: lessons learned from existing practices Type de document : Article/Communication Auteurs : Marion Dumont , Auteur ; Guillaume Touya
, Auteur ; Cécile Duchêne
, Auteur
Année de publication : 2020 Projets : MapMuxing / Touya, Guillaume Article en page(s) : pp 121 - 151 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Termes descripteurs IGN] analyse visuelle
[Termes descripteurs IGN] carte interactive
[Termes descripteurs IGN] cognition
[Termes descripteurs IGN] données multiéchelles
[Termes descripteurs IGN] échelle cartographique
[Termes descripteurs IGN] géomatique web
[Termes descripteurs IGN] niveau d'abstraction
[Termes descripteurs IGN] niveau de détail
[Termes descripteurs IGN] représentation multiple
[Termes descripteurs IGN] Web Map Tile Service
[Termes descripteurs IGN] zoom
[Vedettes matières IGN] GénéralisationRésumé : (Auteur) Mapping applications display multi-scale maps where zooming in and out triggers the display of different maps at different scales. Multi-scale maps strongly augmented the potential uses of maps, compared to the traditional single-scaled paper maps. But the exploration of the multi-scale maps can be cognitively difficult for users because the content of the maps can be very different at different scales. This paper seeks to identify the factors in the design of map content and style that increase or decrease the exploration cognitive load, in order to improve multi-scales map design. We studied sixteen existing examples of multi-scale maps to identify these factors that influence a fluid zooming interaction. Several different analyses were conducted on these sixteen multi-scale maps. We first conducted a guided visual exploration of the maps, and a detailed study of the scales of the maps, to identify general trends of good practices (e.g. the WMTS standard that defines zoom levels is widely used) and potential ways of improvement (e.g. a same map is often used at multiple successive zoom levels). Then, we focused on the visual complexity of the multi-scale maps by analyzing how it varies, continuously or not, across scales, using clutter measures, which showed a peak of complexity at zoom level 12 of the WMTS standard. Finally, we studied how buildings and roads are subject to abstraction changes across scales (e.g. at what zoom level individual buildings turn into built-up areas), which can be one of the causes of exploration difficulties. We identified some good practices to reduce the impact of abstraction changes, for instance by mixing different levels of abstraction in the same map. Numéro de notice : A2020-060 Affiliation des auteurs : LaSTIG COGIT (2012-2019) Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/23729333.2020.1717832 date de publication en ligne : 28/01/2020 En ligne : https://doi.org/10.1080/23729333.2020.1717832 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94571
in International journal of cartography > Vol 6 n° 1 (March 2020) . - pp 121 - 151[article]
contenu dans HAL Hyper articles en ligne / Centre pour la Communication Scientifique Directe CCSD (2000)
Titre : Rendu et représentation graphiques d’informations spatio-temporelles Type de document : Article/Communication Auteurs : Sidonie Christophe , Auteur ; Mathieu Brédif
, Auteur
Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN Année de publication : 2019 Conférence : JFIGRV 2019, Journées Françaises d’Informatique Graphique et de Réalité Virtuelle 12/11/2019 15/11/2019 Marseille France programme Importance : 6 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Termes descripteurs IGN] analyse visuelle
[Termes descripteurs IGN] cognition
[Termes descripteurs IGN] données hétérogènes
[Termes descripteurs IGN] données multiéchelles
[Termes descripteurs IGN] données spatiotemporelles
[Termes descripteurs IGN] niveau d'abstraction
[Termes descripteurs IGN] réalité augmentée
[Termes descripteurs IGN] rendu (géovisualisation)
[Termes descripteurs IGN] représentation cartographique
[Termes descripteurs IGN] représentation graphique
[Vedettes matières IGN] GéovisualisationRésumé : (auteur) Cet article de positionnement expose une partie des questions de recherche et travaux en cours de notre équipe en géovisualisation (équipe GEOVIS du laboratoire LaSTIG), concernant la visualisation et l’analyse visuelle d’informations spatio-temporelles sur le territoire, via l’interaction et l’immersion. Les questions classiques de la géovisualisation perdurent – quelles représentations graphiques, quelles interfaces, quelle qualité. Néanmoins, le contexte a évolué : la complexité des phénomènes et dynamiques physiques, historiques, sociologiques et leurs interactions avec l’espace géographique, ainsi que le volume de données spatiales hétérogènes, et les besoins d’utilisateurs très variés en capacités de vision, perception et cognition nécessitent de faire encore plus converger des domaines connexes sur la représentation graphique et l’exploration de données, pour améliorer les capacités d’analyse visuelle en géovisualisation. En particulier, nous présentons ici des questions et travaux de recherche spécifiques à l’exploration interactive des capacités de rendu et de représentation (carto)graphique de données spatio-temporelles dans le contexte de la géovisualisation. Ces travaux s’appliquent à des problématiques liées à la visualisation des espaces géographiques urbains et à des problématiques d’analyse de dynamiques urbaines (historique, planification) et de dynamiques géophysiques (inondations, météorologie). Ces travaux sont implémentés sur une plateforme open source de visualisation 3D. Numéro de notice : C2019-023 Affiliation des auteurs : LaSTIG (2020- ) Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComSansActesPubliés-Unpublished DOI : sans date de publication en ligne : 07/11/2019 En ligne : https://hal.archives-ouvertes.fr/hal-02354598 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94168 Documents numériques
en open access
Rendu et représentation graphiques... pdf auteurAdobe Acrobat PDF PermalinkProgressive visualization of complex 3D models over the internet / Jing Chen in Transactions in GIS, vol 20 n° 6 (December 2016)
PermalinkThe impact of land use/land cover scale on modelling urban ecosystem services / Darren R. Grafius in Landscape ecology, vol 31 n° 7 (September 2016)
PermalinkAdding intermediate representations in a multi-scale map to enable a smooth zooming / Marion Dumont (2015)
PermalinkManaging Germany's big imagery data / Mladen Stojic in GEO: Geoconnexion international, vol 13 n° 2 (february 2014)
PermalinkFully automated generalization of a 1:50k map from 1:10k data / Jantien E. Stoter in Cartography and Geographic Information Science, vol 41 n° 1 (January 2014)
PermalinkLe ScaleMaster 2.0 : Une extension du modèle ScaleMaster pour gérer des généralisations multi-échelles automatiques / Guillaume Touya in Cartes & Géomatique, n° 217 (septembre 2013)
![]()
PermalinkBoundary-constrained multi-scale segmentation method for remote sensing images / Xueliang Zhang in ISPRS Journal of photogrammetry and remote sensing, vol 78 (April 2013)
PermalinkFast construction of global pyramids for very large satellite images / Longgang Xiang in Transactions in GIS, vol 17 n° 2 (April 2013)
PermalinkPermalink