Descripteur
Documents disponibles dans cette catégorie (285)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Similarity measurement of metadata of geospatial data : an artificial neural network approach / Zugang Chen in ISPRS International journal of geo-information, vol 7 n° 3 (March 2018)
[article]
Titre : Similarity measurement of metadata of geospatial data : an artificial neural network approach Type de document : Article/Communication Auteurs : Zugang Chen, Auteur ; Jia Song, Auteur ; Yaping Yang, Auteur Année de publication : 2018 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Infrastructure de données
[Termes IGN] données localisées
[Termes IGN] métadonnées
[Termes IGN] métadonnées géographiques
[Termes IGN] réseau neuronal artificiel
[Termes IGN] similitudeRésumé : (Auteur) To help users discover the most relevant spatial datasets in the ever-growing global spatial data infrastructures (SDIs), a number of similarity measures of geospatial data based on metadata have been proposed. Researchers have assessed the similarity of geospatial data according to one or more characteristics of the geospatial data. They created different similarity algorithms for each of the selected characteristics and then combined these elementary similarities to the overall similarity of the geospatial data. The existing combination methods are mainly linear and may not be the most accurate. This paper reports our experiences in attempting to learn the optimal non-linear similarity integration functions, from the knowledge of experts, using an artificial neural network. First, a multiple-layer feed forward neural network (MLFFN) was created. Then, the intrinsic characteristics were used to represent the metadata of geospatial data and the similarity algorithms for each of the intrinsic characteristics were built. The training and evaluation data of MLFFN were derived from the knowledge of domain experts. Finally, the MLFFN was trained, evaluated, and compared with traditional linear combination methods, which was mainly a weighted sum. The results show that our method outperformed the existing methods in terms of precision. Moreover, we found that the combination of elementary similarities of experts to the overall similarity of geospatial data was not linear. Numéro de notice : A2018-094 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/ijgi7030090 En ligne : https://doi.org/10.3390/ijgi7030090 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89506
in ISPRS International journal of geo-information > vol 7 n° 3 (March 2018)[article]Fine-grained object recognition and zero-shot learning in remote sensing imagery / Gencer Sumbul in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
[article]
Titre : Fine-grained object recognition and zero-shot learning in remote sensing imagery Type de document : Article/Communication Auteurs : Gencer Sumbul, Auteur ; Ramazan Gokberk Cinbis, Auteur ; Selim Aksoy, Auteur Année de publication : 2018 Article en page(s) : pp 770 - 779 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] arbre urbain
[Termes IGN] image numérique
[Termes IGN] inférence
[Termes IGN] reconnaissance de formes
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Fine-grained object recognition that aims to identify the type of an object among a large number of subcategories is an emerging application with the increasing resolution that exposes new details in image data. Traditional fully supervised algorithms fail to handle this problem where there is low between-class variance and high within-class variance for the classes of interest with small sample sizes. We study an even more extreme scenario named zero-shot learning (ZSL) in which no training example exists for some of the classes. ZSL aims to build a recognition model for new unseen categories by relating them to seen classes that were previously learned. We establish this relation by learning a compatibility function between image features extracted via a convolutional neural network and auxiliary information that describes the semantics of the classes of interest by using training samples from the seen classes. Then, we show how knowledge transfer can be performed for the unseen classes by maximizing this function during inference. We introduce a new data set that contains 40 different types of street trees in 1-ft spatial resolution aerial data, and evaluate the performance of this model with manually annotated attributes, a natural language model, and a scientific taxonomy as auxiliary information. The experiments show that the proposed model achieves 14.3% recognition accuracy for the classes with no training examples, which is significantly better than a random guess accuracy of 6.3% for 16 test classes, and three other ZSL algorithms. Numéro de notice : A2018-190 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2754648 Date de publication en ligne : 18/10/2017 En ligne : https://doi.org/10.1109/TGRS.2017.2754648 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89855
in IEEE Transactions on geoscience and remote sensing > vol 56 n° 2 (February 2018) . - pp 770 - 779[article]Multisource remote sensing data classification based on convolutional neural network / Xiaodong Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
[article]
Titre : Multisource remote sensing data classification based on convolutional neural network Type de document : Article/Communication Auteurs : Xiaodong Xu, Auteur ; Wei Li, Auteur ; Qiong Ran, Auteur ; Qian Du, Auteur ; Lianru Gao, Auteur ; Bing Zhang, Auteur Année de publication : 2018 Article en page(s) : pp 937 - 949 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] classification par réseau neuronal
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction automatique
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] image hyperspectrale
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) As a list of remotely sensed data sources is available, how to efficiently exploit useful information from multisource data for better Earth observation becomes an interesting but challenging problem. In this paper, the classification fusion of hyperspectral imagery (HSI) and data from other multiple sensors, such as light detection and ranging (LiDAR) data, is investigated with the state-of-the-art deep learning, named the two-branch convolution neural network (CNN). More specific, a two-tunnel CNN framework is first developed to extract spectral-spatial features from HSI; besides, the CNN with cascade block is designed for feature extraction from LiDAR or high-resolution visual image. In the feature fusion stage, the spatial and spectral features of HSI are first integrated in a dual-tunnel branch, and then combined with other data features extracted from a cascade network. Experimental results based on several multisource data demonstrate the proposed two-branch CNN that can achieve more excellent classification performance than some existing methods. Numéro de notice : A2018-191 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2756851 Date de publication en ligne : 16/10/2017 En ligne : https://doi.org/10.1109/TGRS.2017.2756851 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89856
in IEEE Transactions on geoscience and remote sensing > vol 56 n° 2 (February 2018) . - pp 937 - 949[article]
Titre : Apprentissage de modalités auxiliaires pour la localisation basée vision Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Valérie Gouet-Brunet , Auteur ; Cédric Demonceaux, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : RFIAP 2018, Reconnaissance des Formes, Image, Apprentissage et Perception 01/06/2018 01/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] localisation basée vision
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Dans cet article, nous présentons une nouvelle méthode d’apprentissage à partir de modalités auxiliaires pour améliorer un système de localisation basée vision. Afin de bénéficier des informations de modalités auxiliaires disponibles pendant l’apprentissage, nous entraînons un réseau convolutif à recréer l’apparence de ces modalités annexes. Nous validons notre approche en l’appliquant à un problème de description d’images pour la localisation. Les résultats obtenus montrent que notre système est capable d’améliorer un descripteur d’images en apprenant correctement l’apparence d’une modalité annexe. Comparé à l’état de l’art, le réseau présenté permet d’obtenir des résultats de localisation comparables, tout en étant plus compacte et plus simple à entraîner. Numéro de notice : C2018-006 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 28/06/2018 En ligne : https://rfiap2018.ign.fr/programmeCFPT Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90335 Documents numériques
en open access
Apprentissage de modalités auxiliaires ... - pdf éditeurAdobe Acrobat PDF Classification à très haute résolution (THR) spatiale et fusion d'occupation des sols (OCS) / Tristan Postadjian (2018)
contenu dans 27èmes Journées de la Recherche de l'IGN / Journées Recherche de l'IGN 2018, 27es Journées (22 - 23 mars 2018; Cité Descartes, Champs-sur-Marne, France) (2018)
Titre : Classification à très haute résolution (THR) spatiale et fusion d'occupation des sols (OCS) Type de document : Article/Communication Auteurs : Tristan Postadjian , Auteur ; Arnaud Le Bris , Auteur ; Clément Mallet , Auteur ; Hichem Sahbi, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : 1-Pas de projet / Gouet-Brunet, Valérie Conférence : Journées Recherche de l'IGN 2018, 27es Journées 22/03/2018 23/03/2018 Champs-sur-Marne France programme sans actes Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal
[Termes IGN] fusion d'images
[Termes IGN] image à très haute résolution
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] occupation du sol
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) La connaissance de la couverture du sol, bien qu'essentielle comme donnée support aux directives européennes et aux politiques publiques nationales, s'avère coûteuse dans des processus manuels. Des processus automatiques exploitant des données de télédétection s'avèrent donc nécessaires pour un suivi régulier. Ainsi, bénéficiant d'une donnée d'apprentissage massive avec les bases de données géographiques existantes, nous proposons l'utilisation de méthodes de classification automatique avancées de type réseaux de neurones convolutifs profonds (deep learning) pour produire une OCS à large échelle à partir d'images SPOT 6 et 7. Des couvertures annuelles du territoire français par ce capteur sont en effet mises à disposition par le pôle Théia. Un exemple d'utilisation des résultats obtenus pour la détection d'une tache artificialisée par fusion avec une classification de séries temporelles d'images optiques acquises par les satellites Sentinel-2 sera ensuite présenté. Numéro de notice : C2018-028 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComSansActesPubliés-Unpublished Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90569 Documents numériques
peut être téléchargé
Classification à très haute résolution (THR) spatiale et ... - diaporamaAdobe Acrobat PDF Classification à très large échelle d'images satellite à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian (2018)PermalinkPermalinkConvolutional neural network for traffic signal inference based on GPS traces / Yann Méneroux (2018)PermalinkDecision fusion of SPOT6 and multitemporal Sentinel2 images for urban area detection / Cyril Wendl (2018)PermalinkDomain adaptation for large scale classification of very high resolution satellite images with deep convolutional neural networks / Tristan Postadjian (2018)PermalinkFrom Google Maps to a fine-grained catalog of street trees / Steve Branson in ISPRS Journal of photogrammetry and remote sensing, vol 135 (January 2018)PermalinkFusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl (2018)PermalinkPermalinkLearning multiscale deep features for high-resolution satellite image scene classification / Qingshan Liu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 1 (January 2018)PermalinkLocalisation par l'image en milieu urbain : application à la réalité augmentée / Antoine Fond (2018)PermalinkPermalinkPermalinkSuperpixel partitioning of very high resolution satellite images for large-scale classification perspectives with deep convolutional neural networks / Tristan Postadjian (2018)PermalinkSuperPoint Graph : segmentation sémantique de nuages de points LiDAR à grande échelle / Loïc Landrieu (2018)PermalinkToponym matching through deep neural networks / Rui Santos in International journal of geographical information science IJGIS, vol 32 n° 1-2 (January - February 2018)PermalinkComplex-valued convolutional neural network and its application in polarimetric SAR image classification / Zhimian Zhang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkHigh-resolution aerial image labeling with convolutional neural networks / Emmanuel Maggiori in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkMultilayer projective dictionary pair learning and sparse autoencoder for PolSAR image classification / Yanqiao Chen in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkPermalinkUnsupervised-restricted deconvolutional neural network for very high resolution remote-sensing image classification / Yiting Tao in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkHybrid image noise reduction algorithm based on genetic ant colony and PCNN / Chong Shen in The Visual Computer, vol 33 n° 11 (November 2017)PermalinkAtmospheric correction over coastal waters using multilayer neural networks / Yongzhen Fan in Remote sensing of environment, vol 199 (15 September 2017)PermalinkForest change detection in incomplete satellite images with deep neural networks / Salman H. Khan in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkRecurrent neural networks to correct satellite image classification maps / Emmanuel Maggiori in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkRemote sensing scene classification by unsupervised representation learning / Xiaoqiang Lu in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkSDE: A novel selective, discriminative and equalizing feature representation for visual recognition / Guo-Sen Xie in International journal of computer vision, vol 124 n° 2 (1 September 2017)PermalinkSIG et intelligence artificielle : quels développements et quel futur ? / Christian Carolin in Géomatique expert, n° 118 (septembre - octobre 2017)PermalinkLearning and transferring deep joint spectral–spatial features for hyperspectral classification / Jingxiang Yang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)PermalinkLearning sensor-specific spatial-spectral features of hyperspectral images via convolutional neural networks / Shaohui Mei in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)PermalinkA relative evaluation of random forests for land cover mapping in an urban area / Di Shi in Photogrammetric Engineering & Remote Sensing, PERS, vol 83 n° 8 (August 2017)PermalinkSimultaneous extraction of roads and buildings in remote sensing imagery with convolutional neural networks / Rasha Alshehhi in ISPRS Journal of photogrammetry and remote sensing, vol 130 (August 2017)PermalinkLearning to diversify deep belief networks for hyperspectral image classification / Ping Zhong in IEEE Transactions on geoscience and remote sensing, vol 55 n° 6 (June 2017)PermalinkInvestigating the potential of deep neural networks for large-scale classification of very high resolution satellite images / Tristan Postadjian in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-1/W1 (May 2017)PermalinkPermalinkPermalinkFusion of multi-temporal Sentinel-2 image series and very-high spatial resolution images for detection of urban areas / Cyril Wendl (2017)PermalinkPermalinkRéseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Damien Fourure (2017)PermalinkSVM et réseaux neuronaux convolutifs pour la classification de scènes urbaines / Amaury Zarzelli (2017)PermalinkUltra short-term prediction of pole coordinates via combination of empirical mode decomposition and neural networks / Yu Lei in Artificial satellites, vol 51 n° 4 (December 2016)PermalinkDeep feature extraction and classification of hyperspectral images based on convolutional neural networks / Yushi Chen in IEEE Transactions on geoscience and remote sensing, vol 54 n° 10 (October 2016)PermalinkA new ZTD model based on permanent ground-based GNSS-ZTD data / M. Ding in Survey review, vol 48 n° 351 (October 2016)PermalinkSea ice concentration estimation during melt from dual-pol SAR scenes using deep convolutional neural networks: a case study / Lei Wang in IEEE Transactions on geoscience and remote sensing, vol 54 n° 8 (August 2016)PermalinkModeling of ionosphere time series using wavelet neural networks (case study: N-W of Iran) / Mir Reza Ghaffari Razin in Advances in space research, vol 58 n° 1 (July 2016)PermalinkPermalink