Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond
apprentissage profond |
Documents disponibles dans cette catégorie (647)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Exploring geo-tagged photos for land cover validation with deep learning / Hanfa Xing in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : Exploring geo-tagged photos for land cover validation with deep learning Type de document : Article/Communication Auteurs : Hanfa Xing, Auteur ; Yuan Meng, Auteur ; Zixuan Wang, Auteur ; Kaixuan Fan, Auteur ; Dongyang Hou, Auteur Année de publication : 2018 Article en page(s) : pp 237 - 251 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] apprentissage profond
[Termes IGN] base de données d'occupation du sol
[Termes IGN] Californie (Etats-Unis)
[Termes IGN] échantillon
[Termes IGN] estimation de précision
[Termes IGN] géobalise
[Termes IGN] image numérique
[Termes IGN] occupation du sol
[Termes IGN] production participative
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Land cover validation plays an important role in the process of generating and distributing land cover thematic maps, which is usually implemented by high cost of sample interpretation with remotely sensed images or field survey. With an increasing availability of geo-tagged landscape photos, the automatic photo recognition methodologies, e.g., deep learning, can be effectively utilised for land cover applications. However, they have hardly been utilised in validation processes, as challenges remain in sample selection and classification for highly heterogeneous photos. This study proposed an approach to employ geo-tagged photos for land cover validation by using the deep learning technology. The approach first identified photos automatically based on the VGG-16 network. Then, samples for validation were selected and further classified by considering photos distribution and classification probabilities. The implementations were conducted for the validation of the GlobeLand30 land cover product in a heterogeneous area, western California. Experimental results represented promises in land cover validation, given that GlobeLand30 showed an overall accuracy of 83.80% with classified samples, which was close to the validation result of 80.45% based on visual interpretation. Additionally, the performances of deep learning based on ResNet-50 and AlexNet were also quantified, revealing no substantial differences in final validation results. The proposed approach ensures geo-tagged photo quality, and supports the sample classification strategy by considering photo distribution, with accuracy improvement from 72.07% to 79.33% compared with solely considering the single nearest photo. Consequently, the presented approach proves the feasibility of deep learning technology on land cover information identification of geo-tagged photos, and has a great potential to support and improve the efficiency of land cover validation. Numéro de notice : A2018-289 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.04.025 Date de publication en ligne : 16/05/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.04.025 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90404
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 237 - 251[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Hierarchical cellular automata for visual saliency / Yao Qin in International journal of computer vision, vol 126 n° 7 (July 2018)
[article]
Titre : Hierarchical cellular automata for visual saliency Type de document : Article/Communication Auteurs : Yao Qin, Auteur ; Mengyang Feng, Auteur ; Huchuan Lu, Auteur ; Garrison W. Cottrell, Auteur Année de publication : 2018 Article en page(s) : pp 751 - 770 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] automate cellulaire
[Termes IGN] classification bayesienne
[Termes IGN] réseau neuronal artificiel
[Termes IGN] zone saillante 3DRésumé : (Auteur) Saliency detection, finding the most important parts of an image, has become increasingly popular in computer vision. In this paper, we introduce Hierarchical Cellular Automata (HCA)—a temporally evolving model to intelligently detect salient objects. HCA consists of two main components: Single-layer Cellular Automata (SCA) and Cuboid Cellular Automata (CCA). As an unsupervised propagation mechanism, Single-layer Cellular Automata can exploit the intrinsic relevance of similar regions through interactions with neighbors. Low-level image features as well as high-level semantic information extracted from deep neural networks are incorporated into the SCA to measure the correlation between different image patches. With these hierarchical deep features, an impact factor matrix and a coherence matrix are constructed to balance the influences on each cell’s next state. The saliency values of all cells are iteratively updated according to a well-defined update rule. Furthermore, we propose CCA to integrate multiple saliency maps generated by SCA at different scales in a Bayesian framework. Therefore, single-layer propagation and multi-scale integration are jointly modeled in our unified HCA. Surprisingly, we find that the SCA can improve all existing methods that we applied it to, resulting in a similar precision level regardless of the original results. The CCA can act as an efficient pixel-wise aggregation algorithm that can integrate state-of-the-art methods, resulting in even better results. Extensive experiments on four challenging datasets demonstrate that the proposed algorithm outperforms state-of-the-art conventional methods and is competitive with deep learning based approaches. Numéro de notice : A2018-413 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-017-1062-2 Date de publication en ligne : 23/02/2018 En ligne : https://doi.org/10.1007/s11263-017-1062-2 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90896
in International journal of computer vision > vol 126 n° 7 (July 2018) . - pp 751 - 770[article]A light and faster regional convolutional neural network for object detection in optical remote sensing images / Peng Ding in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : A light and faster regional convolutional neural network for object detection in optical remote sensing images Type de document : Article/Communication Auteurs : Peng Ding, Auteur ; Ye Zhang, Auteur ; Wei-Jian Deng, Auteur ; Ping Jia, Auteur ; Arjan Kuijper, Auteur Année de publication : 2018 Article en page(s) : pp 208 - 218 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification orientée objet
[Termes IGN] détection d'objet
[Termes IGN] image aérienne
[Termes IGN] image terrestre
[Termes IGN] représentation multiple
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Detection of objects from satellite optical remote sensing images is very important for many commercial and governmental applications. With the development of deep convolutional neural networks (deep CNNs), the field of object detection has seen tremendous advances. Currently, objects in satellite remote sensing images can be detected using deep CNNs. In general, optical remote sensing images contain many dense and small objects, and the use of the original Faster Regional CNN framework does not yield a suitably high precision. Therefore, after careful analysis we adopt dense convoluted networks, a multi-scale representation and various combinations of improvement schemes to enhance the structure of the base VGG16-Net for improving the precision. We propose an approach to reduce the test-time (detection time) and memory requirements. To validate the effectiveness of our approach, we perform experiments using satellite remote sensing image datasets of aircraft and automobiles. The results show that the improved network structure can detect objects in satellite optical remote sensing images more accurately and efficiently. Numéro de notice : A2018-288 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.05.005 Date de publication en ligne : 14/05/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.05.005 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90403
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 208 - 218[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Application of deep learning for object detection / Ajeet Ram Pathak in Procedia Computer Science, vol 132 (2018)
[article]
Titre : Application of deep learning for object detection Type de document : Article/Communication Auteurs : Ajeet Ram Pathak, Auteur ; Manjusha Pandey, Auteur ; Siddharth Rautaray, Auteur Année de publication : 2018 Article en page(s) : pp 1706 - 1717 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] état de l'art
[Termes IGN] réseau neuronal convolutif
[Termes IGN] vision par ordinateurRésumé : (auteur) The ubiquitous and wide applications like scene understanding, video surveillance, robotics, and self-driving systems triggered vast research in the domain of computer vision in the most recent decade. Being the core of all these applications, visual recognition systems which encompasses image classification, localization and detection have achieved great research momentum. Due to significant development in neural networks especially deep learning, these visual recognition systems have attained remarkable performance. Object detection is one of these domains witnessing great success in computer vision. This paper demystifies the role of deep learning techniques based on convolutional neural network for object detection. Deep learning frameworks and services available for object detection are also enunciated. Deep learning techniques for state-of-the-art object detection systems are assessed in this paper. Numéro de notice : A2018-585 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.procs.2018.05.144 Date de publication en ligne : 08/06/2018 En ligne : https://www.sciencedirect.com/science/article/pii/S1877050918308767 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92435
in Procedia Computer Science > vol 132 (2018) . - pp 1706 - 1717[article]Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
[article]
Titre : Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs Type de document : Article/Communication Auteurs : Tristan Postadjian , Auteur ; Arnaud Le Bris , Auteur ; Hichem Sahbi, Auteur ; Clément Mallet , Auteur Année de publication : 2018 Projets : 1-Pas de projet / Article en page(s) : pp 73 - 86 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] base de données localisées
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal
[Termes IGN] image à très haute résolution
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Les algorithmes de classification supervisée d'images satellites constituent un outil fondamental pour le calcul de cartes d'occupation des sols, à toutes les résolutions spatiales existantes. Ils ont permis d'établir la télédétection comme moyen le plus fiable pour la génération de ces cartes. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris l'interprétation d'images aériennes et satellites. Le travail présenté dans cet article établit une stratégie quant à l'utilisation d'un réseau de neurone convolutifs pour la classification d'images satellites à très haute résolution spatiale (à savoir SPOT 6/7), couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays. Numéro de notice : A2018-514 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2018.418 Date de publication en ligne : 21/09/2018 En ligne : https://doi.org/10.52638/rfpt.2018.418 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91268
in Revue Française de Photogrammétrie et de Télédétection > n° 217-218 (juin - septembre 2018) . - pp 73 - 86[article]Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)PermalinkClassifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network / Ruibin Zhao in International journal of geographical information science IJGIS, vol 32 n° 5-6 (May - June 2018)PermalinkDeep convolutional neural network training enrichment using multi-view object-based analysis of Unmanned Aerial systems imagery for wetlands classification / Tao Liu in ISPRS Journal of photogrammetry and remote sensing, vol 139 (May 2018)PermalinkDo semantic parts emerge in convolutional neural networks? / Abel Gonzalez-Garcia in International journal of computer vision, vol 126 n° 5 (May 2018)PermalinkLarge-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)PermalinkBinary patterns encoded convolutional neural networks for texture recognition and remote sensing scene classification / Rama Rao Nidamanuri in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)PermalinkCrowdsourcing the character of a place : Character‐level convolutional networks for multilingual geographic text classification / Benjamin Adams in Transactions in GIS, vol 22 n° 2 (April 2018)PermalinkGenerative street addresses from satellite imagery / İlke Demir in ISPRS International journal of geo-information, vol 7 n° 3 (March 2018)PermalinkSimilarity measurement of metadata of geospatial data : an artificial neural network approach / Zugang Chen in ISPRS International journal of geo-information, vol 7 n° 3 (March 2018)PermalinkExtraction of pluvial flood relevant volunteered geographic information (VGI) by deep learning from user generated texts and photos / Yu Feng in ISPRS International journal of geo-information, vol 7 n° 2 (February 2018)Permalink