Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond > réseau neuronal artificiel > réseau neuronal convolutif
réseau neuronal convolutif |
Documents disponibles dans cette catégorie (90)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
A deep learning approach to DTM extraction from imagery using rule-based training labels / Caroline M. Gevaert in ISPRS Journal of photogrammetry and remote sensing, vol 142 (August 2018)
[article]
Titre : A deep learning approach to DTM extraction from imagery using rule-based training labels Type de document : Article/Communication Auteurs : Caroline M. Gevaert, Auteur ; Claudio Persello, Auteur ; M. George Vosselman, Auteur Année de publication : 2018 Article en page(s) : pp 106 - 123 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] base de règles
[Termes IGN] benchmark spatial
[Termes IGN] Dar-es-Salam (Tanzanie)
[Termes IGN] drone
[Termes IGN] échantillonnage d'image
[Termes IGN] extraction automatique
[Termes IGN] Kigali (Rwanda)
[Termes IGN] Lombardie
[Termes IGN] modèle numérique de terrain
[Termes IGN] photogrammétrie aérienne
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Existing algorithms for Digital Terrain Model (DTM) extraction still face difficulties due to data outliers and geometric ambiguities in the scene such as contiguous off-ground areas or sloped environments. We postulate that in such challenging cases, the radiometric information contained in aerial imagery may be leveraged to distinguish between ground and off-ground objects. We propose a method for DTM extraction from imagery which first applies morphological filters to the Digital Surface Model to obtain candidate ground and off-ground training samples. These samples are used to train a Fully Convolutional Network (FCN) in the second step, which can then be used to identify ground samples for the entire dataset. The proposed method harnesses the power of state-of-the-art deep learning methods, while showing how they can be adapted to the application of DTM extraction by (i) automatically selecting and labelling dataset-specific samples which can be used to train the network, and (ii) adapting the network architecture to consider a larger surface area without unnecessarily increasing the computational burden. The method is successfully tested on four datasets, indicating that the automatic labelling strategy can achieve an accuracy which is comparable to the use of manually labelled training samples. Furthermore, we demonstrate that the proposed method outperforms two reference DTM extraction algorithms in challenging areas. Numéro de notice : A2018-298 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.06.001 Date de publication en ligne : 15/06/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.06.001 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90410
in ISPRS Journal of photogrammetry and remote sensing > vol 142 (August 2018) . - pp 106 - 123[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018081 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018083 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018082 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Exploring geo-tagged photos for land cover validation with deep learning / Hanfa Xing in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : Exploring geo-tagged photos for land cover validation with deep learning Type de document : Article/Communication Auteurs : Hanfa Xing, Auteur ; Yuan Meng, Auteur ; Zixuan Wang, Auteur ; Kaixuan Fan, Auteur ; Dongyang Hou, Auteur Année de publication : 2018 Article en page(s) : pp 237 - 251 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] apprentissage profond
[Termes IGN] base de données d'occupation du sol
[Termes IGN] Californie (Etats-Unis)
[Termes IGN] échantillon
[Termes IGN] estimation de précision
[Termes IGN] géobalise
[Termes IGN] image numérique
[Termes IGN] occupation du sol
[Termes IGN] production participative
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Land cover validation plays an important role in the process of generating and distributing land cover thematic maps, which is usually implemented by high cost of sample interpretation with remotely sensed images or field survey. With an increasing availability of geo-tagged landscape photos, the automatic photo recognition methodologies, e.g., deep learning, can be effectively utilised for land cover applications. However, they have hardly been utilised in validation processes, as challenges remain in sample selection and classification for highly heterogeneous photos. This study proposed an approach to employ geo-tagged photos for land cover validation by using the deep learning technology. The approach first identified photos automatically based on the VGG-16 network. Then, samples for validation were selected and further classified by considering photos distribution and classification probabilities. The implementations were conducted for the validation of the GlobeLand30 land cover product in a heterogeneous area, western California. Experimental results represented promises in land cover validation, given that GlobeLand30 showed an overall accuracy of 83.80% with classified samples, which was close to the validation result of 80.45% based on visual interpretation. Additionally, the performances of deep learning based on ResNet-50 and AlexNet were also quantified, revealing no substantial differences in final validation results. The proposed approach ensures geo-tagged photo quality, and supports the sample classification strategy by considering photo distribution, with accuracy improvement from 72.07% to 79.33% compared with solely considering the single nearest photo. Consequently, the presented approach proves the feasibility of deep learning technology on land cover information identification of geo-tagged photos, and has a great potential to support and improve the efficiency of land cover validation. Numéro de notice : A2018-289 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.04.025 Date de publication en ligne : 16/05/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.04.025 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90404
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 237 - 251[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt A light and faster regional convolutional neural network for object detection in optical remote sensing images / Peng Ding in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : A light and faster regional convolutional neural network for object detection in optical remote sensing images Type de document : Article/Communication Auteurs : Peng Ding, Auteur ; Ye Zhang, Auteur ; Wei-Jian Deng, Auteur ; Ping Jia, Auteur ; Arjan Kuijper, Auteur Année de publication : 2018 Article en page(s) : pp 208 - 218 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification orientée objet
[Termes IGN] détection d'objet
[Termes IGN] image aérienne
[Termes IGN] image terrestre
[Termes IGN] représentation multiple
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Detection of objects from satellite optical remote sensing images is very important for many commercial and governmental applications. With the development of deep convolutional neural networks (deep CNNs), the field of object detection has seen tremendous advances. Currently, objects in satellite remote sensing images can be detected using deep CNNs. In general, optical remote sensing images contain many dense and small objects, and the use of the original Faster Regional CNN framework does not yield a suitably high precision. Therefore, after careful analysis we adopt dense convoluted networks, a multi-scale representation and various combinations of improvement schemes to enhance the structure of the base VGG16-Net for improving the precision. We propose an approach to reduce the test-time (detection time) and memory requirements. To validate the effectiveness of our approach, we perform experiments using satellite remote sensing image datasets of aircraft and automobiles. The results show that the improved network structure can detect objects in satellite optical remote sensing images more accurately and efficiently. Numéro de notice : A2018-288 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.05.005 Date de publication en ligne : 14/05/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.05.005 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90403
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 208 - 218[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Application of deep learning for object detection / Ajeet Ram Pathak in Procedia Computer Science, vol 132 (2018)
[article]
Titre : Application of deep learning for object detection Type de document : Article/Communication Auteurs : Ajeet Ram Pathak, Auteur ; Manjusha Pandey, Auteur ; Siddharth Rautaray, Auteur Année de publication : 2018 Article en page(s) : pp 1706 - 1717 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] état de l'art
[Termes IGN] réseau neuronal convolutif
[Termes IGN] vision par ordinateurRésumé : (auteur) The ubiquitous and wide applications like scene understanding, video surveillance, robotics, and self-driving systems triggered vast research in the domain of computer vision in the most recent decade. Being the core of all these applications, visual recognition systems which encompasses image classification, localization and detection have achieved great research momentum. Due to significant development in neural networks especially deep learning, these visual recognition systems have attained remarkable performance. Object detection is one of these domains witnessing great success in computer vision. This paper demystifies the role of deep learning techniques based on convolutional neural network for object detection. Deep learning frameworks and services available for object detection are also enunciated. Deep learning techniques for state-of-the-art object detection systems are assessed in this paper. Numéro de notice : A2018-585 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.procs.2018.05.144 Date de publication en ligne : 08/06/2018 En ligne : https://www.sciencedirect.com/science/article/pii/S1877050918308767 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92435
in Procedia Computer Science > vol 132 (2018) . - pp 1706 - 1717[article]Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
[article]
Titre : Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs Type de document : Article/Communication Auteurs : Tristan Postadjian , Auteur ; Arnaud Le Bris , Auteur ; Hichem Sahbi, Auteur ; Clément Mallet , Auteur Année de publication : 2018 Projets : 1-Pas de projet / Article en page(s) : pp 73 - 86 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] base de données localisées
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal
[Termes IGN] image à très haute résolution
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Les algorithmes de classification supervisée d'images satellites constituent un outil fondamental pour le calcul de cartes d'occupation des sols, à toutes les résolutions spatiales existantes. Ils ont permis d'établir la télédétection comme moyen le plus fiable pour la génération de ces cartes. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris l'interprétation d'images aériennes et satellites. Le travail présenté dans cet article établit une stratégie quant à l'utilisation d'un réseau de neurone convolutifs pour la classification d'images satellites à très haute résolution spatiale (à savoir SPOT 6/7), couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays. Numéro de notice : A2018-514 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2018.418 Date de publication en ligne : 21/09/2018 En ligne : https://doi.org/10.52638/rfpt.2018.418 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91268
in Revue Française de Photogrammétrie et de Télédétection > n° 217-218 (juin - septembre 2018) . - pp 73 - 86[article]Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)PermalinkClassifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network / Ruibin Zhao in International journal of geographical information science IJGIS, vol 32 n° 5-6 (May - June 2018)PermalinkDeep convolutional neural network training enrichment using multi-view object-based analysis of Unmanned Aerial systems imagery for wetlands classification / Tao Liu in ISPRS Journal of photogrammetry and remote sensing, vol 139 (May 2018)PermalinkDo semantic parts emerge in convolutional neural networks? / Abel Gonzalez-Garcia in International journal of computer vision, vol 126 n° 5 (May 2018)PermalinkLarge-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)PermalinkBinary patterns encoded convolutional neural networks for texture recognition and remote sensing scene classification / Rama Rao Nidamanuri in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)PermalinkCrowdsourcing the character of a place : Character‐level convolutional networks for multilingual geographic text classification / Benjamin Adams in Transactions in GIS, vol 22 n° 2 (April 2018)PermalinkFine-grained object recognition and zero-shot learning in remote sensing imagery / Gencer Sumbul in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkMultisource remote sensing data classification based on convolutional neural network / Xiaodong Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkPermalink