Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond
apprentissage profond |
Documents disponibles dans cette catégorie (647)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Exploring semantic elements for urban scene recognition: Deep integration of high-resolution imagery and OpenStreetMap (OSM) / Wenzhi Zhao in ISPRS Journal of photogrammetry and remote sensing, vol 151 (May 2019)
[article]
Titre : Exploring semantic elements for urban scene recognition: Deep integration of high-resolution imagery and OpenStreetMap (OSM) Type de document : Article/Communication Auteurs : Wenzhi Zhao, Auteur ; Yanchen Bo, Auteur ; Jiage Chen, Auteur ; et al., Auteur Année de publication : 2019 Article en page(s) : pp 237 - 250 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classe sémantique
[Termes IGN] compréhension de l'image
[Termes IGN] fusion de données
[Termes IGN] image à haute résolution
[Termes IGN] reconnaissance d'objets
[Termes IGN] scène urbaineRésumé : (Auteur) Urban scenes refer to city blocks which are basic units of megacities, they play an important role in citizens’ welfare and city management. Remote sensing imagery with largescale coverage and accurate target descriptions, has been regarded as an ideal solution for monitoring the urban environment. However, due to the heterogeneity of remote sensing images, it is difficult to access their geographical content at the object level, let alone understanding urban scenes at the block level. Recently, deep learning-based strategies have been applied to interpret urban scenes with remarkable accuracies. However, the deep neural networks require a substantial number of training samples which are hard to satisfy, especially for high-resolution images. Meanwhile, the crowed-sourced Open Street Map (OSM) data provides rich annotation information about the urban targets but may encounter the problem of insufficient sampling (limited by the places where people can go). As a result, the combination of OSM and remote sensing images for efficient urban scene recognition is urgently needed. In this paper, we present a novel strategy to transfer existing OSM data to high-resolution images for semantic element determination and urban scene understanding. To be specific, the object-based convolutional neural network (OCNN) can be utilized for geographical object detection by feeding it rich semantic elements derived from OSM data. Then, geographical objects are further delineated into their functional labels by integrating points of interest (POIs), which contain rich semantic terms, such as commercial or educational labels. Lastly, the categories of urban scenes are easily acquired from the semantic objects inside. Experimental results indicate that the proposed method has an ability to classify complex urban scenes. The classification accuracies of the Beijing dataset are as high as 91% at the object-level and 88% at the scene level. Additionally, we are probably the first to investigate the object level semantic mapping by incorporating high-resolution images and OSM data of urban areas. Consequently, the method presented is effective in delineating urban scenes that could further boost urban environment monitoring and planning with high-resolution images. Numéro de notice : A2019-209 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2019.03.019 Date de publication en ligne : 29/03/2019 En ligne : https://doi.org/10.1016/j.isprsjprs.2019.03.019 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92675
in ISPRS Journal of photogrammetry and remote sensing > vol 151 (May 2019) . - pp 237 - 250[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2019051 RAB Revue Centre de documentation En réserve L003 Disponible 081-2019053 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2019052 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt BIM-PoseNet: Indoor camera localisation using a 3D indoor model and deep learning from synthetic images / Debaditya Acharya in ISPRS Journal of photogrammetry and remote sensing, vol 150 (April 2019)
[article]
Titre : BIM-PoseNet: Indoor camera localisation using a 3D indoor model and deep learning from synthetic images Type de document : Article/Communication Auteurs : Debaditya Acharya, Auteur ; Kourosh Khoshelham, Auteur ; Stephan Winter, Auteur Année de publication : 2019 Article en page(s) : pp 245 - 258 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] compréhension de l'image
[Termes IGN] estimation de pose
[Termes IGN] image de synthèse
[Termes IGN] modélisation 3D du bâti BIM
[Termes IGN] positionnement en intérieur
[Termes IGN] réseau neuronal convolutif
[Termes IGN] structure-from-motionRésumé : (Auteur) The ubiquity of cameras built in mobile devices has resulted in a renewed interest in image-based localisation in indoor environments where the global navigation satellite system (GNSS) signals are not available. Existing approaches for indoor localisation using images either require an initial location or need first to perform a 3D reconstruction of the whole environment using structure-from-motion (SfM) methods, which is challenging and time-consuming for large indoor spaces. In this paper, a visual localisation approach is proposed to eliminate the requirement of image-based reconstruction of the indoor environment by using a 3D indoor model. A deep convolutional neural network (DCNN) is fine-tuned using synthetic images obtained from the 3D indoor model to regress the camera pose. Results of the experiments indicate that the proposed approach can be used for indoor localisation in real-time with an accuracy of approximately 2 m. Numéro de notice : A2019-142 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2019.02.020 Date de publication en ligne : 05/03/2019 En ligne : https://doi.org/10.1016/j.isprsjprs.2019.02.020 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92480
in ISPRS Journal of photogrammetry and remote sensing > vol 150 (April 2019) . - pp 245 - 258[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2019041 RAB Revue Centre de documentation En réserve L003 Disponible 081-2019043 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2019042 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt BIM, SIG et recherche dans le secteur privé / Anonyme in Géomatique expert, n° 127 (avril - mai 2019)
[article]
Titre : BIM, SIG et recherche dans le secteur privé Type de document : Article/Communication Auteurs : Anonyme, Auteur Année de publication : 2019 Article en page(s) : pp 37 - 41 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Géomatique
[Termes IGN] format Industry foudation classes IFC
[Termes IGN] format LandXML
[Termes IGN] modèle 3D de l'espace urbain
[Termes IGN] modélisation 3D du bâti BIM
[Termes IGN] réseau neuronal artificiel
[Termes IGN] système d'information géographiqueRésumé : (Auteur) Si l’IGN et les universités pilotent la recherche en géomatique dans le secteur public, la recherche dans le secteur privé avance également, mais avec des objectifs sensiblement différents. Regards croisés de deux sociétés, l’une orientée SIG (Business Geografic) et l’autre plutôt infrastructure (GéoMensura). Numéro de notice : A2019-309 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Article DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93286
in Géomatique expert > n° 127 (avril - mai 2019) . - pp 37 - 41[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité IFN-001-P002141 PER Revue Nogent-sur-Vernisson Salle périodiques Exclu du prêt Journées de la recherche 2019 / Anonyme in Géomatique expert, n° 127 (avril - mai 2019)
[article]
Titre : Journées de la recherche 2019 Type de document : Article/Communication Auteurs : Anonyme, Auteur Année de publication : 2019 Article en page(s) : pp 23 - 34 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Information géographique
[Termes IGN] apprentissage profond
[Termes IGN] base de connaissances
[Termes IGN] carte de Cassini
[Termes IGN] données localisées
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] géoréférencement
[Termes IGN] parcelle agricole
[Termes IGN] paroisse
[Termes IGN] photographie argentique
[Termes IGN] qualité des données
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation
[Termes IGN] segmentation d'image
[Termes IGN] semis de points
[Termes IGN] série temporelleRésumé : (Auteur) Cette année, les journées de la recherche de l’IGN ont fait la part belle aux réseaux de neurones – un sujet décidément très à la mode – ainsi qu’à différentes initiatives d’archivage et de consultation des données géographiques anciennes. Numéro de notice : A2019-308 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE/INFORMATIQUE/POSITIONNEMENT Nature : Article DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93284
in Géomatique expert > n° 127 (avril - mai 2019) . - pp 23 - 34[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité IFN-001-P002141 PER Revue Nogent-sur-Vernisson Salle périodiques Exclu du prêt Learning high-level features by fusing multi-view representation of MLS point clouds for 3D object recognition in road environments / Zhipeng Luo in ISPRS Journal of photogrammetry and remote sensing, vol 150 (April 2019)
[article]
Titre : Learning high-level features by fusing multi-view representation of MLS point clouds for 3D object recognition in road environments Type de document : Article/Communication Auteurs : Zhipeng Luo, Auteur ; Jonathan Li, Auteur ; Zhenlong Xiao, Auteur ; et al., Auteur Année de publication : 2019 Article en page(s) : pp 44 - 58 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] fusion de données
[Termes IGN] jointure spatiale
[Termes IGN] objet 3D
[Termes IGN] reconnaissance d'objets
[Termes IGN] représentation multiple
[Termes IGN] réseau neuronal convolutif
[Termes IGN] semis de pointsRésumé : (Auteur) Most existing 3D object recognition methods still suffer from low descriptiveness and weak robustness although remarkable progress has made in 3D computer vision. The major challenge lies in effectively mining high-level 3D shape features. This paper presents a high-level feature learning framework for 3D object recognition through fusing multiple 2D representations of point clouds. The framework has two key components: (1) three discriminative low-level 3D shape descriptors for obtaining multi-view 2D representation of 3D point clouds. These descriptors preserve both local and global spatial relationships of points from different perspectives and build a bridge between 3D point clouds and 2D Convolutional Neural Networks (CNN). (2) A two-stage fusion network, which consists of a deep feature learning module and two fusion modules, for extracting and fusing high-level features. The proposed method was tested on three datasets, one of which is Sydney Urban Objects dataset and the other two were acquired by a mobile laser scanning (MLS) system along urban roads. The results obtained from comprehensive experiments demonstrated that our method is superior to the state-of-the-art methods in descriptiveness, robustness and efficiency. Our method achieves high recognition rates of 94.6%, 93.1% and 74.9% on the above three datasets, respectively. Numéro de notice : A2019-137 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2019.01.024 Date de publication en ligne : 16/02/2019 En ligne : https://doi.org/10.1016/j.isprsjprs.2019.01.024 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92468
in ISPRS Journal of photogrammetry and remote sensing > vol 150 (April 2019) . - pp 44 - 58[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2019041 RAB Revue Centre de documentation En réserve L003 Disponible 081-2019043 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2019042 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Vehicle detection in aerial images / Michael Ying Yang in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 4 (avril 2019)PermalinkDeep mapping gentrification in a large Canadian city using deep learning and Google Street View / Lazar Ilic in Plos one, vol 14 n° 3 (March 2019)PermalinkDuPLO: A DUal view Point deep Learning architecture for time series classificatiOn / Roberto Interdonato in ISPRS Journal of photogrammetry and remote sensing, vol 149 (March 2019)PermalinkLearning to segment moving objects / Pavel Tokmakov in International journal of computer vision, vol 127 n° 3 (March 2019)PermalinkSemantic understanding of scenes through the ADE20K dataset / Bolei Zhou in International journal of computer vision, vol 127 n° 3 (March 2019)PermalinkLearning spectral-spatial-temporal features via a recurrent convolutional neural network for change detection in multispectral imagery / Lichao Mou in IEEE Transactions on geoscience and remote sensing, vol 57 n° 2 (February 2019)PermalinkAdvanced Remote Sensing Technology for Synthetic Aperture Radar Applications, Tsunami Disasters, and Infrastructure / Maged Marghany (2019)PermalinkAnalyse d’images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées / Khouloud Dahmane (2019)PermalinkPermalinkPermalink