Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond > réseau neuronal artificiel > réseau neuronal profond
réseau neuronal profond |
Documents disponibles dans cette catégorie (18)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Volcano-seismic transfer learning and uncertainty quantification with bayesian neural networks / Angel Bueno in IEEE Transactions on geoscience and remote sensing, vol 58 n° 2 (February 2020)
[article]
Titre : Volcano-seismic transfer learning and uncertainty quantification with bayesian neural networks Type de document : Article/Communication Auteurs : Angel Bueno, Auteur ; Carmen Benitez, Auteur ; Silvio De Angelis, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Statistiques
[Termes IGN] apprentissage profond
[Termes IGN] classification bayesienne
[Termes IGN] classification par réseau neuronal
[Termes IGN] forme d'onde
[Termes IGN] incertitude des données
[Termes IGN] réseau bayesien
[Termes IGN] réseau neuronal profond
[Termes IGN] Russie
[Termes IGN] séisme
[Termes IGN] sismologie
[Termes IGN] surveillance géologique
[Termes IGN] volcanologie
[Termes IGN] Washington (Etats-Unis ; état)Résumé : (auteur) Over the past few years, deep learning (DL) has emerged as an important tool in the fields of volcano and earthquake seismology. However, these methods have been applied without performing thorough analyses of the associated uncertainties. Here, we propose a solution to enhance volcano-seismic monitoring systems, through probabilistic Bayesian DL; we implement and demonstrate a workflow for waveform classification, rapid quantification of the associated uncertainty, and link these uncertainties to changes in volcanic unrest. Specifically, we introduce Bayesian neural networks (BNNs) to perform event identification, classification, and their estimated uncertainty on data gathered at two active volcanoes, Mount St. Helens, Washington, USA, and Bezymianny, Kamchatka, Russia. We demonstrate how BNNs achieve excellent performance (92.08%) in discriminating both the type of event and its origin when the two data sets are merged together, and no additional training information is provided. Finally, we demonstrate that the data representations learned by the BNNs are transferable across different eruptive periods. We also find that the estimated uncertainty is related to changes in the state of unrest at the volcanoes and propose that it could be used to gauge whether the learned models may be exported to other eruptive scenarios. Numéro de notice : A2020-094 Affiliation des auteurs : non IGN Thématique : MATHEMATIQUE/POSITIONNEMENT Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2019.2941494 Date de publication en ligne : 07/10/2019 En ligne : https://doi.org/10.1109/TGRS.2019.2941494 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94657
in IEEE Transactions on geoscience and remote sensing > vol 58 n° 2 (February 2020) . - pp[article]Superpixel-enhanced deep neural forest for remote sensing image semantic segmentation / Li Mi in ISPRS Journal of photogrammetry and remote sensing, vol 159 (January 2020)
[article]
Titre : Superpixel-enhanced deep neural forest for remote sensing image semantic segmentation Type de document : Article/Communication Auteurs : Li Mi, Auteur ; Zhenzhong Chen, Auteur Année de publication : 2020 Article en page(s) : pp 140 - 152 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] algorithme SLIC
[Termes IGN] apprentissage automatique
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] image à très haute résolution
[Termes IGN] processus stochastique
[Termes IGN] réseau neuronal profond
[Termes IGN] segmentation sémantique
[Termes IGN] superpixelRésumé : (Auteur) Semantic segmentation plays an important role in remote sensing image understanding. Great progress has been made in this area with the development of Deep Convolutional Neural Networks (DCNNs). However, due to the complexity of ground objects’ spectrum, DCNNs with simple classifier have difficulties in distinguishing ground object categories even though they can represent image features effectively. Additionally, DCNN-based semantic segmentation methods learn to accumulate contextual information over large receptive fields that causes blur on object boundaries. In this work, a novel approach named Superpixel-enhanced Deep Neural Forest (SDNF) is proposed to target the aforementioned problems. To improve the classification ability, we introduce Deep Neural Forest (DNF), where the representation learning of deep neural network is conducted by a completely differentiable decision forest. Therefore, better classification accuracy is achieved by combining DCNNs with decision forests in an end-to-end manner. In addition, considering the homogeneity within superpixels and heterogeneity between superpixels, a Superpixel-enhanced Region Module (SRM) is proposed to further alleviate the noises and strengthen edges of ground objects. Experimental results on the ISPRS 2D semantic labeling benchmark demonstrate that our model significantly outperforms state-of-the-art methods thus validate the efficiency of our proposed SDNF. Numéro de notice : A2020-014 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2019.11.006 Date de publication en ligne : 29/11/2019 En ligne : https://doi.org/10.1016/j.isprsjprs.2019.11.006 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94403
in ISPRS Journal of photogrammetry and remote sensing > vol 159 (January 2020) . - pp 140 - 152[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2020011 RAB Revue Centre de documentation En réserve L003 Disponible 081-2020013 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2020012 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Torch-Points3D: A modular multi-task framework for reproducible deep learning on 3D point clouds / Thomas Chaton (2020)
Titre : Torch-Points3D: A modular multi-task framework for reproducible deep learning on 3D point clouds Type de document : Article/Communication Auteurs : Thomas Chaton, Auteur ; Nicolas Chaulet, Auteur ; Sofiane Horache, Auteur ; Loïc Landrieu , Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2020 Projets : AI4GEO / Conférence : 3DV 2020, International Conference on 3D Vision 25/11/2020 27/11/2020 Fukuoka + en ligne Japon Proceedings IEEE Importance : 12 p. - n° 282 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Informatique
[Termes IGN] apprentissage profond
[Termes IGN] cadre conceptuel
[Termes IGN] code source libre
[Termes IGN] données localisées 3D
[Termes IGN] reproductibilité
[Termes IGN] réseau neuronal profond
[Termes IGN] semis de pointsRésumé : (auteur) We introduce Torch-Points3D, an open-source framework designed to facilitate the use of deep networks on 3D data. Its modular design, efficient implementation, and user-friendly interfaces make it a relevant tool for research and productization alike. Beyond multiple quality-of-life features, our goal is to standardize a higher level of transparency and reproducibility in 3D deep learning research, and to lower its barrier to entry. In this paper, we present the design principles of Torch-Points3D, as well as extensive benchmarks of multiple state-of-the-art algorithms and inference schemes across several datasets and tasks. The modularity of Torch-Points3D allows us to design fair and rigorous experimental protocols in which all methods are evaluated in the same conditions. The Torch-Points3D repository : https://github.com/nicolas-chaulet/torch-points3d. Numéro de notice : C2020-019 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers HAL Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/3DV50981.2020.00029 Date de publication en ligne : 19/01/2021 En ligne : https://doi.org/10.1109/3DV50981.2020.00029 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96456 Unsupervised satellite image time series analysis using deep learning techniques / Ekaterina Kalinicheva (2020)
Titre : Unsupervised satellite image time series analysis using deep learning techniques Type de document : Thèse/HDR Auteurs : Ekaterina Kalinicheva , Auteur ; Maria Trocan, Directeur de thèse Editeur : Paris : Sorbonne Université Année de publication : 2020 Importance : 182 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le doctorat de la Sorbonne Université, Spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage non-dirigé
[Termes IGN] détection de changement
[Termes IGN] données spatiotemporelles
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 5
[Termes IGN] réseau neuronal profond
[Termes IGN] réseau neuronal récurrent
[Termes IGN] série temporelle
[Termes IGN] variation saisonnièreIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Cette thèse présente un ensemble d'algorithmes non-supervisés pour l'analyse générique de séries temporelles d'images satellites (STIS). Nos algorithmes exploitent des méthodes de machine learning et, notamment, les réseaux de neurones afin de détecter les différentes entités spatio-temporelles et leurs changements éventuels dans le temps. Nous visons à identifier trois types de comportement temporel : les zones sans changements, les changements saisonniers, les changements non triviaux (changements permanents comme les constructions, la rotation des cultures agricoles, etc). Par conséquent, nous proposons deux frameworks : pour la détection et le clustering des changements non-triviaux et pour le clustering des changements saisonniers et des zones sans changements. Le premier framework est composé de deux étapes : la détection de changements bi-temporels et leur interprétation dans le contexte multi-temporel avec une approche basée graphes. La détection de changements bi-temporels est faite pour chaque couple d’images consécutives et basée sur la transformation des features avec les autoencodeurs (AEs). A l’étape suivante, les changements à différentes dates qui appartiennent à la même zone géographique forment les graphes d’évolution qui sont par la suite clusterisés avec un modèle AE de réseaux de neurones récurrents. Le deuxième framework présente le clustering basé objets de STIS. Premièrement, la STIS est encodée en image unique avec un AE convolutif 3D multi-vue. Dans un deuxième temps, nous faisons la segmentation en deux étapes en utilisant à la fois l’image encodée et la STIS. Finalement, les segments obtenus sont clusterisés avec leurs descripteurs encodés. Note de contenu : 1. Introduction to Remote Sensing and Satellite Image Analysis
1.1 Introduction
1.2 Remote Sensing Images
1.3 Satellite Missions
1.4 Introduction to Data Mining Applied to Images
2. Machine Learning. Clustering and Anomaly Detection
2.1 Introduction
2.2 Unsupervised Learning
2.3 Clustering
2.4 Anomaly Detection
2.5 Quality Indices
2.6 Discussion
3. Feature Extraction using Deep Learning Techniques
3.1 Introduction
3.2 Deep Learning
3.3 AutoEncoders in Image Processing
3.4 Neural Networks Structure
3.5 Discussion
4. Bi-temporal Change Detection
4.1 Introduction
4.2 Related Works
4.3 Methodology
4.4 Data
4.5 Experiments
4.6 Discussion
5. Multi-temporal Change Detection
5.1 Introduction
5.2 Related Works
5.3 Methodology
5.4 Data
5.5 Experiments
5.6 Conclusion
6. Satellite Image Time Series Clustering
6.1 Introduction
6.2 Related Works
6.3 Methodology
6.4 Data
6.5 Experiments
6.6 Discussion
7. Conclusion
7.1 Thesis Contributions
7.2 Short Term Perspectives
7.3 Long Term Perspectives and LimitationsNuméro de notice : 26536 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Sorbonne université : 2020 Organisme de stage : ISEP Institut Supérieur d'Electronique de Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 01/03/2021 En ligne : https://tel.archives-ouvertes.fr/tel-03032071/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97681 Addressing overfitting on point cloud classification using Atrous XCRF / Hasan Asy’ari Arief in ISPRS Journal of photogrammetry and remote sensing, vol 155 (September 2019)
[article]
Titre : Addressing overfitting on point cloud classification using Atrous XCRF Type de document : Article/Communication Auteurs : Hasan Asy’ari Arief, Auteur ; Ulf Geir Indahl, Auteur ; Geir-Harald Strand, Auteur ; Håvard Tveite, Auteur Année de publication : 2019 Article en page(s) : pp 90 - 101 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] champ aléatoire conditionnel
[Termes IGN] classification automatique
[Termes IGN] réseau neuronal convolutif
[Termes IGN] réseau neuronal profond
[Termes IGN] semis de pointsRésumé : (Auteur) Advances in techniques for automated classification of point cloud data introduce great opportunities for many new and existing applications. However, with a limited number of labelled points, automated classification by a machine learning model is prone to overfitting and poor generalization. The present paper addresses this problem by inducing controlled noise (on a trained model) generated by invoking conditional random field similarity penalties using nearby features. The method is called Atrous XCRF and works by forcing a trained model to respect the similarity penalties provided by unlabeled data. In a benchmark study carried out using the ISPRS 3D labeling dataset, our technique achieves 85.0% in term of overall accuracy, and 71.1% in term of F1 score. The result is on par with the current best model for the benchmark dataset and has the highest value in term of F1 score. Additionally, transfer learning using the Bergen 2018 dataset, without model retraining, was also performed. Even though our proposal provides a consistent 3% improvement in term of accuracy, more work still needs to be done to alleviate the generalization problem on the domain adaptation and the transfer learning field. Numéro de notice : A2019-312 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1016/j.isprsjprs.2019.07.002 Date de publication en ligne : 11/07/2019 En ligne : https://doi.org/10.1016/j.isprsjprs.2019.07.002 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93337
in ISPRS Journal of photogrammetry and remote sensing > vol 155 (September 2019) . - pp 90 - 101[article]Réservation
Réserver ce documentExemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité 081-2019091 RAB Revue Centre de documentation En réserve L003 Disponible 081-2019093 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2019092 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Permalink