Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond > réseau neuronal artificiel > réseau neuronal convolutif
réseau neuronal convolutif |
Documents disponibles dans cette catégorie (86)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Stochastic super-resolution for downscaling time-evolving atmospheric fields with a generative adversarial network / Jussi Leinonen in IEEE Transactions on geoscience and remote sensing, Vol 59 n° 9 (September 2021)
[article]
Titre : Stochastic super-resolution for downscaling time-evolving atmospheric fields with a generative adversarial network Type de document : Article/Communication Auteurs : Jussi Leinonen, Auteur ; Daniele Nerini, Auteur ; Alexis Berne, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 7211 - 7223 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] données météorologiques
[Termes IGN] épaisseur de nuage
[Termes IGN] image à basse résolution
[Termes IGN] image GOES
[Termes IGN] modèle atmosphérique
[Termes IGN] précipitation
[Termes IGN] processus stochastique
[Termes IGN] réduction d'échelle
[Termes IGN] réseau antagoniste génératif
[Termes IGN] réseau neuronal convolutif
[Termes IGN] SuisseRésumé : (auteur) Generative adversarial networks (GANs) have been recently adopted for super-resolution, an application closely related to what is referred to as “downscaling” in the atmospheric sciences: improving the spatial resolution of low-resolution images. The ability of conditional GANs to generate an ensemble of solutions for a given input lends itself naturally to stochastic downscaling, but the stochastic nature of GANs is not usually considered in super-resolution applications. Here, we introduce a recurrent, stochastic super-resolution GAN that can generate ensembles of time-evolving high-resolution atmospheric fields for an input consisting of a low-resolution sequence of images of the same field. We test the GAN using two data sets: one consisting of radar-measured precipitation from Switzerland; the other of cloud optical thickness derived from the Geostationary Earth Observing Satellite 16 (GOES-16). We find that the GAN can generate realistic, temporally consistent super-resolution sequences for both data sets. The statistical properties of the generated ensemble are analyzed using rank statistics, a method adapted from ensemble weather forecasting; these analyses indicate that the GAN produces close to the correct amount of variability in its outputs. As the GAN generator is fully convolutional, it can be applied after training to input images larger than the images used to train it. It is also able to generate time series much longer than the training sequences, as demonstrated by applying the generator to a three-month data set of the precipitation radar data. The source code to our GAN is available at https://github.com/jleinonen/downscaling-rnn-gan. Numéro de notice : A2021-645 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2020.3032790 Date de publication en ligne : 02/11/2020 En ligne : https://doi.org/10.1109/TGRS.2020.3032790 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98349
in IEEE Transactions on geoscience and remote sensing > Vol 59 n° 9 (September 2021) . - pp 7211 - 7223[article]Unsupervised representation high-resolution remote sensing image scene classification via contrastive learning convolutional neural network / Fengpeng Li in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 8 (August 2021)
[article]
Titre : Unsupervised representation high-resolution remote sensing image scene classification via contrastive learning convolutional neural network Type de document : Article/Communication Auteurs : Fengpeng Li, Auteur ; Jiabao Li, Auteur ; Wei Han, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 577 - 591 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification non dirigée
[Termes IGN] classification par réseau neuronal
[Termes IGN] grande échelle
[Termes IGN] image à haute résolution
[Termes IGN] image aérienne
[Termes IGN] moyenne échelle
[Termes IGN] petite échelle
[Termes IGN] régression linéaire
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Inspired by the outstanding achievement of deep learning, supervised deep learning representation methods for high-spatial-resolution remote sensing image scene classification obtained state-of-the-art performance. However, supervised deep learning representation methods need a considerable amount of labeled data to capture class-specific features, limiting the application of deep learning-based methods while there are a few labeled training samples. An unsupervised deep learning representation, high-resolution remote sensing image scene classification method is proposed in this work to address this issue. The proposed method, called contrastive learning, narrows the distance between positive views: color channels belonging to the same images widens the gaps between negative view pairs consisting of color channels from different images to obtain class-specific data representations of the input data without any supervised information. The classifier uses extracted features by the convolutional neural network (CNN)-based feature extractor with labeled information of training data to set space of each category and then, using linear regression, makes predictions in the testing procedure. Comparing with existing unsupervised deep learning representation high-resolution remote sensing image scene classification methods, contrastive learning CNN achieves state-of-the-art performance on three different scale benchmark data sets: small scale RSSCN7 data set, midscale aerial image data set, and large-scale NWPU-RESISC45 data set. Numéro de notice : A2021-670 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.87.8.577 Date de publication en ligne : 01/08/2021 En ligne : https://doi.org/10.14358/PERS.87.8.577 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98806
in Photogrammetric Engineering & Remote Sensing, PERS > vol 87 n° 8 (August 2021) . - pp 577 - 591[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2021081 SL Revue Centre de documentation Revues en salle Disponible Improving human mobility identification with trajectory augmentation / Fan Zhou in Geoinformatica, vol 25 n° 3 (July 2021)
[article]
Titre : Improving human mobility identification with trajectory augmentation Type de document : Article/Communication Auteurs : Fan Zhou, Auteur ; Ruiyang Yin, Auteur ; Goce Trajcevski, Auteur ; Kunpeng Zhang, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 453 - 483 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Géomatique
[Termes IGN] itinéraire
[Termes IGN] mobilité humaine
[Termes IGN] modèle numérique de déplacement
[Termes IGN] réseau antagoniste génératif
[Termes IGN] réseau neuronal convolutif
[Termes IGN] réseau neuronal récurrent
[Termes IGN] utilisateurRésumé : (auteur) Many location-based social networks (LBSNs) applications such as customized Point-Of-Interest (POI) recommendation, preference-based trip planning, travel time estimation, etc., involve an important task of understanding human trajectory patterns. In particular, identifying and linking trajectories to users who generate them – a problem called Trajectory-User Linking (TUL) – has become a focus of many recent works. TUL is usually studied as a multi-class classification problem and has gained recent attention because: (1) the number of labels/classes (i.e., users) is way larger than the number of motion patterns among various trajectories; and (2) the location-based trajectory data, especially the check-ins – i.e., events of reporting a location at particular Point of Interest (POI) with known semantics – are often extremely sparse. Towards addressing these challenges, we introduce a Trajectory Generative Adversarial Network (TGAN) as an approach to enable learning users motion patterns and location distribution, and to eventually identify human mobility. TGAN consists of two jointly trained neural networks, playing a Minimax game to (iteratively) optimize both components. The first one is the generator, learning trajectory representation by a Recurrent Neural Network (RNN) based model, aiming at fitting the underlying trajectory distribution of a particular individual and generate synthetic trajectories with intrinsic invariance and global coherence. The second one is the discriminator – a Convolutional Neural Network (CNN) based model that discriminates the generated trajectory from the real ones and provides guidance to train the generator model. We demonstrate that the above two models can be well tuned together to improve the TUL performance, while achieving superior accuracy when compared to existing approaches. Numéro de notice : A2021-972 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article DOI : 10.1007/s10707-019-00378-7 Date de publication en ligne : 29/08/2019 En ligne : https://doi.org/10.1007/s10707-019-00378-7 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100390
in Geoinformatica > vol 25 n° 3 (July 2021) . - pp 453 - 483[article]A convolutional neural network approach to predict non‐permissive environments from moderate‐resolution imagery / Seth Goodman in Transactions in GIS, Vol 25 n° 2 (April 2021)
[article]
Titre : A convolutional neural network approach to predict non‐permissive environments from moderate‐resolution imagery Type de document : Article/Communication Auteurs : Seth Goodman, Auteur ; Ariel BenYishay, Auteur ; Daniel Runfola, Auteur Année de publication : 2021 Article en page(s) : pp 674 - 691 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] conflit
[Termes IGN] image Landsat-8
[Termes IGN] implémentation (informatique)
[Termes IGN] Nigéria
[Termes IGN] prédiction
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Convolutional neural networks (CNNs) trained with satellite imagery have been successfully used to generate measures of development indicators, such as poverty, in developing nations. This article explores a CNN‐based approach leveraging Landsat 8 imagery to predict locations of conflict‐related deaths. Using Nigeria as a case study, we use the Armed Conflict Location & Event Data (ACLED) dataset to identify locations of conflict events that did or did not result in a death. Imagery for each location is used as an input to train a CNN to distinguish fatal from non‐fatal events. Using 2014 imagery, we are able to predict the result of conflict events in the following year (2015) with 80% accuracy. While our approach does not replace the need for causal studies into the drivers of conflict death, it provides a low‐cost solution to prediction that requires only publicly available imagery to implement. Findings suggest that the information contained in moderate‐resolution imagery can be used to predict the likelihood of a death due to conflict at a given location in Nigeria the following year, and that CNN‐based methods of estimating development‐related indicators may be effective in applications beyond those explored in the literature. Numéro de notice : A2021-361 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/tgis.12661 Date de publication en ligne : 13/07/2020 En ligne : https://doi.org/10.1111/tgis.12661 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97625
in Transactions in GIS > Vol 25 n° 2 (April 2021) . - pp 674 - 691[article]Apprentissage profond et IA pour l’amélioration de la robustesse des techniques de localisation par vision artificielle / Achref Elouni (2021)
Titre : Apprentissage profond et IA pour l’amélioration de la robustesse des techniques de localisation par vision artificielle Type de document : Thèse/HDR Auteurs : Achref Elouni, Auteur ; Michel Dhome, Directeur de thèse Editeur : Clermont-Ferrand : Université Clermont Auvergne Année de publication : 2021 Importance : 121 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur d’Université, Spécialité InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] estimation de pose
[Termes IGN] état de l'art
[Termes IGN] localisation basée vision
[Termes IGN] méthode robuste
[Termes IGN] points homologues
[Termes IGN] réalité augmentée
[Termes IGN] reconstruction 3D
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation sémantiqueIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Le travail réalisé dans le cadre de ce doctorat se place dans le contexte d’un projet collaboratif ayant pour objectif la mise au point d’un casque de réalité augmenté. Afin de faire fonctionner un tel dispositif il s’avère nécessaire de calculer la position d’une caméra embarquée dans l’environnent d’intervention de l’utilisateur. Récemment, deux technologies dénommées SLAM (pour « Simultaneous Localization And Mapping ») et SfM (pour « Structure From Motion ») ont fait preuve de performances indéniables pour la reconstruction 3D d’un environnement à partir d’une collection d’images. Nous nous sommes intéressés à elles afin de résoudre le problème délicat de l’initialisation de notre dispositif ou de sa ré-initialisation en cas d’échec du suivi temps réel de la position. En effet, malgré les travaux de recherche réalisés ces dernières années, plusieurs limitations empêchent les système de localisation d’estimer une pose parfaite dans toutes les conditions. Ces conditions incluent les changements légers du contexte comme les variations de la luminosité, du point d’observation ou des modifications géométriques telles que l’ajout d’objets. Pour faire face à ces limitations et afin de proposer une solution facile à déployer,nous avons étudié la possibilité d’intégrer dans le processus de localisation des informations invariantes qui pourraient augmenter la probabilité d’avoir une pose précise. Deux types d’information invariante (sémantique et géométrique) ont été exploitées dans cette thèse pour aider le système de localisation à trouver sa position. Les solutions proposées ont été validées sur plusieurs jeux de données internes et externes (Dubrovnik, Rome, Oxford, Musée) grâce auxquels nous avons pu comparer nos résultats avec les travaux décrits dans l’état de l’art. Deux types d’images requêtes ont été étudiées dans cette thèse : celle composée d’une seule image et celle issue d’un dispositif stéréo. L’avantage d’utiliser une paire stéréo est de pouvoir trianguler des points homologues afin d’extraire leur hauteur et d’exploiter cette dernière dans le processus de localisation. L’autre approche envisagée consiste à utiliser comme invariant le label des pixels obtenu par un algorithme de segmentation sémantique basé sur un réseau de neurones convolutionnel. Dans les deux cas, les résultats obtenus montrent une amélioration sensible sur la précision des poses estimées. Note de contenu : 1. Introduction générale
1.1 Contexte
2. État de l’art
2.1 Le problème de la reconstruction 3D
2.2 Localisation visuelle basée sur l’image
2.3 Conclusion
3. Descripteur géométrique-visuel pour une localisation améliorée ba?sée sur l’image utilisant un a priori sur la verticale
3.1 Introduction
3.2 Méthode proposée
3.3 Étude expérimentale
3.4 Conclusion
4. La segmentation sémantique pour améliorer la localisation visuelle
4.1 Introduction
4.2 Méthode proposée
4.3 Étude expérimentale
4.4 Conclusion
5. La segmentation sémantique pour améliorer la recherche d’image par le contenu
5.1 Introduction
5.2 Méthode proposée
5.3 Étude expérimentale
5.4 Conclusion
6. Conclusion et PerspectivesNuméro de notice : 26763 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Clermont Ferrand : 2021 Organisme de stage : Institut Pascal nature-HAL : Thèse DOI : sans Date de publication en ligne : 03/02/2022 En ligne : https://tel.hal.science/tel-03554182/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99827 PermalinkUnderstanding the role of individual units in a deep neural network / David Bau in Proceedings of the National Academy of Sciences of the United States of America PNAS, vol 117 n° 48 (1 December 2020)PermalinkLearning sequential slice representation with an attention-embedding network for 3D shape recognition and retrieval in MLS point clouds / Zhipeng Luo in ISPRS Journal of photogrammetry and remote sensing, vol 161 (March 2020)PermalinkA convolutional neural network approach for counting and geolocating citrus-trees in UAV multispectral imagery / Lucas Prado Osco in ISPRS Journal of photogrammetry and remote sensing, vol 160 (February 2020)PermalinkTransferring deep learning models for cloud detection between Landsat-8 and Proba-V / Gonzalo Mateo-García in ISPRS Journal of photogrammetry and remote sensing, vol 160 (February 2020)PermalinkPermalinkPermalinkPermalinkSystème de traitement d’images temps réel dédié à la mesure de champs denses de déplacements et de déformations / Seyfeddine Boukhtache (2020)PermalinkUsing a U-net convolutional neural network to map woody vegetation extent from high resolution satellite imagery across Queensland, Australia / Neil Flood in International journal of applied Earth observation and geoinformation, vol 82 (October 2019)Permalink