Descripteur
Termes IGN > mathématiques > statistique mathématique > analyse de données > classification > classification par réseau neuronal > classification par réseau neuronal convolutif
classification par réseau neuronal convolutifVoir aussi |
Documents disponibles dans cette catégorie (336)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Room semantics inference using random forest and relational graph convolutional networks: A case study of research building / Xuke Hu in Transactions in GIS, Vol 25 n° 1 (February 2021)
[article]
Titre : Room semantics inference using random forest and relational graph convolutional networks: A case study of research building Type de document : Article/Communication Auteurs : Xuke Hu, Auteur ; Hongchao Fan, Auteur ; Alexey Noskov, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 71 - 111 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Géomatique
[Termes IGN] apprentissage automatique
[Termes IGN] bâtiment public
[Termes IGN] carte d'intérieur
[Termes IGN] cartographie automatique
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] graphe relationnel
[Termes IGN] inférence sémantiqueRésumé : (Auteur) Semantically rich maps are the foundation of indoor location‐based services. Many map providers such as OpenStreetMap and automatic mapping solutions focus on the representation and detection of geometric information (e.g., shape of room) and a few semantics (e.g., stairs and furniture) but neglect room usage. To mitigate the issue, this work proposes a general room tagging method for public buildings, which can benefit both existing map providers and automatic mapping solutions by inferring the missing room usage based on indoor geometric maps. Two kinds of statistical learning‐based room tagging methods are adopted: traditional machine learning (e.g., random forests) and deep learning, specifically relational graph convolutional networks (R‐GCNs), based on the geometric properties (e.g., area), topological relationships (e.g., adjacency and inclusion), and spatial distribution characteristics of rooms. In the machine learning‐based approach, a bidirectional beam search strategy is proposed to deal with the issue that the tag of a room depends on the tag of its neighbors in an undirected room sequence. In the R‐GCN‐based approach, useful properties of neighboring nodes (rooms) in the graph are automatically gathered to classify the nodes. Research buildings are taken as examples to evaluate the proposed approaches based on 130 floor plans with 3,330 rooms by using fivefold cross‐validation. The experiments conducted show that the random forest‐based approach achieves a higher tagging accuracy (0.85) than R‐GCN (0.79). Numéro de notice : A2021-186 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/tgis.12664 Date de publication en ligne : 19/08/2020 En ligne : https://doi.org/10.1111/tgis.12664 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97152
in Transactions in GIS > Vol 25 n° 1 (February 2021) . - pp 71 - 111[article]Unsupervised deep representation learning for real-time tracking / Ning Wang in International journal of computer vision, vol 129 n° 2 (February 2021)
[article]
Titre : Unsupervised deep representation learning for real-time tracking Type de document : Article/Communication Auteurs : Ning Wang, Auteur ; Wengang Zhou, Auteur ; Yibing Song, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 400 - 418 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] appariement d'images
[Termes IGN] apprentissage profond
[Termes IGN] classification non dirigée
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de cible
[Termes IGN] filtre
[Termes IGN] objet mobile
[Termes IGN] oculométrie
[Termes IGN] reconnaissance d'objets
[Termes IGN] réseau neuronal siamois
[Termes IGN] temps réel
[Termes IGN] traçage
[Termes IGN] trajectoire (véhicule non spatial)
[Termes IGN] vision par ordinateurRésumé : (auteur) The advancement of visual tracking has continuously been brought by deep learning models. Typically, supervised learning is employed to train these models with expensive labeled data. In order to reduce the workload of manual annotation and learn to track arbitrary objects, we propose an unsupervised learning method for visual tracking. The motivation of our unsupervised learning is that a robust tracker should be effective in bidirectional tracking. Specifically, the tracker is able to forward localize a target object in successive frames and backtrace to its initial position in the first frame. Based on such a motivation, in the training process, we measure the consistency between forward and backward trajectories to learn a robust tracker from scratch merely using unlabeled videos. We build our framework on a Siamese correlation filter network, and propose a multi-frame validation scheme and a cost-sensitive loss to facilitate unsupervised learning. Without bells and whistles, the proposed unsupervised tracker achieves the baseline accuracy of classic fully supervised trackers while achieving a real-time speed. Furthermore, our unsupervised framework exhibits a potential in leveraging more unlabeled or weakly labeled data to further improve the tracking accuracy. Numéro de notice : A2021-353 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s11263-020-01357-4 Date de publication en ligne : 21/09/2020 En ligne : https://doi.org/10.1007/s11263-020-01357-4 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97604
in International journal of computer vision > vol 129 n° 2 (February 2021) . - pp 400 - 418[article]Mapping seasonal agricultural land use types using deep learning on Sentinel-2 image time series / Misganu Debella-Gilo in Remote sensing, Vol 13 n° 2 (January-2 2021)
[article]
Titre : Mapping seasonal agricultural land use types using deep learning on Sentinel-2 image time series Type de document : Article/Communication Auteurs : Misganu Debella-Gilo, Auteur ; Arnt Kristian Gjertsen, Auteur Année de publication : 2021 Article en page(s) : n° 289 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] apprentissage automatique
[Termes IGN] carte agricole
[Termes IGN] carte d'utilisation du sol
[Termes IGN] classification par Perceptron multicouche
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] image Sentinel-MSI
[Termes IGN] Norvège
[Termes IGN] série temporelle
[Termes IGN] Soil Adjusted Vegetation Index
[Termes IGN] surface cultivée
[Termes IGN] utilisation du sol
[Termes IGN] variation saisonnièreRésumé : (auteur) The size and location of agricultural fields that are in active use and the type of use during the growing season are among the vital information that is needed for the careful planning and forecasting of agricultural production at national and regional scales. In areas where such data are not readily available, an independent seasonal monitoring method is needed. Remote sensing is a widely used tool to map land use types, although there are some limitations that can partly be circumvented by using, among others, multiple observations, careful feature selection and appropriate analysis methods. Here, we used Sentinel-2 satellite image time series (SITS) over the land area of Norway to map three agricultural land use classes: cereal crops, fodder crops (grass) and unused areas. The Multilayer Perceptron (MLP) and two variants of the Convolutional Neural Network (CNN), are implemented on SITS data of four different temporal resolutions. These enabled us to compare twelve model-dataset combinations to identify the model-dataset combination that results in the most accurate predictions. The CNN is implemented in the spectral and temporal dimensions instead of the conventional spatial dimension. Rather than using existing deep learning architectures, an autotuning procedure is implemented so that the model hyperparameters are empirically optimized during the training. The results obtained on held-out test data show that up to 94% overall accuracy and 90% Cohen’s Kappa can be obtained when the 2D CNN is applied on the SITS data with a temporal resolution of 7 days. This is closely followed by the 1D CNN on the same dataset. However, the latter performs better than the former in predicting data outside the training set. It is further observed that cereal is predicted with the highest accuracy, followed by grass. Predicting the unused areas has been found to be difficult as there is no distinct surface condition that is common for all unused areas. Numéro de notice : A2021-198 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs13020289 Date de publication en ligne : 15/01/2021 En ligne : https://doi.org/10.3390/rs13020289 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97149
in Remote sensing > Vol 13 n° 2 (January-2 2021) . - n° 289[article]Aleatoric uncertainty estimation for dense stereo matching via CNN-based cost volume analysis / Max Mehltretter in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)
[article]
Titre : Aleatoric uncertainty estimation for dense stereo matching via CNN-based cost volume analysis Type de document : Article/Communication Auteurs : Max Mehltretter, Auteur ; Christian Heipke, Auteur Année de publication : 2021 Article en page(s) : pp 63 - 75 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] appariement d'images
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] corrélation épipolaire dense
[Termes IGN] couple stéréoscopique
[Termes IGN] courbe épipolaire
[Termes IGN] disparité
[Termes IGN] effet de profondeur cinétique
[Termes IGN] image RVB
[Termes IGN] modèle d'incertitude
[Termes IGN] modèle stochastique
[Termes IGN] voxelRésumé : (auteur) Motivated by the need to identify erroneous disparity estimates, various methods for the estimation of aleatoric uncertainty in the context of dense stereo matching have been presented in recent years. Especially, the introduction of deep learning based methods and the accompanying significant improvement in accuracy have greatly increased the popularity of this field. Despite this remarkable development, most of these methods rely on features learned from disparity maps only, neglecting the corresponding 3-dimensional cost volumes. However, conventional hand-crafted methods have already demonstrated that the additional information contained in such cost volumes are beneficial for the task of uncertainty estimation. In this paper, we combine the advantages of deep learning and cost volume based features and present a new Convolutional Neural Network (CNN) architecture to directly learn features for the task of aleatoric uncertainty estimation from volumetric 3D data. Furthermore, we discuss and apply three different uncertainty models to train our CNN without the need to provide ground truth for uncertainty. In an extensive evaluation on three datasets using three common dense stereo matching methods, we investigate the effects of these uncertainty models and demonstrate the generality and state-of-the-art accuracy of the proposed method. Numéro de notice : A2021-012 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2020.11.003 Date de publication en ligne : 18/11/2020 En ligne : https://doi.org/10.1016/j.isprsjprs.2020.11.003 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96415
in ISPRS Journal of photogrammetry and remote sensing > vol 171 (January 2021) . - pp 63 - 75[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2021011 SL Revue Centre de documentation Revues en salle Disponible 081-2021013 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2021012 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Amélioration des systèmes de suivi des cultures à l’aide de la télédétection multi-source et des techniques d’apprentissage profond / Yawogan Gbodjo (2021)
Titre : Amélioration des systèmes de suivi des cultures à l’aide de la télédétection multi-source et des techniques d’apprentissage profond Type de document : Thèse/HDR Auteurs : Yawogan Gbodjo, Auteur ; Dino Lenco, Directeur de thèse Editeur : Montpellier : Université de Montpellier Année de publication : 2021 Importance : 165 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse soutenue pour obtenir le grade de Docteur en Informatique de l'Université de MontpellierLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] classification dirigée
[Termes IGN] classification par Perceptron multicouche
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] classification par réseau neuronal récurrent
[Termes IGN] image PlanetScope
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Sentinel-SAR
[Termes IGN] indice de végétation
[Termes IGN] occupation du sol
[Termes IGN] production agricole
[Termes IGN] rendement agricole
[Termes IGN] série temporelle
[Termes IGN] surface cultivéeIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les systèmes de suivi des cultures jouent un rôle essentiel dans l'évaluation de la production agricole dans le monde. De nos jours, la disponibilité de plusieurs sources d'information satellitaire à large échelle, à haute résolution spatiale et à forte répétitivité temporelle, conjointe à l'essor des techniques d'apprentissage profond, offrent de nouvelles perspectives aux systèmes de suivi des cultures pour l'évaluation de la production agricole. Dans cette thèse, nous explorons des pistes méthodologiques pour améliorer le suivi de la production agricole à partir de la télédétection multi-source et des techniques d'apprentissage profond. Nous proposons deux méthodes pour caractériser l'occupation du sol et identifier les surfaces cultivées. La première approche est basée sur des réseaux de neurones récurrents équipés de mécanismes d'attention, employant des séries temporelles multi-sources radar et optique ainsi que des connaissances spécifiques de domaine. La seconde approche repose sur des réseaux de neurones convolutifs et explore davantage la combinaison multi-source et surtout multi-échelle grâce à l'intégration d'une source optique à très haute résolution spatiale. Nous évaluons ces méthodes à des échelles territoriale et locale en ayant systématiquement un regard croisé sur des sites d'études contrastés en agriculture conventionnelle et petite agriculture familiale. Nous menons également un travail d'investigation sur l'estimation et la prévision des rendements des surfaces cultivées, à l'échelle locale de la petite agriculture familiale en employant des séries temporelles multi-sources radar et optique. Dans ce contexte en outre limité par la disponibilité de données de référence, nous évaluons le potentiel de méthodes d'apprentissage profond par rapport à des approches traditionnellement utilisées. Globalement, l'évaluation des approches proposées pour identifier les surfaces cultivées montre que les techniques d'apprentissage profond semblent mieux adaptées que les méthodes traditionnelles d'apprentissage automatique pour tirer parti de la complémentarité des données multi-sources, multi-temporelles et multi-échelles à mesure qu'il y ait une quantité suffisante de données pour leur entraînement supervisé. Le travail d'investigation réalisé pour l'estimation et la prévision des rendements n'a par contre pas révélé de plus-value manifeste dans l'emploi de ces méthodes. Dans ce dernier cas, le contexte limité en données d'entraînement semble en être la principale explication. Note de contenu : Introduction
1- Télédétection et apprentissage automatique
2- Sites d’étude et données utilisées
3- Caractérisation de l’occupation du sol
4- Suivi des rendements en petite agriculture familiale
Conclusion et PerspectivesNuméro de notice : 15240 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Montpellier : 2021 Organisme de stage : TETIS DOI : sans En ligne : https://tel.hal.science/tel-03589421/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100474 An efficient representation of 3D buildings: application to the evaluation of city models / Oussama Ennafii (2021)PermalinkPermalinkApports des méthodes d'apprentissage profond pour la reconnaissance automatique des modes d'occupation des sols et d'objets par télédétection en milieu tropical / Guillaume Rousset (2021)PermalinkPermalinkPermalinkPermalinkAssessment of combining convolutional neural networks and object based image analysis to land cover classification using Sentinel 2 satellite imagery (Tenes region, Algeria) / N. Zaabar (2021)PermalinkPermalinkBenchmarking of convolutional neural network approaches for vegetation land cover mapping / Benjamin Carpentier (2021)PermalinkCombining deep learning and mathematical morphology for historical map segmentation / Yizi Chen (2021)PermalinkConnecting images through time and sources: Introducing low-data, heterogeneous instance retrieval / Dimitri Gominski (2021)PermalinkPermalinkPermalinkPermalinkDeep learning for wildfire progression monitoring using SAR and optical satellite image time series / Puzhao Zhang (2021)PermalinkDétection et reconstruction 3D d’arbres urbains par segmentation de nuages de points : apport de l’apprentissage profond / Victor Alteirac (2021)PermalinkEnsemble learning methods on the space of covariance matrices : application to remote sensing scene and multivariate time series classification / Sara Akodad (2021)PermalinkFrom point clouds to high-fidelity models - advanced methods for image-based 3D reconstruction / Audrey Richard (2021)PermalinkFuNet: A novel road extraction network with fusion of location data and remote sensing imagery / Kai Zhou in ISPRS International journal of geo-information, vol 10 n° 1 (January 2021)PermalinkImage matching from handcrafted to deep features: A survey / Jiayi Ma in International journal of computer vision, vol 29 n° 1 (January 2021)PermalinkImproving traffic sign recognition results in urban areas by overcoming the impact of scale and rotation / Roholah Yazdan in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)PermalinkInitialization methods of convolutional neural networks for detection of image manipulations / Ivan Castillo Camacho (2021)PermalinkLANet: Local attention embedding to improve the semantic segmentation of remote sensing images / Lei Ding in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkPermalinkPermalinkMask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors / Emilio Guirado in Sensors, vol 21 n° 1 (January 2021)PermalinkPermalinkPermalinkObject detection using component-graphs and ConvNets with application to astronomical images / Thanh Xuan Nguyen (2021)PermalinkPanoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)PermalinkSemantic segmentation of sea ice type on Sentinel-1 SAR data using convolutional neural networks / Alissa Kouraeva (2021)PermalinkStudy of an integrated pre-processing architecture for smart-imaging-systems, in the context of lowpower computer vision and embedded object detection / Luis Cubero Montealegre (2021)PermalinkSuivi des vignes par télédétection de proximité : le deep learning au service de l’agriculture de précision / Sami Beniaouf (2021)PermalinkSuper-resolution of VIIRS-measured ocean color products using deep convolutional neural network / Xiaoming Liu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkSupplementary material for: Panoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)PermalinkThe use of deep machine learning for the automated selection of remote sensing data for the determination of areas of arable land degradation processes distribution / Dimitri I. Rukhovitch in Remote sensing, vol 13 n° 1 (January-1 2021)PermalinkPermalinkUnderwater object detection and reconstruction based on active single-pixel imaging and super-resolution convolutional neural network / Mengdi Li in Sensors, vol 21 n° 1 (January 2021)PermalinkUnifying remote sensing image retrieval and classification with robust fine-tuning / Dimitri Gominski (2021)PermalinkCNN-based tree species classification using high resolution RGB image data from automated UAV observations / Sebastian Egli in Remote sensing, vol 12 n° 23 (December-2 2020)PermalinkAutomatic building footprint extraction from UAV images using neural networks / Zoran Kokeza in Geodetski vestnik, vol 64 n° 4 (December 2020 - February 2021)PermalinkConvolutional Neural Networks accurately predict cover fractions of plant species and communities in Unmanned Aerial Vehicle imagery / Teja Kattenborn in Remote sensing in ecology and conservation, vol 6 n° 4 (December 2020)PermalinkDeep learning for detecting and classifying ocean objects: application of YoloV3 for iceberg–ship discrimination / Frederik Hass in ISPRS International journal of geo-information, vol 9 n° 12 (December 2020)PermalinkMapping forest tree species in high resolution UAV-based RGB-imagery by means of convolutional neural networks / Felix Schiefer in ISPRS Journal of photogrammetry and remote sensing, vol 170 (December 2020)PermalinkNonlocal graph convolutional networks for hyperspectral image classification / Lichao Mou in IEEE Transactions on geoscience and remote sensing, Vol 58 n° 12 (December 2020)Permalink