Descripteur
Documents disponibles dans cette catégorie (333)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Semantic understanding of scenes through the ADE20K dataset / Bolei Zhou in International journal of computer vision, vol 127 n° 3 (March 2019)
[article]
Titre : Semantic understanding of scenes through the ADE20K dataset Type de document : Article/Communication Auteurs : Bolei Zhou, Auteur ; Hang Zhao, Auteur ; Xavier Puig, Auteur ; Tete Xiao, Auteur ; Sanja Fidler, Auteur ; et al., Auteur Année de publication : 2019 Article en page(s) : pp 302 - 321 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] compréhension de l'image
[Termes IGN] détection d'objet
[Termes IGN] jeu de données localisées
[Termes IGN] réseau neuronal artificiel
[Termes IGN] scène
[Termes IGN] segmentation sémantiqueRésumé : (Auteur) Semantic understanding of visual scenes is one of the holy grails of computer vision. Despite efforts of the community in data collection, there are still few image datasets covering a wide range of scenes and object categories with pixel-wise annotations for scene understanding. In this work, we present a densely annotated dataset ADE20K, which spans diverse annotations of scenes, objects, parts of objects, and in some cases even parts of parts. Totally there are 25k images of the complex everyday scenes containing a variety of objects in their natural spatial context. On average there are 19.5 instances and 10.5 object classes per image. Based on ADE20K, we construct benchmarks for scene parsing and instance segmentation. We provide baseline performances on both of the benchmarks and re-implement state-of-the-art models for open source. We further evaluate the effect of synchronized batch normalization and find that a reasonably large batch size is crucial for the semantic segmentation performance. We show that the networks trained on ADE20K are able to segment a wide variety of scenes and objects. Numéro de notice : A2018-602 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1007/s11263-018-1140-0 Date de publication en ligne : 07/12/2018 En ligne : https://doi.org/10.1007/s11263-018-1140-0 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92529
in International journal of computer vision > vol 127 n° 3 (March 2019) . - pp 302 - 321[article]Learning spectral-spatial-temporal features via a recurrent convolutional neural network for change detection in multispectral imagery / Lichao Mou in IEEE Transactions on geoscience and remote sensing, vol 57 n° 2 (February 2019)
[article]
Titre : Learning spectral-spatial-temporal features via a recurrent convolutional neural network for change detection in multispectral imagery Type de document : Article/Communication Auteurs : Lichao Mou, Auteur ; Lorenzo Bruzzone, Auteur ; Xiao Xiang Zhu, Auteur Année de publication : 2019 Article en page(s) : pp 924 - 935 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de changement
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] image multibande
[Termes IGN] réseau neuronal récurrentRésumé : (Auteur) Change detection is one of the central problems in earth observation and was extensively investigated over recent decades. In this paper, we propose a novel recurrent convolutional neural network (ReCNN) architecture, which is trained to learn a joint spectral-spatial-temporal feature representation in a unified framework for change detection in multispectral images. To this end, we bring together a convolutional neural network and a recurrent neural network into one end-to-end network. The former is able to generate rich spectral-spatial feature representations, while the latter effectively analyzes temporal dependence in bitemporal images. In comparison with previous approaches to change detection, the proposed network architecture possesses three distinctive properties: 1) it is end-to-end trainable, in contrast to most existing methods whose components are separately trained or computed; 2) it naturally harnesses spatial information that has been proven to be beneficial to change detection task; and 3) it is capable of adaptively learning the temporal dependence between multitemporal images, unlike most of the algorithms that use fairly simple operation like image differencing or stacking. As far as we know, this is the first time that a recurrent convolutional network architecture has been proposed for multitemporal remote sensing image analysis. The proposed network is validated on real multispectral data sets. Both visual and quantitative analyses of the experimental results demonstrate competitive performance in the proposed mode. Numéro de notice : A2019-110 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2018.2863224 Date de publication en ligne : 20/11/2018 En ligne : https://doi.org/10.1109/TGRS.2018.2863224 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92449
in IEEE Transactions on geoscience and remote sensing > vol 57 n° 2 (February 2019) . - pp 924 - 935[article]Analyse d’images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées / Khouloud Dahmane (2019)
Titre : Analyse d’images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées Type de document : Thèse/HDR Auteurs : Khouloud Dahmane, Auteur ; Frédéric Chausse, Directeur de thèse Editeur : Clermont-Ferrand : Université Clermont Auvergne Année de publication : 2019 Importance : 146 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le grade de Docteur de l'Université Clermont Auvergne, spécialité Électronique et SystèmesLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] brouillard
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] coefficient de corrélation
[Termes IGN] données météorologiques
[Termes IGN] pluie
[Termes IGN] réseau neuronal artificiel
[Termes IGN] système de transport intelligent
[Termes IGN] trafic routier
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) De nos jours, les systèmes de vision sont de plus en plus utilisés dans le contexte routier. Ils permettent ainsi d'assurer la sécurité et faciliter la mobilité. Ces systèmes de vision sont généralement affectés par la dégradation des conditions météorologiques en présence de brouillard ou de pluie forte, phénomènes limitant la visibilité et réduisant ainsi la qualité des images. Afin d'optimiser les performances des systèmes de vision, il est nécessaire de disposer d'un système de détection fiable de ces conditions météorologiques défavorables.Il existe des capteurs météorologiques dédiés à la mesure physique, mais ils sont coûteux. Ce problème peut être résolu en utilisant les caméras qui sont déjà installées sur les routes. Ces dernières peuvent remplir simultanément deux fonctions : l'acquisition d'images pour les applications de surveillance et la mesure physique des conditions météorologiques au lieu des capteurs dédiés. Suite au grand succès des réseaux de neurones convolutifs (CNN) dans la classification et la reconnaissance d'images, nous avons utilisé une méthode d'apprentissage profond pour étudier le problème de la classification météorologique. L'objectif de notre étude est de chercher dans un premier temps à mettre au point un classifieur du temps, qui permet de discriminer entre temps « normal », brouillard et pluie. Dans un deuxième temps, une fois la classe connue, nous cherchons à développer un modèle de mesure de la distance de visibilité météorologique du brouillard. Rappelons que l'utilisation des CNN exige l'utilisation de bases de données d'apprentissage et de test. Pour cela, deux bases de données ont été utilisées, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), et la base "Cerema-AWH database", en cours d'acquisition depuis 2017 sur le site de la Fageole sur l'autoroute A75. Chaque image des deux bases est labellisée automatiquement grâce aux données météorologiques relevées sur le site permettant de caractériser diverses gammes de pluie et de brouillard. La base Cerema-AWH, qui a été mise en place dans le cadre de nos travaux, contient cinq sous-bases : conditions normales de jour, brouillard fort, brouillard faible, pluie forte et pluie faible. Les intensités de pluie varient de 0 mm/h à 70 mm/h et les visibilités météorologiques de brouillard varient entre 50m et 1800m. Parmi les réseaux de neurones connus et qui ont montré leur performance dans le domaine de la reconnaissance et la classification, nous pouvons citer LeNet, ResNet-152, Inception-v4 et DenseNet-121. Nous avons appliqué ces réseaux dans notre système de classification des conditions météorologiques dégradées. En premier lieu, une étude justificative de l'usage des réseaux de neurones convolutifs est effectuée. Elle étudie la nature de la donnée d'entrée et les hyperparamètres optimaux qu'il faut utiliser pour aboutir aux meilleurs résultats. Ensuite, une analyse des différentes composantes d'un réseau de neurones est menée en construisant une architecture instrumentale de réseau de neurones. La classification des conditions météorologiques avec les réseaux de neurones profonds a atteint un score de 83% pour une classification de cinq classes et 99% pour une classification de trois classes.Ensuite, une analyse sur les données d'entrée et de sortie a été faite permettant d'étudier l'impact du changement de scènes et celui du nombre de données d'entrée et du nombre de classes météorologiques sur le résultat de classification.Enfin, une méthode de transfert de bases de données a été appliquée. Cette méthode permet d'étudier la portabilité du système de classification des conditions météorologiques d'un site à un autre. Un score de classification de 63% a été obtenu en faisant un transfert entre une base publique et la base Cerema-AWH. (...) Note de contenu : 1- Introduction
2- Revue bibliographique des algorithmes de classification et de mesure
3- Les réseaux de neurones artificiels
4- Description des bases de données météorologiques
5- Classification des conditions météorologiques par caméra routière
6- ConclusionNuméro de notice : 28507 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Électronique et Systèmes : Université Clermont Auvergne : 2020 Organisme de stage : Institut Pascal nature-HAL : Thèse DOI : sans En ligne : https://tel.hal.science/tel-03022934/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97041
Titre : Application des algorithmes de Deep learning pour les images SAR Type de document : Mémoire Auteurs : Luc Baudoux , Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2019 Importance : 73 p. Format : 21 x 30 cm Note générale : bibliographie
Rapport de fin d'étude, cycle des Ingénieurs diplômés de l’ENSG 3ème annéeLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] apprentissage profond
[Termes IGN] chatoiement
[Termes IGN] filtrage du bruit
[Termes IGN] image radar moirée
[Termes IGN] Perceptron multicouche
[Termes IGN] réseau neuronal profondIndex. décimale : IGAST Mémoires du Master Information Géographique, Analyse Spatiale et Télédétection Résumé : (auteur) Les images radar sont parasitées par un phénomène physique appelé speckle leur conférant un fort effet « poivre et sel ». L’essor des techniques d’apprentissage profond ces dernières années a permis la conception de plusieurs techniques de débruitage. Celles-ci se différencient des méthodes traditionnelles par la capacité d’apprendre le modèle de débruitage implicitement depuis les données radar sans avoir recours à un modèle explicite défini par le concepteur. Le présent rapport de stage porte sur l’étude comparative des principales méthodes proposées à ce jour tant entre elles qu’avec des techniques de débruitage traditionnelles. L’objectif est ici de réaliser l’étude la plus objective possible sur les forces et faiblesses de ces méthodes. Il s’agit également
d’étudier l’influence des différents paramètres et de proposer de nouveaux réseaux de neurones afin d’améliorer les résultats actuellement disponibles. Nous montrons dans ce rapport que des réseaux de neurones simples réalisent un bon compromis entre lissage
des zones homogènes et préservations des détails. De surcroit, nous montrons que les forces et faiblesses des réseaux de neurones dépendent fortement du type d’apprentissage réalisé. Ainsi, les réseaux, traditionnellement entraînés de manière supervisée sur des simulations de speckle, tendent à mal se transposer au speckle réel. Les réseaux entraînés uniquement sur du speckle réel offrent, quant à eux, de meilleurs résultats. Il faut néanmoins faire attention à la capacité de généralisation, car ces réseaux souffrent d’une légère baisse de qualité de leurs résultats sur des zones dont les textures ou radiométries n’étaient pas présentes dans le jeu d’entraînement. La comparaison avec les méthodes traditionnelles révèle une meilleure préservation des détails au détriment d’un moins fort lissage des zones homogènes. Il convient donc de choisir entre ces méthodes en fonction de l’usage souhaité par la suite pour le traitement de la donnée radar.Note de contenu : 1- Contextualisation
2- Méthodologie
3- RésultatsNuméro de notice : 25430 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire de fin d'études IT Organisme de stage : Centre national d’études spatiales Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93899 Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 25430-01 IGAST Livre Centre de documentation Travaux d'élèves Disponible Documents numériques
peut être téléchargé
Application des algorithmesAdobe Acrobat PDF Challenges in grassland mowing event detection with multimodal Sentinel images / Anatol Garioud (2019)
Titre : Challenges in grassland mowing event detection with multimodal Sentinel images Type de document : Article/Communication Auteurs : Anatol Garioud , Auteur ; Sébastien Giordano , Auteur ; Silvia Valero, Auteur ; Clément Mallet , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2019 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : MultiTemp 2019, 10th International Workshop on the Analysis of Multitemporal Remote Sensing Images 05/08/2019 07/08/2019 Shanghai Chine Proceedings IEEE Importance : pp 1 - 4 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] apprentissage profond
[Termes IGN] détection d'événement
[Termes IGN] données lidar
[Termes IGN] image multibande
[Termes IGN] image RapidEye
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Sentinel-SAR
[Termes IGN] image TerraSAR-X
[Termes IGN] méthode robuste
[Termes IGN] nébulosité
[Termes IGN] Normalized Difference Vegetation Index
[Termes IGN] Perceptron multicouche
[Termes IGN] prairie
[Termes IGN] régression
[Termes IGN] réseau neuronal récurrent
[Termes IGN] série temporelle
[Termes IGN] surveillance de la végétationRésumé : (auteur) Permanent Grasslands (PG) are heterogeneous environments with high spatial and temporal dynamics, subject to increasing environmental challenges. This study aims to identify requirements, key constraining factors and solutions for robust and complete detection of Mowing Events. Remote sensing is a powerful tool to monitor and investigate Near-Real-Time and seasonally PG cover. Here, pros and cons of Sentinel-2 (S2) and Sentinel-1 (S1) time series exploitation for Mowing Events (MowEve) detection are analysed. A deep-based approach is proposed to obtain consistent and homogeneous biophysical parameter times series for MowEve detection. Recurrent Neural Networks are proposed as regression strategy allowing the synergistic integration of optical and Synthetic Aperture Radar data to reconstruct dense NDVI times series. Experimental results corroborates the interest of deriving consistent and homogeneous series of biophysical parameters for subsequent MowEve detection. Numéro de notice : C2019-028 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/Multi-Temp.2019.8866914 Date de publication en ligne : 29/11/2019 En ligne : https://doi.org/10.1109/Multi-Temp.2019.8866914 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94538 Correcting rural building annotations in OpenStreetMap using convolutional neural networks / John E. Vargas-Muñoz in ISPRS Journal of photogrammetry and remote sensing, vol 147 (January 2019)PermalinkDataPink, l'IA au service de l'information géographique / Anonyme in Géomatique expert, n° 126 (janvier - février 2019)PermalinkEvaluating SAR-optical sensor fusion for aboveground biomass estimation in a Brazilian tropical forest / Aline Bernarda Debastiani in Annals of forest research, vol 62 n° 1 (January - June 2019)PermalinkPermalinkPermalinkPermalinkHyperparameter optimization of neural network-driven spatial models accelerated using cyber-enabled high-performance computing / Minrui Zheng in International journal of geographical information science IJGIS, Vol 33 n° 1-2 (January - February 2019)PermalinkPermalinkPermalinkMachine learning techniques applied to geoscience information system and remote sensing / Saro Lee (2019)PermalinkMéthodes d'apprentissage statistique pour la détection de la signalisation routière à partir de véhicules traceurs / Yann Méneroux (2019)PermalinkA multi-faceted CNN architecture for automatic classification of mobile LiDAR data and an algorithm to reproduce point cloud samples for enhanced training / Bhavesh Kumar in ISPRS Journal of photogrammetry and remote sensing, vol 147 (January 2019)PermalinkNumérique et territoires / Philippe Cohard (2019)PermalinkPermalinkProjection sur l’évolution de la distribution future de la population en utilisant du Machine Learning et de la géosimulation / Julie Grosmaire (2019)PermalinkPermalinkSegmentation d'image par intégration itérative de connaissances / Mahaman Sani Chaibou Salaou (2019)PermalinkPermalinkDesigning an integrated urban growth prediction model: a scenario-based approach for preserving scenic landscapes / Sepideh Saeidi in Geocarto international, vol 33 n° 12 (December 2018)PermalinkSuper-resolution of Sentinel-2 images : Learning a globally applicable deep neural network / Charis Lanaras in ISPRS Journal of photogrammetry and remote sensing, vol 146 (December 2018)PermalinkLand cover mapping at very high resolution with rotation equivariant CNNs : Towards small yet accurate models / Diego Marcos in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkMulti-scale object detection in remote sensing imagery with convolutional neural networks / Zhipeng Deng in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkA new deep convolutional neural network for fast hyperspectral image classification / Mercedes Eugenia Paoletti in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkPan-sharpening via deep metric learning / Yinghui Xing in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkSemantic labeling in very high resolution images via a self-cascaded convolutional neural network / Yoncheng Liu in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkA semi-supervised generative framework with deep learning features for high-resolution remote sensing image scene classification / Wei Han in ISPRS Journal of photogrammetry and remote sensing, vol 145 - part A (November 2018)PermalinkA 3D convolutional neural network method for land cover classification using LiDAR and multi-temporal Landsat imagery / Zewei Xu in ISPRS Journal of photogrammetry and remote sensing, vol 144 (October 2018)PermalinkDeep multi-task learning for a geographically-regularized semantic segmentation of aerial images / Michele Volpi in ISPRS Journal of photogrammetry and remote sensing, vol 144 (October 2018)PermalinkEstimation of winter wheat crop growth parameters using time series Sentinel-1A SAR data / P. Kumar in Geocarto international, vol 33 n° 9 (September 2018)PermalinkFusion of images and point clouds for the semantic segmentation of large-scale 3D scenes based on deep learning / Rui Zhang in ISPRS Journal of photogrammetry and remote sensing, vol 143 (September 2018)PermalinkImage-based synthesis for deep 3D human pose estimation / Grégory Rogez in International journal of computer vision, vol 126 n° 9 (September 2018)PermalinkA deep learning approach to DTM extraction from imagery using rule-based training labels / Caroline M. Gevaert in ISPRS Journal of photogrammetry and remote sensing, vol 142 (August 2018)PermalinkA deep neural network with spatial pooling (DNNSP) for 3-D point cloud classification / Zhen Wang in IEEE Transactions on geoscience and remote sensing, vol 56 n° 8 (August 2018)PermalinkExploring geo-tagged photos for land cover validation with deep learning / Hanfa Xing in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)PermalinkHierarchical cellular automata for visual saliency / Yao Qin in International journal of computer vision, vol 126 n° 7 (July 2018)PermalinkA light and faster regional convolutional neural network for object detection in optical remote sensing images / Peng Ding in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)PermalinkApplication of deep learning for object detection / Ajeet Ram Pathak in Procedia Computer Science, vol 132 (2018)PermalinkClassification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)PermalinkFusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)PermalinkClassifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network / Ruibin Zhao in International journal of geographical information science IJGIS, vol 32 n° 5-6 (May - June 2018)PermalinkDeep convolutional neural network training enrichment using multi-view object-based analysis of Unmanned Aerial systems imagery for wetlands classification / Tao Liu in ISPRS Journal of photogrammetry and remote sensing, vol 139 (May 2018)PermalinkDo semantic parts emerge in convolutional neural networks? / Abel Gonzalez-Garcia in International journal of computer vision, vol 126 n° 5 (May 2018)PermalinkLarge-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)PermalinkBinary patterns encoded convolutional neural networks for texture recognition and remote sensing scene classification / Rama Rao Nidamanuri in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)PermalinkCrowdsourcing the character of a place : Character‐level convolutional networks for multilingual geographic text classification / Benjamin Adams in Transactions in GIS, vol 22 n° 2 (April 2018)PermalinkSimilarity measurement of metadata of geospatial data : an artificial neural network approach / Zugang Chen in ISPRS International journal of geo-information, vol 7 n° 3 (March 2018)PermalinkFine-grained object recognition and zero-shot learning in remote sensing imagery / Gencer Sumbul in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkMultisource remote sensing data classification based on convolutional neural network / Xiaodong Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkPermalinkClassification à très haute résolution (THR) spatiale et fusion d'occupation des sols (OCS) / Tristan Postadjian (2018)PermalinkClassification à très large échelle d'images satellite à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian (2018)PermalinkPermalinkConvolutional neural network for traffic signal inference based on GPS traces / Yann Méneroux (2018)PermalinkDecision fusion of SPOT6 and multitemporal Sentinel2 images for urban area detection / Cyril Wendl (2018)PermalinkDomain adaptation for large scale classification of very high resolution satellite images with deep convolutional neural networks / Tristan Postadjian (2018)PermalinkFrom Google Maps to a fine-grained catalog of street trees / Steve Branson in ISPRS Journal of photogrammetry and remote sensing, vol 135 (January 2018)PermalinkFusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl (2018)PermalinkPermalinkLearning multiscale deep features for high-resolution satellite image scene classification / Qingshan Liu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 1 (January 2018)PermalinkLocalisation par l'image en milieu urbain : application à la réalité augmentée / Antoine Fond (2018)PermalinkPermalinkPermalinkSuperpixel partitioning of very high resolution satellite images for large-scale classification perspectives with deep convolutional neural networks / Tristan Postadjian (2018)PermalinkSuperPoint Graph : segmentation sémantique de nuages de points LiDAR à grande échelle / Loïc Landrieu (2018)PermalinkToponym matching through deep neural networks / Rui Santos in International journal of geographical information science IJGIS, vol 32 n° 1-2 (January - February 2018)PermalinkComplex-valued convolutional neural network and its application in polarimetric SAR image classification / Zhimian Zhang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkHigh-resolution aerial image labeling with convolutional neural networks / Emmanuel Maggiori in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkMultilayer projective dictionary pair learning and sparse autoencoder for PolSAR image classification / Yanqiao Chen in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkPermalinkUnsupervised-restricted deconvolutional neural network for very high resolution remote-sensing image classification / Yiting Tao in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkHybrid image noise reduction algorithm based on genetic ant colony and PCNN / Chong Shen in The Visual Computer, vol 33 n° 11 (November 2017)PermalinkAtmospheric correction over coastal waters using multilayer neural networks / Yongzhen Fan in Remote sensing of environment, vol 199 (15 September 2017)PermalinkForest change detection in incomplete satellite images with deep neural networks / Salman H. Khan in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkRecurrent neural networks to correct satellite image classification maps / Emmanuel Maggiori in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkRemote sensing scene classification by unsupervised representation learning / Xiaoqiang Lu in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkSDE: A novel selective, discriminative and equalizing feature representation for visual recognition / Guo-Sen Xie in International journal of computer vision, vol 124 n° 2 (1 September 2017)PermalinkSIG et intelligence artificielle : quels développements et quel futur ? / Christian Carolin in Géomatique expert, n° 118 (septembre - octobre 2017)PermalinkLearning and transferring deep joint spectral–spatial features for hyperspectral classification / Jingxiang Yang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)PermalinkLearning sensor-specific spatial-spectral features of hyperspectral images via convolutional neural networks / Shaohui Mei in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)PermalinkA relative evaluation of random forests for land cover mapping in an urban area / Di Shi in Photogrammetric Engineering & Remote Sensing, PERS, vol 83 n° 8 (August 2017)PermalinkSimultaneous extraction of roads and buildings in remote sensing imagery with convolutional neural networks / Rasha Alshehhi in ISPRS Journal of photogrammetry and remote sensing, vol 130 (August 2017)PermalinkLearning to diversify deep belief networks for hyperspectral image classification / Ping Zhong in IEEE Transactions on geoscience and remote sensing, vol 55 n° 6 (June 2017)PermalinkInvestigating the potential of deep neural networks for large-scale classification of very high resolution satellite images / Tristan Postadjian in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-1/W1 (May 2017)PermalinkPermalinkPermalinkFusion of multi-temporal Sentinel-2 image series and very-high spatial resolution images for detection of urban areas / Cyril Wendl (2017)PermalinkPermalinkRéseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Damien Fourure (2017)PermalinkSVM et réseaux neuronaux convolutifs pour la classification de scènes urbaines / Amaury Zarzelli (2017)PermalinkUltra short-term prediction of pole coordinates via combination of empirical mode decomposition and neural networks / Yu Lei in Artificial satellites, vol 51 n° 4 (December 2016)PermalinkDeep feature extraction and classification of hyperspectral images based on convolutional neural networks / Yushi Chen in IEEE Transactions on geoscience and remote sensing, vol 54 n° 10 (October 2016)PermalinkA new ZTD model based on permanent ground-based GNSS-ZTD data / M. Ding in Survey review, vol 48 n° 351 (October 2016)PermalinkSea ice concentration estimation during melt from dual-pol SAR scenes using deep convolutional neural networks: a case study / Lei Wang in IEEE Transactions on geoscience and remote sensing, vol 54 n° 8 (August 2016)PermalinkModeling of ionosphere time series using wavelet neural networks (case study: N-W of Iran) / Mir Reza Ghaffari Razin in Advances in space research, vol 58 n° 1 (July 2016)PermalinkPermalink