Descripteur
Documents disponibles dans cette catégorie (356)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
A light and faster regional convolutional neural network for object detection in optical remote sensing images / Peng Ding in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : A light and faster regional convolutional neural network for object detection in optical remote sensing images Type de document : Article/Communication Auteurs : Peng Ding, Auteur ; Ye Zhang, Auteur ; Wei-Jian Deng, Auteur ; Ping Jia, Auteur ; Arjan Kuijper, Auteur Année de publication : 2018 Article en page(s) : pp 208 - 218 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification orientée objet
[Termes IGN] détection d'objet
[Termes IGN] image aérienne
[Termes IGN] image terrestre
[Termes IGN] représentation multiple
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Detection of objects from satellite optical remote sensing images is very important for many commercial and governmental applications. With the development of deep convolutional neural networks (deep CNNs), the field of object detection has seen tremendous advances. Currently, objects in satellite remote sensing images can be detected using deep CNNs. In general, optical remote sensing images contain many dense and small objects, and the use of the original Faster Regional CNN framework does not yield a suitably high precision. Therefore, after careful analysis we adopt dense convoluted networks, a multi-scale representation and various combinations of improvement schemes to enhance the structure of the base VGG16-Net for improving the precision. We propose an approach to reduce the test-time (detection time) and memory requirements. To validate the effectiveness of our approach, we perform experiments using satellite remote sensing image datasets of aircraft and automobiles. The results show that the improved network structure can detect objects in satellite optical remote sensing images more accurately and efficiently. Numéro de notice : A2018-288 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.05.005 Date de publication en ligne : 14/05/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.05.005 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90403
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 208 - 218[article]Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt Application of deep learning for object detection / Ajeet Ram Pathak in Procedia Computer Science, vol 132 (2018)
[article]
Titre : Application of deep learning for object detection Type de document : Article/Communication Auteurs : Ajeet Ram Pathak, Auteur ; Manjusha Pandey, Auteur ; Siddharth Rautaray, Auteur Année de publication : 2018 Article en page(s) : pp 1706 - 1717 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] état de l'art
[Termes IGN] réseau neuronal convolutif
[Termes IGN] vision par ordinateurRésumé : (auteur) The ubiquitous and wide applications like scene understanding, video surveillance, robotics, and self-driving systems triggered vast research in the domain of computer vision in the most recent decade. Being the core of all these applications, visual recognition systems which encompasses image classification, localization and detection have achieved great research momentum. Due to significant development in neural networks especially deep learning, these visual recognition systems have attained remarkable performance. Object detection is one of these domains witnessing great success in computer vision. This paper demystifies the role of deep learning techniques based on convolutional neural network for object detection. Deep learning frameworks and services available for object detection are also enunciated. Deep learning techniques for state-of-the-art object detection systems are assessed in this paper. Numéro de notice : A2018-585 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.procs.2018.05.144 Date de publication en ligne : 08/06/2018 En ligne : https://www.sciencedirect.com/science/article/pii/S1877050918308767 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92435
in Procedia Computer Science > vol 132 (2018) . - pp 1706 - 1717[article]Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs / Tristan Postadjian in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
[article]
Titre : Classification à très large échelle d’images satellites à très haute résolution spatiale par réseaux de neurones convolutifs Type de document : Article/Communication Auteurs : Tristan Postadjian , Auteur ; Arnaud Le Bris , Auteur ; Hichem Sahbi, Auteur ; Clément Mallet , Auteur Année de publication : 2018 Projets : 1-Pas de projet / Article en page(s) : pp 73 - 86 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] base de données localisées
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal
[Termes IGN] image à très haute résolution
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Les algorithmes de classification supervisée d'images satellites constituent un outil fondamental pour le calcul de cartes d'occupation des sols, à toutes les résolutions spatiales existantes. Ils ont permis d'établir la télédétection comme moyen le plus fiable pour la génération de ces cartes. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris l'interprétation d'images aériennes et satellites. Le travail présenté dans cet article établit une stratégie quant à l'utilisation d'un réseau de neurone convolutifs pour la classification d'images satellites à très haute résolution spatiale (à savoir SPOT 6/7), couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays. Numéro de notice : A2018-514 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2018.418 Date de publication en ligne : 21/09/2018 En ligne : https://doi.org/10.52638/rfpt.2018.418 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91268
in Revue Française de Photogrammétrie et de Télédétection > n° 217-218 (juin - septembre 2018) . - pp 73 - 86[article]Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl in Revue Française de Photogrammétrie et de Télédétection, n° 217-218 (juin - septembre 2018)
[article]
Titre : Fusion tardive d’images SPOT 6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine Type de document : Article/Communication Auteurs : Cyril Wendl, Auteur ; Arnaud Le Bris , Auteur ; Nesrine Chehata , Auteur ; Anne Puissant, Auteur ; Tristan Postadjian , Auteur Année de publication : 2018 Projets : GeoSud / Article en page(s) : pp 87 - 97 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par réseau neuronal
[Termes IGN] classification pixellaire
[Termes IGN] contraste local
[Termes IGN] détection du bâti
[Termes IGN] fusion d'images
[Termes IGN] image multibande
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] régularisation
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation d'image
[Termes IGN] surface imperméableRésumé : (auteur) La fusion d'images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d'images moins résolues spatialement mais comportant plus de bandes spectrales permet d'améliorer la classification de l'occupation du sol. Elle permet en effet de tirer le meilleur parti des points forts, respectivement, géométriques et sémantiques de ces deux sources. Le travail proposé ici s'intéresse à un processus d'extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications obtenues respectivement à partir d'images satellitaires Sentinel-2 et SPOT 6/7. Ces deux sources sont d'abord analysées indépendamment selon 5 classes, respectivement par Forêt Aléatoire et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d'extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire, suivie d'une étape de régularisation spatiale intégrant un terme lié au contraste de l'image. Le résultat obtenu connaît ensuite une seconde fusion afin d'en déduire la-tache urbaine en elle-même : une mesure a priori de zone urbaine est calculée à partir des objets bâtiments détectés au préalable, puis fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2. Les résultats montrent bien la complémentarité des deux sources de données ainsi que la pertinence de l'adoption d'une stratégie de fusion tardive. Numéro de notice : A2018-512 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2018.415 En ligne : https://doi.org/10.52638/rfpt.2018.415 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91266
in Revue Française de Photogrammétrie et de Télédétection > n° 217-218 (juin - septembre 2018) . - pp 87 - 97[article]Classifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network / Ruibin Zhao in International journal of geographical information science IJGIS, vol 32 n° 5-6 (May - June 2018)
[article]
Titre : Classifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network Type de document : Article/Communication Auteurs : Ruibin Zhao, Auteur ; Mingyong Pang, Auteur ; Jidong Wang, Auteur Année de publication : 2018 Article en page(s) : pp 960 - 979 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] classification
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] régression
[Termes IGN] réseau neuronal convolutif
[Termes IGN] semis de pointsRésumé : (Auteur) Point cloud classification plays a critical role in many applications of airborne light detection and ranging (LiDAR) data. In this paper, we present a deep feature-based method for accurately classifying multiple ground objects from airborne LiDAR point clouds. With several selected attributes of LiDAR point clouds, our method first creates a group of multi-scale contextual images for each point in the data using interpolation. Taking the contextual images as inputs, a multi-scale convolutional neural network (MCNN) is then designed and trained to learn the deep features of LiDAR points across various scales. A softmax regression classifier (SRC) is finally employed to generate classification results of the data with a combination of the deep features learned from various scales. Compared with most of traditional classification methods, which often require users to manually define a group of complex discriminant rules or extract a set of classification features, the proposed method has the ability to automatically learn the deep features and generate more accurate classification results. The performance of our method is evaluated qualitatively and quantitatively using the International Society for Photogrammetry and Remote Sensing benchmark dataset, and the experimental results indicate that our method can effectively distinguish eight types of ground objects, including low vegetation, impervious surface, car, fence/hedge, roof, facade, shrub and tree, and achieves a higher accuracy than other existing methods. Numéro de notice : A2018-196 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/13658816.2018.1431840 Date de publication en ligne : 15/02/2018 En ligne : https://doi.org/10.1080/13658816.2018.1431840 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89861
in International journal of geographical information science IJGIS > vol 32 n° 5-6 (May - June 2018) . - pp 960 - 979[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 079-2018031 RAB Revue Centre de documentation En réserve L003 Disponible Deep convolutional neural network training enrichment using multi-view object-based analysis of Unmanned Aerial systems imagery for wetlands classification / Tao Liu in ISPRS Journal of photogrammetry and remote sensing, vol 139 (May 2018)PermalinkDo semantic parts emerge in convolutional neural networks? / Abel Gonzalez-Garcia in International journal of computer vision, vol 126 n° 5 (May 2018)PermalinkLarge-scale supervised learning for 3D Point cloud labeling : Semantic3d.Net / Timo Hackel in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 5 (mai 2018)PermalinkBinary patterns encoded convolutional neural networks for texture recognition and remote sensing scene classification / Rama Rao Nidamanuri in ISPRS Journal of photogrammetry and remote sensing, vol 138 (April 2018)PermalinkCrowdsourcing the character of a place : Character‐level convolutional networks for multilingual geographic text classification / Benjamin Adams in Transactions in GIS, vol 22 n° 2 (April 2018)PermalinkSimilarity measurement of metadata of geospatial data : an artificial neural network approach / Zugang Chen in ISPRS International journal of geo-information, vol 7 n° 3 (March 2018)PermalinkFine-grained object recognition and zero-shot learning in remote sensing imagery / Gencer Sumbul in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkMultisource remote sensing data classification based on convolutional neural network / Xiaodong Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)PermalinkPermalinkClassification à très haute résolution (THR) spatiale et fusion d'occupation des sols (OCS) / Tristan Postadjian (2018)Permalink