Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond
apprentissage profond |
Documents disponibles dans cette catégorie (647)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Fusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl (2018)
Titre : Fusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine Type de document : Article/Communication Auteurs : Cyril Wendl, Auteur ; Arnaud Le Bris , Auteur ; Nesrine Chehata , Auteur ; Anne Puissant, Auteur ; Tristan Postadjian , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : GeoSud / Conférence : CFPT 2018, Conférence Française de Photogrammétrie et de Télédétection 25/06/2018 28/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] bati
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par réseau neuronal
[Termes IGN] classification pixellaire
[Termes IGN] extraction automatique
[Termes IGN] fusion d'images
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] occupation du sol
[Termes IGN] réseau neuronal convolutif
[Termes IGN] tachèle
[Termes IGN] zone urbaineRésumé : (auteur) La fusion d’images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d’images moins résolues spatialement mais comportant plus de bandes spectrales permet d’améliorer la classification de l’occupation du sol. Elle tire en effet le meilleur parti des points forts géométriques et sémantiques de ces deux sources. Ce travail s’intéresse à un processus d’extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications calculées respectivement à partir d’images satellitaires Sentinel-2 et SPOT-6/7. Ces deux sources sont d’abord classées indépendamment selon 5 classes, respectivement par forêts aléatoires et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d’extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire suivie d’une étape de régularisation spatiale intégrant un terme lié au contraste de l’image. Le résultat obtenu connaît ensuite une seconde fusion afin d’en déduire la tache urbaine : une mesure a priori de se trouver en zone urbaine est calculée à partir des objets bâtiments détectés précédemment et fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2. Numéro de notice : C2018-010 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 25/06/2018 En ligne : https://rfiap2018.ign.fr/sites/default/files/ARTICLES/CFPT2018/Oraux/CFPT2018_pa [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90381 Documents numériques
en open access
Fusion tardive d’images SPOT-6/7 - pdf éditeurAdobe Acrobat PDF
Titre : Introduction to Deep Learning : From Logical Calculus to Artificial Intelligence Type de document : Monographie Auteurs : Sandro Skansi, Auteur Editeur : Springer Nature Année de publication : 2018 Importance : 196 p. Format : 16 x 24 cm ISBN/ISSN/EAN : 978-3-319-73004-2 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage profond
[Termes IGN] classification
[Termes IGN] codage
[Termes IGN] estimation par noyau
[Termes IGN] matrice de covariance
[Termes IGN] Perceptron multicouche
[Termes IGN] Python (langage de programmation)
[Termes IGN] régression logistique
[Termes IGN] réseau neuronal artificiel
[Termes IGN] réseau neuronal convolutif
[Termes IGN] sciences cognitives
[Termes IGN] théorie des probabilitésRésumé : (auteur) This textbook presents a concise, accessible and engaging first introduction to deep learning, offering a wide range of connectionist models which represent the current state-of-the-art. The text explores the most popular algorithms and architectures in a simple and intuitive style, explaining the mathematical derivations in a step-by-step manner. The content coverage includes convolutional networks, LSTMs, Word2vec, RBMs, DBNs, neural Turing machines, memory networks and autoencoders. Numerous examples in working Python code are provided throughout the book, and the code is also supplied separately at an accompanying website.
Topics and features:
Introduces the fundamentals of machine learning, and the mathematical and computational prerequisites for deep learning
Discusses feed-forward neural networks, and explores the modifications to these which can be applied to any neural network
Examines convolutional neural networks, and the recurrent connections to a feed-forward neural network
Describes the notion of distributed representations, the concept of the autoencoder, and the ideas behind language processing with deep learning
Presents a brief history of artificial intelligence and neural networks, and reviews interesting
open research problems in deep learning and connectionism
This clearly written and lively primer on deep learning is essential reading for graduate and advanced undergraduate students of computer science, cognitive science and mathematics, as well as fields such as linguistics, logic, philosophy, and psychology.Note de contenu : 1- From Logic to Cognitive Science
2- Mathematical and Computational Prerequisites
3- Machine Learning Basics
4- Feedforward Neural Networks
5- Modifications and Extensions to a Feed-Forward Neural Network
6- Convolutional Neural Networks
7- Recurrent Neural Networks
8- Autoencoders
9- Neural Language Models
10- An Overview of Different Neural Network Architectures
11- ConclusionNuméro de notice : 25787 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE/MATHEMATIQUE Nature : Monographie En ligne : https://doi.org/10.1007/978-3-319-73004-2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94990 Learning multiscale deep features for high-resolution satellite image scene classification / Qingshan Liu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 1 (January 2018)
[article]
Titre : Learning multiscale deep features for high-resolution satellite image scene classification Type de document : Article/Communication Auteurs : Qingshan Liu, Auteur ; Renlong Hang, Auteur ; Huihui Song, Auteur ; Zhi Li, Auteur Année de publication : 2018 Article en page(s) : pp 117 - 126 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] classification
[Termes IGN] image satellite
[Termes IGN] méthode fondée sur le noyau
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) In this paper, we propose a multiscale deep feature learning method for high-resolution satellite image scene classification. Specifically, we first warp the original satellite image into multiple different scales. The images in each scale are employed to train a deep convolutional neural network (DCNN). However, simultaneously training multiple DCNNs is time-consuming. To address this issue, we explore DCNN with spatial pyramid pooling (SPP-net). Since different SPP-nets have the same number of parameters, which share the identical initial values, and only fine-tuning the parameters in fully connected layers ensures the effectiveness of each network, thereby greatly accelerating the training process. Then, the multiscale satellite images are fed into their corresponding SPP-nets, respectively, to extract multiscale deep features. Finally, a multiple kernel learning method is developed to automatically learn the optimal combination of such features. Experiments on two difficult data sets show that the proposed method achieves favorable performance compared with other state-of-the-art methods. Numéro de notice : A2018-185 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2743243 Date de publication en ligne : 13/09/2017 En ligne : https://doi.org/10.1109/TGRS.2017.2743243 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89842
in IEEE Transactions on geoscience and remote sensing > vol 56 n° 1 (January 2018) . - pp 117 - 126[article]Localisation d'objets urbains à partir de sources multiples dont des images aériennes / Lionel Pibre (2018)
Titre : Localisation d'objets urbains à partir de sources multiples dont des images aériennes Type de document : Thèse/HDR Auteurs : Lionel Pibre, Auteur ; Marc Chaumont, Auteur Editeur : Montpellier : Université de Montpellier Année de publication : 2018 Importance : 143 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le grade de Docteur de l'Université de Montpellier en InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] collectivité territoriale
[Termes IGN] diffusion de l'information
[Termes IGN] données multicapteurs
[Termes IGN] données multisources
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] fusion de données
[Termes IGN] image aérienne
[Termes IGN] reconnaissance d'objets
[Termes IGN] segmentation sémantique
[Termes IGN] séparateur à vaste marge
[Termes IGN] télédétection
[Termes IGN] urbanisme
[Termes IGN] zone urbaineIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Cette thèse aborde des problèmes liés à la localisation et la reconnaissance d’objets urbains dans des images multi-sources (optique, infrarouge, Modèle Numérique de Surface) de très haute précision acquises par voie aérienne.Les objets urbains (lampadaires, poteaux, voitures, arbres…) présentent des dimensions, des formes, des textures et des couleurs très variables. Ils peuvent être collés les uns les autres et sont de petite taille par rapport à la dimension d’une image. Ils sont présents en grand nombre mais peuvent être partiellement occultés. Tout ceci rend les objets urbains difficilement identifiables par les techniques actuelles de traitement d’images.Dans un premier temps, nous avons comparé les approches d’apprentissage classiques, composées de deux étapes - extraction de caractéristiques par le biais d’un descripteur prédéfini et utilisation d’un classifieur - aux approches d’apprentissage profond (Deep Learning), et plus précisément aux réseaux de neurones convolutionnels (CNN). Les CNN donnent de meilleurs résultats mais leurs performances ne sont pas suffisantes pour une utilisation industrielle. Nous avons donc proposé deux améliorations.Notre première contribution consiste à combiner de manière efficace les données provenant de sources différentes. Nous avons comparé une approche naïve qui consiste à considérer toutes les sources comme des composantes d’une image multidimensionnelle à une approche qui réalise la fusion des informations au sein même du CNN. Pour cela, nous avons traité les différentes informations dans des branches séparées du CNN. Nous avons ainsi montré que lorsque la base d’apprentissage contient peu de données, combiner intelligemment les sources dans une phase de pré-traitement (nous combinons l'optique et l'infrarouge pour créer une image NDVI) avant de les donner au CNN améliore les performances.Pour notre seconde contribution, nous nous sommes concentrés sur le problème des données incomplètes. Jusque-là, nous considérions que nous avions accès à toutes les sources pour chaque image mais nous pouvons aussi nous placer dans le cas où une source n’est pas disponible ou utilisable pour une image. Nous avons proposé une architecture permettant de prendre en compte toutes les données, même lorsqu’il manque une source sur une ou plusieurs images. Nous avons évalué notre architecture et montré que sur un scénario d’enrichissement, cette architecture permet d'obtenir un gain de plus de 2% sur la F-mesure.Les méthodes proposées ont été testées sur une base de données publique. Elles ont pour objectif d’être intégrées dans un logiciel de la société Berger-Levrault afin d’enrichir les bases de données géographiques et ainsi faciliter la gestion du territoire par les collectivités locales. Note de contenu : 1- Introduction
2- Etat de l'art
3- Comparaison entre des méthodes d’apprentissage automatique classiques et du deep learning
4- Fusion des données
5- Données incomplètes et réseau de neurones convolutionnels
6- Conclusions et perspectivesNuméro de notice : 25785 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Montpellier : 2018 Organisme de stage : Laboratoire d'informatique, de robotique et de micro-électronique (Montpellier) / société Berger-Levrault nature-HAL : Thèse DOI : sans En ligne : http://www.theses.fr/2018MONTS107 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94985 Localisation par l'image en milieu urbain : application à la réalité augmentée / Antoine Fond (2018)
Titre : Localisation par l'image en milieu urbain : application à la réalité augmentée Type de document : Thèse/HDR Auteurs : Antoine Fond, Auteur ; Marie-Odile Berger, Directeur de thèse Editeur : Nancy, Metz : Université de Lorraine Année de publication : 2018 Importance : 138 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée pour l'obtention du doctorat de l'Université de Lorraine, Ecole doctorale IAEM Lorraine, mention Informatique, 2018Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] appariement de formes
[Termes IGN] apprentissage profond
[Termes IGN] bati
[Termes IGN] détection du bâti
[Termes IGN] distance de Manhattan
[Termes IGN] estimation de pose
[Termes IGN] façade
[Termes IGN] orthorectification
[Termes IGN] plus proche voisin, algorithme du
[Termes IGN] point de fuite
[Termes IGN] réalité augmentée
[Termes IGN] recalage d'image
[Termes IGN] recalage de surfaces
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation d'image
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateur
[Termes IGN] zone urbaineIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Dans cette thèse, on aborde le problème de la localisation en milieux urbains. Inférer un positionnement précis en ville est important dans nombre d’applications comme la réalité augmentée ou la robotique mobile. Or les systèmes basés sur des capteurs inertiels (IMU) sont sujets à des dérives importantes et les données GPS peuvent souffrir d’un effet de vallée qui limite leur précision. Une solution naturelle est de s’appuyer le calcul de pose de caméra en vision par ordinateur. On remarque que les bâtiments sont les repères visuels principaux de l’humain, mais aussi des objets d’intérêt pour les applications de réalité augmentée. On cherche donc à partir d’une seule image à calculer la pose de la caméra par rapport à une base de données de bâtiments références connus. On décompose le problème en deux parties : trouver les références visibles dans l’image courante (reconnaissance de lieux) et calculer la pose de la caméra par rapport à eux. Les approches classiques de ces deux sous-problèmes sont mises en difficultés dans les environnements urbains à cause des forts effets perspectives, des répétitions fréquentes et de la similarité visuelle entre façades. Si des approches spécifiques à ces environnements ont été développés qui exploitent la grande régularité structurelle de tels milieux, elles souffrent encore d’un certain nombre de limitations autant pour la détection et la reconnaissance de façades que pour le calcul de pose par recalage de modèle. La méthode originale développée dans cette thèse s’inscrit dans ces approches spécifiques et vise à dépasser ces limitations en terme d’efficacité et de robustesse aux occultations, aux changements de points de vue et d’illumination. Pour cela, l’idée principale est de profiter des progrès récents de l’apprentissage profond par réseaux de neurones convolutionnels pour extraire de l’information de haut-niveau sur laquelle on peut baser des modèles géométriques. Notre approche est donc mixte Bottom-Up/Top-Down et se décompose en trois étapes clés. Nous proposons tout d’abord une méthode d’estimation de la rotation de la pose de caméra. Les 3 points de fuite principaux des images en milieux urbains, dits points de fuite de Manhattan sont détectés grâce à un réseau de neurones convolutionnels (CNN) qui fait à la fois une estimation de ces points de fuite, mais aussi une segmentation de l’image relativement à eux. Une second étape de raffinement utilise ces informations et les segments de l’image dans une formulation bayésienne pour estimer efficacement et plus précisément ces points. L’estimation de la rotation de la caméra permet de rectifier les images et ainsi s’affranchir des effets de perspectives pour la recherche de la translation. Dans une seconde contribution, nous visons ainsi à détecter les façades dans ces images rectifiées et à les reconnaître parmi une base de bâtiments connus afin d’estimer une translation grossière. Dans un souci d’efficacité, on a proposé une série d’indices basés sur des caractéristiques spécifiques aux façades (répétitions, symétrie, sémantique) qui permettent de sélectionner rapidement des candidats façades potentiels. Ensuite, ceux-ci sont classifiés en façade ou non selon un nouveau descripteur CNN contextuel. Enfin la mise en correspondance des façades détectées avec les références est opérée par un recherche au plus proche voisin relativement à une métrique apprise sur ces descripteurs [...] Note de contenu : Introduction
1 - Etat de l'art
2 - Estimation des points de fuite de Manhattan
3 - Proposition de façades pour la détection et la reconnaissance de bâtiments
4 - Segmentation et recalage de façade conjoint
ConclusionNuméro de notice : 21592 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Informatique : Université de Lorraine : 2018 Organisme de stage : IFSTTAR nature-HAL : Thèse DOI : sans En ligne : http://www.theses.fr/2018LORR0028 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90630 PermalinkOn the production of semantic and textured 3D meshes of large scale urban environments from mobile mapping images and LIDAR scans / Mohamed Boussaha (2018)PermalinkRéseaux de neurones convolutionnels profonds pour la détection de petits véhicules en imagerie aérienne / Jean Ogier du Terrail (2018)PermalinkPermalinkPermalinkSuperpixel partitioning of very high resolution satellite images for large-scale classification perspectives with deep convolutional neural networks / Tristan Postadjian (2018)PermalinkSuperPoint Graph : segmentation sémantique de nuages de points LiDAR à grande échelle / Loïc Landrieu (2018)PermalinkToponym matching through deep neural networks / Rui Santos in International journal of geographical information science IJGIS, vol 32 n° 1-2 (January - February 2018)PermalinkComplex-valued convolutional neural network and its application in polarimetric SAR image classification / Zhimian Zhang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)PermalinkDiscriminative feature learning for unsupervised change detection in heterogeneous images based on a coupled neural network / Wei Zhao in IEEE Transactions on geoscience and remote sensing, vol 55 n° 12 (December 2017)Permalink