Descripteur
Termes IGN > mathématiques > statistique mathématique > analyse de données > classification > classification par réseau neuronal > classification par réseau neuronal convolutif
classification par réseau neuronal convolutifVoir aussi |
Documents disponibles dans cette catégorie (380)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Use of satellite image classifications to update and enhance a land cover database / Mohamed Touiti (2018)
Titre : Use of satellite image classifications to update and enhance a land cover database Type de document : Mémoire Auteurs : Mohamed Touiti, Auteur ; Arnaud Le Bris , Encadrant Editeur : Tunis [Tunisie] : Ecole nationale d'ingénieurs de Carthage Année de publication : 2018 Importance : 90 p. Note générale : bibliographie
End of study project report, Software Engineering Training, Cycle Major : Information SystemsLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification dirigée
[Termes IGN] classification non dirigée
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de changement
[Termes IGN] fusion d'images
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] OpenCV
[Termes IGN] Python (langage de programmation)Résumé : (auteur) L’équipe MATIS du Laboratoire LaSTIG de l’Institut National de l’Information Géo graphique et Forestière (IGN) mène depuis plusieurs années des activités de recherches dans le domaine de la classification de données de télédétection pour l’occupation des sols (OCS), en zones urbaines et rurales. Avec l’arrivée des nouveaux capteurs Sentinel S1 (radar) et Sentinel S2 (optique), des séries temporelles d’images sont désormais disponibles gratuitement avec une forte résolution temporelle (entre 10 et 15 jours) et une forte résolution spectrale pour les images optiques. Par ailleurs, le territoire français fait également l’objet d’une couverture annuelle par des images à très haute résolution spatiale des satellites SPOT 6/7. Dans l’objectif de couvrir l’ensemble du territoire français par la cartographie de la couverture du sol à travers la classification sémantique des images de télédétection, ce stage a pour objectif de contribuer au processus de mise à jour des bases de données de couverture du sol et de fournir un outil fiable pour détecter les changements entre la base de données d’occupation du sol et les classifications d’images SPOT6 et Sentinel-2. Dans cette étude, nous avons implémenté et testé deux approches différentes pour la détection des changements, en utilisant la fusion et la régularisation des classifications individuelles des images satellites Sentinel-2 et SPOT-6. La fusion d’images multispectrales à très haute résolution spatiale avec des séries temporelles d’images à faible résolution spatiale avec un nombre élevé de bandes pourrait améliorer la classification de la couverture terrestre, en combinant les avantages géométriques et sémantiques des deux sources. La première approche est une approche non supervisée sur laquelle nous avons appliqué une classification non supervisée et une régularisation afin de lisser le bruit et de nous donner des résultats plus attrayants visuellement. Cela pourrait aussi donner une classification binaire (classe / pas de classe) alors nous nous sommes concentrés sur la classe "bâtiments", c’est la classe la plus fréquemment changée. Ainsi, nous avons obtenu une classification binaire des bâtiments/non-bâtiments considérés comme nos résultats et avons atteint une exhaustivité de 75% avec une exactitude proche de 70%, mais il existe une certaine confusion dans les zones surpeuplées. La seconde approche consiste en une approche supervisée dans laquelle nous avons utilisé un réseau de neurones convolutif pour détecter les changements. Ainsi, nous avons obtenu des résultats bien meilleurs, avec une précision de 94,95%, même si des améliorations de l’architecture pourraient être nécessaires pour obtenir des résultats satisfaisants. Note de contenu : General introduction
1- The general context
2- State of the art
3- Study areas ad data
4- Change detection
5- CNN for change detection
General conclusionNuméro de notice : 17320 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Mémoire ingénieur Organisme de stage : LaSTIG (IGN) DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98343 Documents numériques
peut être téléchargé
Use of satellite image classifications ... - pdf auteurAdobe Acrobat PDF Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Damien Fourure (2017)
Titre : Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur Type de document : Thèse/HDR Auteurs : Damien Fourure, Auteur ; Alain Trémeau, Directeur de thèse ; Christian Wolf, Directeur de thèse Editeur : Université de Lyon Année de publication : 2017 Autre Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Importance : 178 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Lyon opérée au sein de l’Université Jean Monnet de Saint-Étienne, Spécialité de doctorat : InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] architecture de réseau
[Termes IGN] chromatopsie
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] estimation de pose
[Termes IGN] intelligence artificielle
[Termes IGN] Perceptron multicouche
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) La vision par ordinateur est un domaine interdisciplinaire étudiant la manière dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d’images ou de vidéos numériques. En intelligence artificielle, et plus précisément en apprentissage automatique, domaine dans lequel se positionne cette thèse, la vision par ordinateur passe par l’extraction de caractéristiques présentes dans les images puis par la généralisation de concepts liés à ces caractéristiques. Ce domaine de recherche est devenu très populaire ces dernières années, notamment grâce aux résultats des réseaux de neurones convolutifs à la base des méthodes dites d’apprentissage profond. Aujourd’hui les réseaux de neurones permettent, entre autres, de reconnaître les différents objets présents dans une image, de générer des images très réalistes ou même de battre les champions au jeu de Go. Leurs performances ne s’arrêtent d’ailleurs pas au domaine de l’image puisqu’ils sont aussi utilisés dans d’autres domaines tels que le traitement du langage naturel (par exemple en traduction automatique) ou la reconnaissance de son. Dans cette thèse, nous étudions les réseaux de neurones convolutifs afin de développer des architectures et des fonctions de coûts spécialisées à des tâches aussi bien de bas niveau (la constance chromatique) que de haut niveau (la segmentation sémantique d’image). Une première contribution s’intéresse à la tâche de constance chromatique. En vision par ordinateur, l’approche principale consiste à estimer la couleur de l’illuminant puis à supprimer son impact sur la couleur perçue des objets. Les expériences que nous avons menées montrent que notre méthode permet d’obtenir des performances compétitives avec l’état de l’art. Néanmoins, notre architecture requiert une grande quantité de données d’entraînement. Afin de corriger en parti ce problème et d’améliorer l’entraînement des réseaux de neurones, nous présentons plusieurs techniques d’augmentation artificielle de données. Nous apportons également deux contributions sur une problématique de haut niveau : la segmentation sémantique d’image. Cette tâche, qui consiste à attribuer une classe sémantique à chacun des pixels d’une image, constitue un défi en vision par ordinateur de par sa complexité. D’une part, elle requiert de nombreux exemples d’entraînement dont les vérités terrains sont coûteuses à obtenir. D’autre part, elle nécessite l’adaptation des réseaux de neurones convolutifs traditionnels afin d’obtenir une prédiction dite dense, c’est-à-dire, une prédiction pour chacun pixel présent dans l’image d’entrée. Pour résoudre la difficulté liée à l’acquisition de données d’entrainements, nous proposons une approche qui exploite simultanément plusieurs bases de données annotées avec différentes étiquettes. Pour cela, nous définissons une fonction de coût sélective. Nous développons aussi une approche dites d’auto-contexte capturant d’avantage les corrélations existantes entre les étiquettes des différentes bases de données. Finalement, nous présentons notre troisième contribution : une nouvelle architecture de réseau de neurones convolutifs appelée GridNet spécialisée pour la segmentation sémantique d’image. Contrairement aux réseaux traditionnels, notre architecture est implémentée sous forme de grille 2D permettant à plusieurs flux interconnectés de fonctionner à différentes résolutions. Afin d’exploiter la totalité des chemins de la grille, nous proposons une technique d’entraînement inspirée du dropout. En outre, nous montrons empiriquement que notre architecture généralise de nombreux réseaux bien connus de l’état de l’art. Nous terminons par une analyse des résultats empiriques obtenus avec notre architecture qui, bien qu’entraînée avec une initialisation aléatoire des poids, révèle de très bonnes performances, dépassant les approches populaires souvent pré-entraînés. Note de contenu : 1- Introduction
2- Les réseaux de neurones convolutifs pour la vision par ordinateur
3- Sous-échantillonnage mixte appliqué à la constance chromatique
4- Segmentation sémantique d’images
5- Une fonction de coût sélective
6- GridNet, une architecture spécialisée pour la segmentation sémantique
7- Conclusion et PerspectivesNuméro de notice : 25838 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Spécialité : Informatique : Lyon : 2017 Organisme de stage : Université Jean Monnet de Saint-Étienne + LIRIS nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02111472/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95192 Single Image Super-Resolution based on Neural Networks for text and face recognition / Clément Peyrard (2017)
Titre : Single Image Super-Resolution based on Neural Networks for text and face recognition Type de document : Thèse/HDR Auteurs : Clément Peyrard, Auteur ; Christophe Garcia, Auteur Editeur : Université de Lyon Année de publication : 2017 Autre Editeur : Lyon : Institut National des Sciences Appliquées INSA Lyon Importance : 187 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Lyon opérée au sein de INSA de Lyon, discipline : InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] artefact
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection de visage
[Termes IGN] image à basse résolution
[Termes IGN] image à haute résolution
[Termes IGN] méthode fondée sur le noyau
[Termes IGN] reconnaissance automatique
[Termes IGN] reconnaissance de caractères
[Termes IGN] reconnaissance de formesIndex. décimale : THESE Thèses et HDR Résumé : (auteur) This thesis is focussed on super-resolution (SR) methods for improving automatic recognition system (Optical Character Recognition, face recognition) in realistic contexts. SR methods allow to generate high resolution images from low resolution ones. Unlike upsampling methods such as interpolation, they restore spatial high frequencies and compensate artefacts such as blur or jaggy edges. In particular, example-based approaches learn and model the relationship between low and high resolution spaces via pairs of low and high resolution images. Artificial Neural Networks are among the most efficient systems to address this problem. This work demonstrate the interest of SR methods based on neural networks for improved automatic recognition systems. By adapting the data, it is possible to train such Machine Learning algorithms to produce high-resolution images. Convolutional Neural Networks are especially efficient as they are trained to simultaneously extract relevant non-linear features while learning the mapping between low and high resolution spaces. On document text images, the proposed method improves OCR accuracy by +7.85 points compared with simple interpolation. The creation of an annotated image dataset and the organisation of an international competition (ICDAR2015) highlighted the interest and the relevance of such approaches. Moreover, if a priori knowledge is available, it can be used by a suitable network architecture. For facial images, face features are critical for automatic recognition. A two step method is proposed in which image resolution is first improved, followed by specialised models that focus on the essential features. An off-the-shelf face verification system has its performance improved from +6.91 up to +8.15 points. Finally, to address the variability of real-world low-resolution images, deep neural networks allow to absorb the diversity of the blurring kernels that characterise the low-resolution images. With a single model, high-resolution images are produced with natural image statistics, without any knowledge of the actual observation model of the low-resolution image. Note de contenu : 1- Introduction
2- Definitions and application domains
3- Literature review
4- Text single image super-resolution
5- Face single image super-resolution
6- Blind and robust super-resolution
7- ConclusionNuméro de notice : 25863 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Discipline : Informatique : Lyon 2017 Organisme de stage : LIRIS nature-HAL : Thèse DOI : sans En ligne : http://www.theses.fr/2017LYSEI083 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95506 Sparsity, redundancy and robustness in artificial neural networks for learning and memory / Philippe Tigréat (2017)
Titre : Sparsity, redundancy and robustness in artificial neural networks for learning and memory Type de document : Thèse/HDR Auteurs : Philippe Tigréat, Auteur ; Claude Berrou, Directeur de thèse Editeur : Institut Mines-Télécom Atlantique IMT Atlantique Année de publication : 2017 Autre Editeur : Université Bretagne Loire Importance : 150 P. Format : 21 x 30 cm Note générale : bibliographie
Thèse IMT Atlantique sous le sceau de l’Université Bretagne Loire pour obtenir le grade de Docteur, Signal, Image, VisionLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage (cognition)
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] codage
[Termes IGN] cognition
[Termes IGN] mémoire
[Termes IGN] reconnaissance de formes
[Termes IGN] stockage de donnéesIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The objective of research in Artificial Intelligence (AI) is to reproduce human cognitive abilities by means of modern computers. The results of the last few years seem to announce a technological revolution that could profoundly change society. We focus our interest on two fundamental cognitive aspects, learning and memory. Associative memories offer the possibility to store information elements and to retrieve them using a sub-part of their content, thus mimicking human memory. Deep Learning allows to transition from an analog perception of the outside world to a sparse and more compact representation.In Chapter 2, we present a neural associative memory model inspired by Willshaw networks, with constrained connectivity. This brings an performance improvement in message retrieval and a more efficient storage of information.In Chapter 3, a convolutional architecture was applied on a task of reading partially displayed words under similar conditions as in a former psychology study on human subjects. This experiment put inevidence the similarities in behavior of the network with the human subjects regarding various properties of the display of words.Chapter 4 introduces a new method for representing categories usingneuron assemblies in deep networks. For problems with a large number of classes, this allows to reduce significantly the dimensions of a network.Chapter 5 describes a method for interfacing deep unsupervised networks with clique-based associative memories. Note de contenu : 1- Introduction
2- Sparse Neural Associative Memories
3- Robustness of Deep Neural Networks to Erasures in a Reading Task
4- Assembly Output Codes for Learning Neural Networks
5- Combination of Unsupervised Learning and Associative Memory
6- Conclusion and OpeningsNuméro de notice : 25836 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE/MATHEMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Signal, Image, Vision : Mines-Télécom Atlantique : 2017 Organisme de stage : Laboratoire Labsticc nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-01812053 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95178
Titre : Vision-based detection of aircrafts and UAVs Type de document : Thèse/HDR Auteurs : Artem Rozantsev, Auteur ; Pascal Fua, Directeur de thèse ; Vincent Lepetit, Directeur de thèse Editeur : Lausanne : Ecole Polytechnique Fédérale de Lausanne EPFL Année de publication : 2017 Importance : 117 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée à l'Ecole Polytechnique Fédérale de Lausanne pour l'obtention du grade de Docteur ès SciencesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Télédétection
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] cube espace-temps
[Termes IGN] détection d'objet
[Termes IGN] drone
[Termes IGN] image aérienne
[Termes IGN] objet mobile
[Termes IGN] régression
[Termes IGN] vision par ordinateurRésumé : (auteur) Unmanned Aerial Vehicles are becoming increasingly popular for a broad variety of tasks ranging from aerial imagery to objects delivery. With the expansion of the areas, where drones can be efficiently used, the collision risk with other flying objects increases. Avoiding such collisions would be a relatively easy task, if all the aircrafts in the neighboring airspace could communicate with each other and share their location information. However, it is often the case that either location information is unavailable (e.g. flying in GPS-denied environments) or communication is not possible (e.g. different communication channels or non-cooperative flight scenario). To ensure
flight safety in this kind of situations drones need a way to autonomously detect other objects that are intruding the neighboring airspace. Visual-based collision avoidance is of particular interest as cameras generally consume less power and are more lightweight than active sensor alternatives such as radars and lasers. We have therefore developed a set of increasingly sophisticated algorithms to provide drones with a visual collision avoidance capability. First, we present a novel method for detecting flying objects such as drones and planes that occupy a small part of the camera field of view, possibly move in front of complex backgrounds, and are filmed by a moving camera. In order to be solved this problem requires combining motion and appearance information, as neither of the two alone is capable of providing reliable
enough detections. We therefore propose a machine learning technique that operates on spatiotemporal cubes of image intensities where individual patches are aligned using an object-centric regression-based motion stabilization algorithm. Second, in order to reduce the need to collect a large training dataset and to manual annotate it, we introduce a way to generate realistic synthetic images. Given only a small set of real examples and a coarse 3D model of the object, synthetic data can be generated in arbitrary quantities and further used to supplement real examples for training a detector. The key ingredient of our method is that the synthetically generated images need to be as close as possible to the real ones not in terms of image quality, but according to the features, used by a machine learning algorithm. Third, though the aforementioned approach yields a substantial increase in performance when using Adaboost and DPM detectors, it does not generalize well to Convolutional Neural Networks, which have become the state-of-the-art. This happens because, as we add more and more synthetic data, the CNNs begin to overfit to the synthetic images at the expense of the real ones. We therefore propose a novel deep domain adaptation technique that allows efficiently combining real and synthetic images without overfitting to either of the two. While most of the adaptation techniques aim at learning features that are invariant to the possible difference of the images, coming from different sources (real and synthetic). Unlike those methods, we suggest modeling this difference with a special two-stream architecture. We evaluate our approach on three different
datasets and show its effectiveness for various classification and regression tasks.Note de contenu : Introduction
1- Flying Objects Detection
2- Synthetic Data Generation
3- Domain Adaption for Deep Networks
4- Concluding RemarksNuméro de notice : 25870 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : Thèse de Doctorat : Sciences : Lausanne : Suisse : 2017 En ligne : https://infoscience.epfl.ch/record/227934?ln=fr Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95538