Détail de l'éditeur
Université Jean-Monnet-Saint-Etienne
localisé à :
Saint-Etienne
|
Documents disponibles chez cet éditeur (4)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image / Maxime Vitter (2018)
Titre : Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image Type de document : Thèse/HDR Auteurs : Maxime Vitter, Auteur ; Bernard Etlicher, Directeur de thèse ; Christine Jacqueminet, Directeur de thèse Editeur : Université de Lyon Année de publication : 2018 Autre Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Importance : 313 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Lyon préparée au sein de l'Université Jean Monnet de Saint-Etienne, GéographieLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] base de données d'occupation du sol
[Termes IGN] carte d'occupation du sol
[Termes IGN] Corine Land Cover
[Termes IGN] eCognition
[Termes IGN] formatage
[Termes IGN] image à très haute résolution
[Termes IGN] mosaïque d'images
[Termes IGN] photo-interprétation
[Termes IGN] photo-interprétation assistée par ordinateur
[Termes IGN] recherche et développement
[Termes IGN] segmentation d'imageIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale. Note de contenu : Introduction générale
Première partie- Les enjeux de production de la cartographie d’occupation du sol à grande échelle en France
Deuxième partie- Optimiser l’exercice de photo-interprétation
Troisième partie- Productivité de la photo-interprétation assistée par segmentation d’image
Conclusion généraleNuméro de notice : 25839 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Géographie : Université de Lyon : 2018 Organisme de stage : ASCONIT nature-HAL : Thèse DOI : sans En ligne : https://tel.hal.science/tel-02094240 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95200 Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Damien Fourure (2017)
Titre : Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur Type de document : Thèse/HDR Auteurs : Damien Fourure, Auteur ; Alain Trémeau, Directeur de thèse ; Christian Wolf, Directeur de thèse Editeur : Université de Lyon Année de publication : 2017 Autre Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Importance : 178 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Lyon opérée au sein de l’Université Jean Monnet de Saint-Étienne, Spécialité de doctorat : InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] architecture de réseau
[Termes IGN] chromatopsie
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] estimation de pose
[Termes IGN] intelligence artificielle
[Termes IGN] Perceptron multicouche
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) La vision par ordinateur est un domaine interdisciplinaire étudiant la manière dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d’images ou de vidéos numériques. En intelligence artificielle, et plus précisément en apprentissage automatique, domaine dans lequel se positionne cette thèse, la vision par ordinateur passe par l’extraction de caractéristiques présentes dans les images puis par la généralisation de concepts liés à ces caractéristiques. Ce domaine de recherche est devenu très populaire ces dernières années, notamment grâce aux résultats des réseaux de neurones convolutifs à la base des méthodes dites d’apprentissage profond. Aujourd’hui les réseaux de neurones permettent, entre autres, de reconnaître les différents objets présents dans une image, de générer des images très réalistes ou même de battre les champions au jeu de Go. Leurs performances ne s’arrêtent d’ailleurs pas au domaine de l’image puisqu’ils sont aussi utilisés dans d’autres domaines tels que le traitement du langage naturel (par exemple en traduction automatique) ou la reconnaissance de son. Dans cette thèse, nous étudions les réseaux de neurones convolutifs afin de développer des architectures et des fonctions de coûts spécialisées à des tâches aussi bien de bas niveau (la constance chromatique) que de haut niveau (la segmentation sémantique d’image). Une première contribution s’intéresse à la tâche de constance chromatique. En vision par ordinateur, l’approche principale consiste à estimer la couleur de l’illuminant puis à supprimer son impact sur la couleur perçue des objets. Les expériences que nous avons menées montrent que notre méthode permet d’obtenir des performances compétitives avec l’état de l’art. Néanmoins, notre architecture requiert une grande quantité de données d’entraînement. Afin de corriger en parti ce problème et d’améliorer l’entraînement des réseaux de neurones, nous présentons plusieurs techniques d’augmentation artificielle de données. Nous apportons également deux contributions sur une problématique de haut niveau : la segmentation sémantique d’image. Cette tâche, qui consiste à attribuer une classe sémantique à chacun des pixels d’une image, constitue un défi en vision par ordinateur de par sa complexité. D’une part, elle requiert de nombreux exemples d’entraînement dont les vérités terrains sont coûteuses à obtenir. D’autre part, elle nécessite l’adaptation des réseaux de neurones convolutifs traditionnels afin d’obtenir une prédiction dite dense, c’est-à-dire, une prédiction pour chacun pixel présent dans l’image d’entrée. Pour résoudre la difficulté liée à l’acquisition de données d’entrainements, nous proposons une approche qui exploite simultanément plusieurs bases de données annotées avec différentes étiquettes. Pour cela, nous définissons une fonction de coût sélective. Nous développons aussi une approche dites d’auto-contexte capturant d’avantage les corrélations existantes entre les étiquettes des différentes bases de données. Finalement, nous présentons notre troisième contribution : une nouvelle architecture de réseau de neurones convolutifs appelée GridNet spécialisée pour la segmentation sémantique d’image. Contrairement aux réseaux traditionnels, notre architecture est implémentée sous forme de grille 2D permettant à plusieurs flux interconnectés de fonctionner à différentes résolutions. Afin d’exploiter la totalité des chemins de la grille, nous proposons une technique d’entraînement inspirée du dropout. En outre, nous montrons empiriquement que notre architecture généralise de nombreux réseaux bien connus de l’état de l’art. Nous terminons par une analyse des résultats empiriques obtenus avec notre architecture qui, bien qu’entraînée avec une initialisation aléatoire des poids, révèle de très bonnes performances, dépassant les approches populaires souvent pré-entraînés. Note de contenu : 1- Introduction
2- Les réseaux de neurones convolutifs pour la vision par ordinateur
3- Sous-échantillonnage mixte appliqué à la constance chromatique
4- Segmentation sémantique d’images
5- Une fonction de coût sélective
6- GridNet, une architecture spécialisée pour la segmentation sémantique
7- Conclusion et PerspectivesNuméro de notice : 25838 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Spécialité : Informatique : Lyon : 2017 Organisme de stage : Université Jean Monnet de Saint-Étienne + LIRIS nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02111472/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95192 Un outil de représentation générique de l'espace pour l'étude des risques naturels / Vincent Cligniez (1998)
Titre : Un outil de représentation générique de l'espace pour l'étude des risques naturels Type de document : Thèse/HDR Auteurs : Vincent Cligniez, Auteur ; René-Michel Faure, Directeur de thèse Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Année de publication : 1998 Importance : 149 p. Format : 21 x 30 cm Note générale : Bibliographie
thèse pour obtenir le titre de docteur de l'université Jean Monnet - Saint Etienne, spécialité informatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Systèmes d'information géographique
[Termes IGN] géomètrie algorithmique
[Termes IGN] manipulation dynamique de données
[Termes IGN] modèle de simulation
[Termes IGN] modèle orienté objet
[Termes IGN] objet géographique
[Termes IGN] risque naturel
[Termes IGN] système à base de connaissances
[Termes IGN] système d'information géographiqueIndex. décimale : THESE Thèses et HDR Résumé : (auteur) L'application de modèles de simulation de risques naturels se heurte souvent au problème de représentation du terrain. En effet, chaque programme de simulation nécessite une représentation spatiale avec des caractéristiques particulières, notamment sur l'organisation et la forme des entités géométriques utilisées. Les données généralement disponibles, comme les cartes digitalisées ou les modèles numériques de terrain, ne se révèlent souvent utilisables qu'avec un traitement de l'information spatiale pour satisfaire les besoins des modèles de simulation. S'appuyant sur ces besoins rencontrés dans divers outils de modélisation et de simulation de risques naturels, une structure générique de données spatiales est proposée ici dans le but de résoudre ce problème de représentation spatiale lors de la construction d'une nouvelle application. Cette structure informatique met en œuvre les techniques classiques proposées par les outils couramment employés pour représenter un terrain, comme les Systèmes d'Information Géographique (SIG) ou les logiciels de maillage. Elle est principalement composée d'un noyau d'objets, accompagne des méthodes d'extraction de polygones et de triangulation permettant d'engendrer la connaissance spatiale nécessaire à l'application des modèles. Un prototype, appelé Aide à la Représentation Spatiale pour l'Environnement (ARSEN), a été développé sous forme de librairie C++ et appliqué à deux phénomènes particuliers, les chutes de blocs et les avalanches, ainsi qu'à la représentation de risque et à la perturbation de modèles de terrain. Note de contenu : Introduction
1. La problématique spatiale des modèles de simulation de risques naturels
2. Les outils informatiques pour les représentations et les manipulations de données spatiales
3. Un système de représentation générique de l'espace par objets à différents niveaux de pertinence
4. ARSEN : outil générique d'Aide à la Représentation Spatiale pour l’ENvironnement
5. Application à deux risques naturels particuliers et à des études plus globales
Conclusion et perspectivesNuméro de notice : 19329 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de doctorat : Informatique : Saint-Étienne : 1998 nature-HAL : Thèse DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=81910 Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 19329-01 THESE Livre Centre de documentation Thèses Disponible Triangulation de Delaunay et arbres multidimensionnels / Christophe Lemaire (1997)
Titre : Triangulation de Delaunay et arbres multidimensionnels Type de document : Thèse/HDR Auteurs : Christophe Lemaire, Auteur Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Année de publication : 1997 Importance : 208 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Algorithmique
[Termes IGN] arbre (mathématique)
[Termes IGN] arbre k-d
[Termes IGN] arbre quadratique
[Termes IGN] complexité
[Termes IGN] diagramme de Voronoï
[Termes IGN] géomètrie algorithmique
[Termes IGN] triangulation de DelaunayIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les travaux effectués lors de cette thèse concernent principalement la triangulation de Delaunay. On montre que la complexité en moyenne - en termes de sites inachevés - du processus de fusion multidimensionnelle dans l'hypothèse de distribution quasi-uniforme dans un hypercube est linéaire en moyenne. Ce résultat général est appliqué au cas du plan et permet d'analyser de nouveaux algorithmes de triangulation de Delaunay plus performants que ceux connus à ce jour. Le principe sous-jacent est de diviser le domaine selon des arbres bidimensionnels (quadtree, 2d-tree, bucket-tree …), puis de fusionner les cellules obtenues selon deux directions. On étudie actuellement la prise en compte de contraintes directement pendant la phase de triangulation avec des algorithmes de ce type. De nouveaux algorithmes pratiques de localisation dans une triangulation sont proposés, basés sur la randomisation à partir d'un arbre binaire de recherche dynamique de type AVL, dont l'un est plus rapide que l'algorithme optimal de. Kirkpatrick, au moins jusqu'à 12 millions de sites ! Nous travaillons actuellement sur l'analyse rigoureuse de leur complexité en moyenne. Ce nouvel algorithme est utilisé pour construire "en-ligne" une triangulation de Delaunay qui est parmi les plus performantes des méthodes "en-ligne" connues à ce jour. Numéro de notice : 17244 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/INFORMATIQUE/MATHEMATIQUE Nature : Thèse française Note de thèse : thèse de doctorat : Informatique : Saint-Etienne : 1997 Organisme de stage : SETRA nature-HAL : Thèse DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=81629 Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 17244-01 THESE Livre Centre de documentation Thèses Disponible