Descripteur
Documents disponibles dans cette catégorie (2616)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Détection de changement d’occupation du sol à l’aide de données Sentinel en contexte tropical / Lucas Martelet (2021)
![]()
Titre : Détection de changement d’occupation du sol à l’aide de données Sentinel en contexte tropical Type de document : Mémoire Auteurs : Lucas Martelet, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2021 Importance : 57 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de fin d'étude, cycle des Ingénieurs diplômés de l’ENSG 3ème année, Information Géographique, Analyse Spatiale et TélédétectionLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] analyse comparative
[Termes IGN] analyse diachronique
[Termes IGN] changement d'occupation du sol
[Termes IGN] dégradation de la flore
[Termes IGN] détection de changement
[Termes IGN] forêt tropicale
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Sentinel-SAR
[Termes IGN] milieu tropicalIndex. décimale : IGAST Mémoires du Master Information Géographique, Analyse Spatiale et Télédétection Résumé : (Auteur) Avec l’accessibilité facilité de données satellites optique et radar et l’augmentation du dynamisme de changement d’occupation du sol d’origine entropique, les méthodes de détection automatique de changement d’occupation du sol sont de plus en plus étudiées. Ce rapport présente un état de l’art de la diversité des méthodes existantes pour ce type de détection appliquée à la dégradation forestière en milieu tropicale. Trois des méthodes présentées sont ensuite adaptées pour tenir compte des classes d’occupation recherchées et des données disponibles et utilisées sur une zone d’exploitation forestière en Amazonie. Note de contenu :
Introduction
1. SITE D’ETUDES ET DONNEES UTILISEES
1.1 Site d’étude
1.2 Données
2. TOUR D’HORIZON DES METHODES EXISTANTES
2.1 Méthodes de détection par comparaison de produit finaux
2.2 Méthodes de détection par analyse multi-temporelle
3. TRAITEMENTS ET METHODES
3.1 Traitements
3.2 Méthodes de détection des changements
4. RESULTATS
4.1 Données S1
4.2 Segmentation SLIC
4.3 Détection par classification de changement
4.4 Détection des par analyse de vecteur de changement
4.5 Détection avec la méthode LF
4.6 Approche bi-échelle
4.7 Recommandations
ConclusionNuméro de notice : 26688 Affiliation des auteurs : IGN (2020- ) Thématique : FORET/IMAGERIE Nature : Mémoire de fin d'études IT Organisme de stage : Office National des Forêts International ONFI Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99000 Documents numériques
peut être téléchargé
Détection de changement d’occupation du sol à l’aide de données Sentinel... - pdf auteurAdobe Acrobat PDFDétection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)
![]()
Titre : Détection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu Type de document : Thèse/HDR Auteurs : Younes Zegaoui, Auteur ; Marc Chaumont, Directeur de thèse Editeur : Montpellier : Université de Montpellier Année de publication : 2021 Importance : 182 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée pour obtenir le grade de Docteur de l'Université de Montpellier, spécialité InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] classification dirigée
[Termes IGN] classification orientée objet
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] mobilier urbain
[Termes IGN] objet géographique urbain
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] zone urbaine denseIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Le développement des dispositifs d'acquisition LiDAR mobiles terrestres, montés sur véhicule ou drone, rendent possible la numérisation de villes entières sous la forme de nuages de points tridimensionnels géo-référencés. L'exploitation de ces données par les gestionnaires de ville permettent le recensement ainsi que le suivi au cours du temps des objets urbains qu'ils soient fixes (lampadaires, abribus…), mobiles (containers de poubelle) ou naturels (arbres) afin de pouvoir intervenir en cas de disparition, déplacement, détérioration ou de danger potentiel. Cette approche nécessite d'être en mesure de traiter des grands nuages pouvant compter plusieurs centaines de millions de points et réunir des milliers d'objets. Il devient donc nécessaire d'automatiser les traitements appliqués aux nuages de points afin de pouvoir extraire et classer automatiquement les éléments qui correspondent à des objets urbains. La diversité ainsi que le grand nombre d'objets urbains présents dans les villes sont un réel défi pour le développement d'approches automatisées. Dans cette thèse, nous explorons la piste récente de l'apprentissage profond appliqué aux données non structurées pour réaliser la localisation et la reconnaissance automatique d'objets urbains dans un nuage de points 3D. En s'inspirant des avancées récentes permises par le réseau PointNet, nous proposons de réaliser un apprentissage supervisé directement à partir des nuages de points sans passer par des transformations intermédiaires. Nous avons ainsi développé une architecture neuronale 3D que nous avons basée sur une couche originale permettant simultanément de regrouper des points et d'en extraire des caractéristiques. A partir de cette architecture, nous présentons les résultats que nous avons obtenues sur la tâche de détection d'objets urbains dans des nuages de points LiDAR obtenus dans des rues de grandes villes. Note de contenu : 1- Introduction
2- Etat de l’art
3- Architecture par clustering
4- Application à la détection d’objets en milieu urbain
5- Conclusion
6- PerspectivesNuméro de notice : 24108 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse de Doctorat : Informatique : Montpellier : 2021 Organisme de stage : Laboratoire LIRMM DOI : sans En ligne : https://tel.hal.science/tel-03589031/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100629
Titre : Developing graphics frameworks with Python and OpenGL Type de document : Guide/Manuel Auteurs : Lee Stemkoski, Auteur ; Michael Pascale, Auteur Editeur : Boca Raton, New York, ... : CRC Press Année de publication : 2021 Importance : 345 p. Format : 16 x 24 cm ISBN/ISSN/EAN : 978-1-00-318137-8 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Langages informatiques
[Termes IGN] image 3D
[Termes IGN] interface de programmation
[Termes IGN] OpenGL
[Termes IGN] processeur graphique
[Termes IGN] programmation informatique
[Termes IGN] Python (langage de programmation)
[Termes IGN] scène 3D
[Termes IGN] texture d'image
[Termes IGN] transformation géométriqueRésumé : (éditeur) Developing Graphics Frameworks with Python and OpenGL shows you how to create software for rendering complete three-dimensional scenes. The authors explain the foundational theoretical concepts as well as the practical programming techniques that will enable you to create your own animated and interactive computer-generated worlds. You will learn how to combine the power of OpenGL, the most widely adopted cross-platform API for GPU programming, with the accessibility and versatility of the Python programming language. Topics you will explore include generating geometric shapes, transforming objects with matrices, applying image-based textures to surfaces, and lighting your scene. Advanced sections explain how to implement procedurally generated textures, postprocessing effects, and shadow mapping. In addition to the sophisticated graphics framework you will develop throughout this book, with the foundational knowledge you will gain, you will be able to adapt and extend the framework to achieve even more spectacular graphical results. Note de contenu : 1- Introduction to computer graphics
2- Introduction to Pygame and OpenGL
3- Matrix algebra and transformations
4- A scene graph framework
5- Textures
6- Light and shadowNuméro de notice : 28306 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Manuel DOI : 10.1201/9781003181378 En ligne : https://doi.org/10.1201/9781003181378 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98077 Développement d’outils d’exploitation des archives photographiques aériennes de l’IGN pour caractériser l’évolution pluridécennale du littoral sur l’île de la Réunion / Adinane Oladjidé Ayichemi (2021)
![]()
Titre : Développement d’outils d’exploitation des archives photographiques aériennes de l’IGN pour caractériser l’évolution pluridécennale du littoral sur l’île de la Réunion Type de document : Mémoire Auteurs : Adinane Oladjidé Ayichemi, Auteur Editeur : Le Mans : Ecole Supérieure des Géomètres et Topographes ESGT Année de publication : 2021 Importance : 87 p. Format : 21 x 30 cm Note générale : Bibliographie
Mémoire présenté en vue d'obtenir le diplome d'Ingénieur CNAM Spécialité Géomètre et TopographeLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] catastrophe naturelle
[Termes IGN] détection de changement
[Termes IGN] géomorphologie locale
[Termes IGN] géoréférencement
[Termes IGN] image ancienne
[Termes IGN] modèle numérique de surface
[Termes IGN] orthoimage
[Termes IGN] photographie aérienne
[Termes IGN] prévention des risques
[Termes IGN] Réunion, île de la
[Termes IGN] risque naturel
[Termes IGN] superposition d'imagesIndex. décimale : ESGT Mémoires d'ingénieurs de l'ESGT Résumé : (auteur) Pour anticiper l’ampleur des futures catastrophes naturelles, il est courant de revisiter les changements morphologiques liés aux événements passés enregistrés. La Réunion est une île très exposée aux risques naturels majeurs, notamment les cyclones et les mouvements de terrain, qui perturbent sa vie sociale et économique. Les photographies aériennes historiques offrent aujourd’hui une opportunité pour suivre et décrire l’évolution du paysage grâce à la photogrammétrique moderne. Nous exploitons les archives disponibles pour créer et analyser des modèles numériques de surface en vue de quantifier les effets cycloniques dans la rivière des Galets à la Réunion. Dans ce processus de chasse aux changements locaux, un enregistrement robuste des séquences de campagne et un géoréférencement précis sont des facteurs limitatifs clés. Le co-alignement des photographiques issues de deux différentes missions encadrant un cyclone est effectué afin de limiter les erreurs liées à la distorsion des modèles générés lorsqu’ils seront comparés. À l’aide de la carte des zones stéréo-optimales des missions, que nous avons créée, les régions les plus prioritaires ont été repérées pour identifiés des détails topographiques persistants. Ces détails sont relevés par GNSS pour géoréférencer nos modèles. Une évaluation de la qualité des modèles créés est effectuée afin de garantir dans quelle mesure ils sont exploitables pour détecter des changements morphologiques dans la zone d’intérêt. Note de contenu : 1- Contexte scientifique
2- Rapatriement des données brutes
3- Préparation des données nécessaires pour le calcul photogrammétrique
4- Création des MNS et orthophtos
ConclusionNuméro de notice : 28696 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire ingénieur ESGT Organisme de stage : Bureau de recherches géologiques et minières BRGM En ligne : https://dumas.ccsd.cnrs.fr/MEMOIRES-CNAM/dumas-03526338v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100467
Titre : Dynamic scene understanding using deep neural networks Type de document : Thèse/HDR Auteurs : Ye Lyu, Auteur ; M. George Vosselman, Directeur de thèse ; Michael Ying Yang, Directeur de thèse Editeur : Enschede [Pays-Bas] : International Institute for Geo-Information Science and Earth Observation ITC Année de publication : 2021 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] attention (apprentissage automatique)
[Termes IGN] chaîne de traitement
[Termes IGN] champ aléatoire conditionnel
[Termes IGN] compréhension de l'image
[Termes IGN] détection d'objet
[Termes IGN] image captée par drone
[Termes IGN] image vidéo
[Termes IGN] poursuite de cible
[Termes IGN] régression
[Termes IGN] segmentation sémantiqueRésumé : (auteur) Scene understanding is an important and fundamental research field in computer vision, which is quite useful for many applications in photogrammetry and remote sensing. It focuses on locating and classifying objects in images, understanding the relationships between them. The higher goal is to interpret what event happens in the scene, when it happens and why it happens, and what should we do based on the information. Dynamic scene understanding is to use information from different time to interpret scenes and answer the above related questions. For modern scene understanding technology, deep learning has shown great potential for such task. "Deep" in deep learning refers to the use of multiple layers in the neural networks. Deep neural networks are powerful as they are highly non-linear function that possess the ability to map from one domain to another quite different domain after proper training. It is the best solution for many fundamental research tasks regarding scene understanding. This ph.D. research also takes advantage of deep learning for dynamic scene understanding. Temporal information plays an important role for dynamic scene understanding. Compared with static scene understanding from images, information distilled from the time dimension provides values in many different ways. Images across consecutive frames have very high correlation, i.e., objects observed in one frame have very high chance to be observed and identified in nearby frames as well. Such redundancy in observation could potentially reduce the uncertainty for object recognition with deep learning based methods, resulting in more consistent inference. High correlation across frames could also improve the chance for recognizing objects correctly. If the camera or the object moves, the object could be observed in multiple different views with different poses and appearance. The information captured for object recognition would be more diverse and complementary, which could be aggregated to jointly inference the categories and the properties of objects. This ph.D. research involves several tasks related to the dynamic scene understanding in computer vision, including semantic segmentation for aerial platform images (chapter 2, 3), video object segmentation and video object detection for common objects in natural scenes (chapter 4, 5), and multi-object tracking and segmentation for cars and pedestrians in driving scenes (chapter 6). Chapter2 investigates how to establish the semantic segmentation benchmark for the UAV images, which includes data collection, data labeling, dataset construction, and performance evaluation with baseline deep neural networks and the proposed multi-scale dilation net. Conditional random field with feature space optimization is used to achieve consistent semantic segmentation prediction in videos. Chapter3 investigates how to better extract the scene context information for etter object recognition performance by proposing the novel bidirectional multiscale attention networks. It achieves better performance by inferring features and attention weights for feature fusing from both higher level and lower level branches. Chapter4 investigates how to simultaneously segment multiple objects across multiple frames by combining memory modules with instance segmentation networks. Our method learns to propagate the target object labels without auxiliary data, such as optical flow, which simplifies the model. Chapter5 investigates how to improve the performance of well-trained object detectors with a light weighted and efficient plug&play tracker for object detection in video. This chapter also investigates how the proposed model performs when lacking video training data. Chapter6 investigates how to improve the performance of detection, segmentation, and tracking by jointly considering top-down and bottom-up inference. The whole pipeline follows the multi-task design, i.e., a single feature extraction backbone with multiple heads for different sub-tasks. Overall, this manuscript has delved into several different computer vision tasks, which share fundamental research problems, including detection, segmentation, and tracking. Based on the research experiments and knowledge from literature review, several reflections regarding dynamic scene understanding have been discussed: The range of object context influence the quality for object recognition; The quality of video data affect the method choice for specific computer vision task; Detection and tracking are complementary for each other. For future work, unified dynamic scene understanding task could be a trend, and transformer plus self-supervised learning is one promising research direction. Real-time processing for dynamic scene understanding requires further researches in order to put the methods into usage for real-world applications. Numéro de notice : 12984 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse étrangère Note de thèse : PhD thesis : Geo-Information Science and Earth Observation : Enschede, university of Twente : 2021 DOI : 10.3990/1.9789036552233 Date de publication en ligne : 08/09/2021 En ligne : https://library.itc.utwente.nl/papers_2021/phd/lyu.pdf Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100962 Extraction of street pole-like objects based on plane filtering from mobile LiDAR data / Jingming Tu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)
PermalinkFlood mapping from radar remote sensing using automated image classification techniques / Lisa Landuyt (2021)
PermalinkFuNet: A novel road extraction network with fusion of location data and remote sensing imagery / Kai Zhou in ISPRS International journal of geo-information, vol 10 n° 1 (January 2021)
PermalinkGeometric and semantic joint approach for the reconstruction of digital models of buildings / Pierre-Alain Langlois (2021)
PermalinkPermalinkGeometric computer vision: omnidirectional visual and remotely sensed data analysis / Pouria Babahajiani (2021)
PermalinkPermalinkImage matching from handcrafted to deep features: A survey / Jiayi Ma in International journal of computer vision, vol 29 n° 1 (January 2021)
PermalinkImpact of forest disturbance on InSAR surface displacement time series / Paula M. Bürgi in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)
PermalinkImproving traffic sign recognition results in urban areas by overcoming the impact of scale and rotation / Roholah Yazdan in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)
Permalink