Descripteur
Termes IGN > imagerie > image numérique
image numériqueSynonyme(s)image en mode mailléVoir aussi |
Documents disponibles dans cette catégorie (2121)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Learning surface reconstruction from point clouds in the wild Type de document : Thèse/HDR Auteurs : Raphaël Sulzer , Auteur ; Renaud Marlet, Directeur de thèse ; Bruno Vallet , Directeur de thèse ; Loïc Landrieu , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2022 Importance : 139 p. Note générale : bibliographie
Thèse de doctorat de l'Université Gustave EiffelLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] données localisées 3D
[Termes IGN] reconstruction d'objet
[Termes IGN] réseau neuronal de graphes
[Termes IGN] scène 3D
[Termes IGN] scène urbaine
[Termes IGN] semis de points
[Termes IGN] triangulation de Delaunay
[Termes IGN] visibilitéIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les technologies d’acquisition 3D récentes permettent de représenter le monde sous la forme de nuages de points 3D. Cependant, ces nuages de points ne sont généralement pas suffisants pour modéliser des processus physiques complexes. Au contraire, de nombreuses applications en sciences et en ingénierie nécessitent une représentation sous la forme d’une surface continue. Dans cette thèse, nous considérons le problème de reconstruction de surface à partir de nuages de points par apprentissage profond supervisé. En particulier, nous nous intéressons à la reconstruction de surface à partir de nuages de points réels, c’est-à-dire générés à partir de mesures effectuées sur le terrain: soit directement avec des scanners 3D, soit indirectement par photogrammétrie. Ces nuages représentent souvent de grandes scènes contenant de multiples objets de formes diverses. Ces nuages peuvent aussi inclure des défauts tels que du bruit d’acquisition, des valeurs aberrantes, un échantillonnage non uniforme ou des données manquantes, ce qui complique la reconstruction d’une surface topologiquement et géométriquement précise. Après avoir été utilisé avec succès pour de nombreuses tâches de vision par ordinateur, l’apprentissage profond supervisé a récemment été appliqué au problème de reconstruction de surface. Cependant, les méthodes courantes souffrent encore de deux principales limitations. Tout d’abord, l’apprentissage profond supervisé nécessite souvent un grand nombre de données annotées. Les nuages de points réels décrivent des objets ou des scènes complexes, ce qui rend la collecte de surfaces réelles coûteuse, ambigüe ou mathématiquement difficile. Deuxièmement, les algorithmes d’apprentissage existants sont souvent trop gourmands en calcul et en mémoire pour traiter des millions de points simultanément. Nous abordons ces deux problèmes en introduisant de nouvelles méthodes d’apprentissage profond supervisé pour traiter des nuages de points à grande échelle avec des caractéristiques du monde réel tout en étant entrainées sur de petits ensembles de données synthétiques. Cette thèse comprend trois contributions principales. Tout d’abord, nous passons en revue et évaluons plusieurs méthodes de reconstruction de surface à partir de nuages de points. En plus des méthodes d’apprentissage, nous évaluons certaines des approches traditionnelles proposées au cours des trois dernières décennies. Pour rendre le problème tractable et produire des résultats géométriquement et topologiquement précis même dans des conditions difficiles, les méthodes sans apprentissage reposent souvent sur des hypothèses sur la structure des nuages de points en entrées ou des surfaces reconstruites. En revanche, les algorithmes de reconstruction de surfaces par apprentissage profond (DSR) apprennent ces hypothèses directement à partir d’un ensemble d’entrainement de nuages de points et des surfaces réelles leur correspondant. Nous évaluons les méthodes d’apprentissage et traditionnelles pour la tâche de reconstruction d’objets à partir de nuages de points avec défauts scannés synthétiquement. Nos résultats montrent que les méthodes DSR sont capables de reconstruire des surfaces précises et complètes à partir de nuages de points présentant un degré modéré de défauts atténués, à condition que ces défauts soient présents pendant l’entrainement. Cependant, la qualité de la reconstruction pour les nuages de points avec défauts non présents dans l’ensemble d’entrainement est souvent moins bonne que celle des méthodes sans apprentissage. Les méthodes sans apprentissage, en revanche, sont d’une grande robustesse aux défauts, même avec une paramétrisation constante pour différentes entrées. Un autre défaut de la plupart des méthodes DSR est le fait qu’elles ignorent la pose des capteurs et n’opèrent que sur la position des points. La visibilité des capteurs contient pourtant des informations importantes sur l’occupation de l’espace et l’orientation de la surface. Nous présentons deux façons simples d’enrichir les nuages de points avec des informations de visibilité, qui peuvent être directement exploitées par des réseaux de reconstruction de surface en ne nécessitant qu’une adaptation minimale. Nous montrons que les modifications proposées améliorent systématiquement la précision des surfaces générées ainsi que la capacité des réseaux à généraliser à des nouveaux domaines. Nous publions également les versions scannées synthétiquement de base de données de formes 3D largement utilisées, afin d’encourager le développement d’algorithmes DSR capables d’utiliser les informations de visibilité. Enfin, nous présentons une nouvelle méthode de reconstruction de surface basée sur l’apprentissage et tenant compte de la visibilité pour les nuages de points réels à grande échelle. Notre méthode repose sur une triangulation 3D de Delaunay (3DT) dont les cellules sont classées comme intérieur ou extérieur de la surface recherchée par un réseau de convolution sur graphe (GNN) et un modèle énergétique résolvable avec une coupe de graphe. Le GNN utilise à la fois des attributs géométriques locaux et des informations de visibilité pour apprendre un modèle de visibilité à partir d’une petite quantité de données de formes synthétiques tout en généralisant aux acquisitions réelles. Numéro de notice : 17753 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 28/03/2023 En ligne : https://hal.science/tel-03968622v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103164 Mapping burned areas and land-uses in Kangaroo Island using an object-based image classification framework and Landsat 8 Imagery from Google Earth Engine / Jiyu Liu in Geomatics, Natural Hazards and Risk, vol 13 (2022)
[article]
Titre : Mapping burned areas and land-uses in Kangaroo Island using an object-based image classification framework and Landsat 8 Imagery from Google Earth Engine Type de document : Article/Communication Auteurs : Jiyu Liu, Auteur ; David Freudenberger, Auteur ; Lim Samsung, Auteur Année de publication : 2022 Article en page(s) : pp 1867 - 1897 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] analyse d'image orientée objet
[Termes IGN] analyse spectrale
[Termes IGN] approche hiérarchique
[Termes IGN] Australie
[Termes IGN] carte thématique
[Termes IGN] écosystème forestier
[Termes IGN] Google Earth Engine
[Termes IGN] image infrarouge
[Termes IGN] image Landsat-8
[Termes IGN] incendie
[Termes IGN] Indien (océan)
[Termes IGN] segmentation d'image
[Termes IGN] utilisation du sol
[Termes IGN] zone sinistréeRésumé : (auteur) In Australia, fire has become part of the natural ecosystem. Severe fires have devastated Australia's unique forest ecosystems due to the global climate change. In this study, we integrated a multi-resolution segmentation method and a hierarchical classification framework based on expert-based knowledge to classify the burned areas and land-uses in Kangaroo Island, South Australia. Using an object-based image classification framework that combines colour and shape features from input layers, we demonstrated that the objects segmented from the multi-source data lead to a higher accuracy in classification with an overall accuracy of 90.2% and a kappa coefficient of 85.2%. On the other hand, the single source data from post-fire Landsat-8 imagery showed an overall accuracy of 87.4% which is also statistically acceptable. According to our experiment results, more than 30.44% of the study area was burned during the 2019–2020 ‘Black-Summer’ fire season in Australia. Among the burned areas, high severity accounted for 12.14%, moderate severity for 11.48%, while low severity was 6.82%. For unburned areas, farmland accounted for 45.52% of the study area, of which about one-third was affected by the disturbances other than fire. The remaining area consists of 19.42% unaffected forest, 3.48% building and bare land, and 1.14% water. The comparison analysis shows that our object-based image classification framework takes full advantage of the multi-source data and generates the edges of burned areas more clearly, which contributes to the improved fire management and control. Numéro de notice : A2022-873 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1080/19475705.2022.2098066 Date de publication en ligne : 02/08/2022 En ligne : https://doi.org/10.1080/19475705.2022.2098066 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102171
in Geomatics, Natural Hazards and Risk > vol 13 (2022) . - pp 1867 - 1897[article]MLMT-CNN for object detection and segmentation in multi-layer and multi-spectral images / Majedaldein Almahasneh in Machine Vision and Applications, vol 33 n° 1 (January 2022)
[article]
Titre : MLMT-CNN for object detection and segmentation in multi-layer and multi-spectral images Type de document : Article/Communication Auteurs : Majedaldein Almahasneh, Auteur ; Adeline Paiement, Auteur ; Xianghua Xie, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 9 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage dirigé
[Termes IGN] apprentissage profond
[Termes IGN] atmosphère solaire
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] couche thématique
[Termes IGN] détection d'objet
[Termes IGN] image multibande
[Termes IGN] segmentation d'imageRésumé : (auteur) Precisely localising solar Active Regions (AR) from multi-spectral images is a challenging but important task in understanding solar activity and its influence on space weather. A main challenge comes from each modality capturing a different location of the 3D objects, as opposed to typical multi-spectral imaging scenarios where all image bands observe the same scene. Thus, we refer to this special multi-spectral scenario as multi-layer. We present a multi-task deep learning framework that exploits the dependencies between image bands to produce 3D AR localisation (segmentation and detection) where different image bands (and physical locations) have their own set of results. Furthermore, to address the difficulty of producing dense AR annotations for training supervised machine learning (ML) algorithms, we adapt a training strategy based on weak labels (i.e. bounding boxes) in a recursive manner. We compare our detection and segmentation stages against baseline approaches for solar image analysis (multi-channel coronal hole detection, SPOCA for ARs) and state-of-the-art deep learning methods (Faster RCNN, U-Net). Additionally, both detection and segmentation stages are quantitatively validated on artificially created data of similar spatial configurations made from annotated multi-modal magnetic resonance images. Our framework achieves an average of 0.72 IoU (segmentation) and 0.90 F1 score (detection) across all modalities, comparing to the best performing baseline methods with scores of 0.53 and 0.58, respectively, on the artificial dataset, and 0.84 F1 score in the AR detection task comparing to baseline of 0.82 F1 score. Our segmentation results are qualitatively validated by an expert on real ARs. Numéro de notice : A2022-089 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00138-021-01261-y Date de publication en ligne : 29/11/2021 En ligne : https://doi.org/10.1007/s00138-021-01261-y Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99500
in Machine Vision and Applications > vol 33 n° 1 (January 2022) . - n° 9[article]Multi-view urban scene classification with a complementary-information learning model / Wanxuan Geng in Photogrammetric Engineering & Remote Sensing, PERS, vol 88 n° 1 (January 2022)
[article]
Titre : Multi-view urban scene classification with a complementary-information learning model Type de document : Article/Communication Auteurs : Wanxuan Geng, Auteur ; Weixun Zhou, Auteur ; Shuanggen Jin, Auteur Année de publication : 2022 Article en page(s) : pp 65 - 72 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] données de terrain
[Termes IGN] données multisources
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] fusion de données multisource
[Termes IGN] image aérienne
[Termes IGN] niveau du sol
[Termes IGN] précision de la classification
[Termes IGN] scène urbaineRésumé : (Auteur) Traditional urban scene-classification approaches focus on images taken either by satellite or in aerial view. Although single-view images are able to achieve satisfactory results for scene classification in most situations, the complementary information provided by other image views is needed to further improve performance. Therefore, we present a complementary information-learning model (CILM) to perform multi-view scene classification of aerial and ground-level images. Specifically, the proposed CILM takes aerial and ground-level image pairs as input to learn view-specific features for later fusion to integrate the complementary information. To train CILM, a unified loss consisting of cross entropy and contrastive losses is exploited to force the network to be more robust. Once CILM is trained, the features of each view are extracted via the two proposed feature-extraction scenarios and then fused to train the support vector machine classifier for classification. The experimental results on two publicly available benchmark data sets demonstrate that CILM achieves remarkable performance, indicating that it is an effective model for learning complementary information and thus improving urban scene classification. Numéro de notice : A2022-063 Affiliation des auteurs : non IGN Thématique : IMAGERIE/URBANISME Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.21-00062R2 Date de publication en ligne : 01/01/2022 En ligne : https://doi.org/10.14358/PERS.21-00062R2 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99708
in Photogrammetric Engineering & Remote Sensing, PERS > vol 88 n° 1 (January 2022) . - pp 65 - 72[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2022011 SL Revue Centre de documentation Revues en salle Disponible A novel unmixing-based hypersharpening method via convolutional neural network / Xiaochen Lu in IEEE Transactions on geoscience and remote sensing, vol 60 n° 1 (January 2022)
[article]
Titre : A novel unmixing-based hypersharpening method via convolutional neural network Type de document : Article/Communication Auteurs : Xiaochen Lu, Auteur ; Tong Li, Auteur ; Junping Zhang, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 5503614 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse des mélanges spectraux
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] fusion d'images
[Termes IGN] image hyperspectrale
[Termes IGN] image multibande
[Termes IGN] pansharpening (fusion d'images)
[Termes IGN] pouvoir de résolution géométrique
[Termes IGN] pouvoir de résolution spectraleRésumé : (auteur) Hypersharpening (namely, hyperspectral (HS) and multispectral (MS) image fusion) aims at enhancing the spatial resolution of HS image via an auxiliary higher resolution MS image. Currently, numerous hypersharpening methods are proposed successively, among which the unmixing-based approaches have been widely researched and demonstrated their effectiveness in the spectral fidelity aspect. However, existing unmixing-based fusion methods substantially employ mathematical techniques to solve the spectral mixture model, without taking full advantage of the collaborative spatial–spectral information that is usually helpful for abundance estimation improvement. To overcome this drawback, in this article, a novel unmixing-based HS and MS image fusion method, via a convolutional neural network (CNN), is proposed to promote spectral fidelity. The main idea of this work is to use CNN to fully explore the spatial information and the spectral information of both HS and MS images simultaneously, thereby enhancing the accuracy of estimating the abundance maps. Experiments on four simulated and real remote sensing data sets demonstrate that the proposed method is beneficial to the spectral fidelity of the fused images compared with some state-of-the-art algorithms. Meanwhile, it is also easy to implement and has a certain advantage in running time. Numéro de notice : A2022-028 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2021.3063105 Date de publication en ligne : 22/03/2021 En ligne : https://doi.org/10.1109/TGRS.2021.3063105 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99264
in IEEE Transactions on geoscience and remote sensing > vol 60 n° 1 (January 2022) . - n° 5503614[article]A PCA-PD fusion method for change detection in remote sensing multi temporal images / Soltana Achour in Geocarto international, vol 37 n° 1 ([01/01/2022])PermalinkPreparation of the VENµS satellite data over Israel for the input into the GRASP data treatment algorithm / Maeve Blarel (2022)PermalinkPermalinkSalt tectonic imaging at crustal and experimental scales by seismic migration and adjoint method / Javier Abreu-Torres (2022)PermalinkScaling up and evaluating surface reconstruction from point clouds of open scenes / Yanis Marchand (2022)PermalinkPermalinkSelf-attention and generative adversarial networks for algae monitoring / Nhut Hai Huynh in European journal of remote sensing, vol 55 n° 1 (2022)PermalinkSpatial distribution of lead (Pb) in soil: a case study in a contaminated area of the Czech Republic / Nicolas Francos in Geomatics, Natural Hazards and Risk, vol 13 (2022)PermalinkPermalinkPermalink