Descripteur
Documents disponibles dans cette catégorie (249)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Learning surface reconstruction from point clouds in the wild Type de document : Thèse/HDR Auteurs : Raphaël Sulzer , Auteur ; Renaud Marlet, Directeur de thèse ; Bruno Vallet , Directeur de thèse ; Loïc Landrieu , Encadrant Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2022 Importance : 139 p. Note générale : bibliographie
Thèse de doctorat de l'Université Gustave EiffelLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] données localisées 3D
[Termes IGN] reconstruction d'objet
[Termes IGN] réseau neuronal de graphes
[Termes IGN] scène 3D
[Termes IGN] scène urbaine
[Termes IGN] semis de points
[Termes IGN] triangulation de Delaunay
[Termes IGN] visibilitéIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les technologies d’acquisition 3D récentes permettent de représenter le monde sous la forme de nuages de points 3D. Cependant, ces nuages de points ne sont généralement pas suffisants pour modéliser des processus physiques complexes. Au contraire, de nombreuses applications en sciences et en ingénierie nécessitent une représentation sous la forme d’une surface continue. Dans cette thèse, nous considérons le problème de reconstruction de surface à partir de nuages de points par apprentissage profond supervisé. En particulier, nous nous intéressons à la reconstruction de surface à partir de nuages de points réels, c’est-à-dire générés à partir de mesures effectuées sur le terrain: soit directement avec des scanners 3D, soit indirectement par photogrammétrie. Ces nuages représentent souvent de grandes scènes contenant de multiples objets de formes diverses. Ces nuages peuvent aussi inclure des défauts tels que du bruit d’acquisition, des valeurs aberrantes, un échantillonnage non uniforme ou des données manquantes, ce qui complique la reconstruction d’une surface topologiquement et géométriquement précise. Après avoir été utilisé avec succès pour de nombreuses tâches de vision par ordinateur, l’apprentissage profond supervisé a récemment été appliqué au problème de reconstruction de surface. Cependant, les méthodes courantes souffrent encore de deux principales limitations. Tout d’abord, l’apprentissage profond supervisé nécessite souvent un grand nombre de données annotées. Les nuages de points réels décrivent des objets ou des scènes complexes, ce qui rend la collecte de surfaces réelles coûteuse, ambigüe ou mathématiquement difficile. Deuxièmement, les algorithmes d’apprentissage existants sont souvent trop gourmands en calcul et en mémoire pour traiter des millions de points simultanément. Nous abordons ces deux problèmes en introduisant de nouvelles méthodes d’apprentissage profond supervisé pour traiter des nuages de points à grande échelle avec des caractéristiques du monde réel tout en étant entrainées sur de petits ensembles de données synthétiques. Cette thèse comprend trois contributions principales. Tout d’abord, nous passons en revue et évaluons plusieurs méthodes de reconstruction de surface à partir de nuages de points. En plus des méthodes d’apprentissage, nous évaluons certaines des approches traditionnelles proposées au cours des trois dernières décennies. Pour rendre le problème tractable et produire des résultats géométriquement et topologiquement précis même dans des conditions difficiles, les méthodes sans apprentissage reposent souvent sur des hypothèses sur la structure des nuages de points en entrées ou des surfaces reconstruites. En revanche, les algorithmes de reconstruction de surfaces par apprentissage profond (DSR) apprennent ces hypothèses directement à partir d’un ensemble d’entrainement de nuages de points et des surfaces réelles leur correspondant. Nous évaluons les méthodes d’apprentissage et traditionnelles pour la tâche de reconstruction d’objets à partir de nuages de points avec défauts scannés synthétiquement. Nos résultats montrent que les méthodes DSR sont capables de reconstruire des surfaces précises et complètes à partir de nuages de points présentant un degré modéré de défauts atténués, à condition que ces défauts soient présents pendant l’entrainement. Cependant, la qualité de la reconstruction pour les nuages de points avec défauts non présents dans l’ensemble d’entrainement est souvent moins bonne que celle des méthodes sans apprentissage. Les méthodes sans apprentissage, en revanche, sont d’une grande robustesse aux défauts, même avec une paramétrisation constante pour différentes entrées. Un autre défaut de la plupart des méthodes DSR est le fait qu’elles ignorent la pose des capteurs et n’opèrent que sur la position des points. La visibilité des capteurs contient pourtant des informations importantes sur l’occupation de l’espace et l’orientation de la surface. Nous présentons deux façons simples d’enrichir les nuages de points avec des informations de visibilité, qui peuvent être directement exploitées par des réseaux de reconstruction de surface en ne nécessitant qu’une adaptation minimale. Nous montrons que les modifications proposées améliorent systématiquement la précision des surfaces générées ainsi que la capacité des réseaux à généraliser à des nouveaux domaines. Nous publions également les versions scannées synthétiquement de base de données de formes 3D largement utilisées, afin d’encourager le développement d’algorithmes DSR capables d’utiliser les informations de visibilité. Enfin, nous présentons une nouvelle méthode de reconstruction de surface basée sur l’apprentissage et tenant compte de la visibilité pour les nuages de points réels à grande échelle. Notre méthode repose sur une triangulation 3D de Delaunay (3DT) dont les cellules sont classées comme intérieur ou extérieur de la surface recherchée par un réseau de convolution sur graphe (GNN) et un modèle énergétique résolvable avec une coupe de graphe. Le GNN utilise à la fois des attributs géométriques locaux et des informations de visibilité pour apprendre un modèle de visibilité à partir d’une petite quantité de données de formes synthétiques tout en généralisant aux acquisitions réelles. Numéro de notice : 17753 Affiliation des auteurs : UGE-LASTIG (2020- ) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : LASTIG (IGN) nature-HAL : Thèse DOI : sans Date de publication en ligne : 28/03/2023 En ligne : https://hal.science/tel-03968622v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103164 Modeling of precipitable water vapor from GPS observations using machine learning and tomography methods / Mir Reza Ghaffari Razin in Advances in space research, vol 69 n° 7 (April 2022)
[article]
Titre : Modeling of precipitable water vapor from GPS observations using machine learning and tomography methods Type de document : Article/Communication Auteurs : Mir Reza Ghaffari Razin, Auteur ; Behzad Voosoghi, Auteur Année de publication : 2022 Article en page(s) : pp 2671 - 2681 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de géodésie spatiale
[Termes IGN] algorithme génétique
[Termes IGN] apprentissage automatique
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] Inférence floue
[Termes IGN] Iran
[Termes IGN] précipitation
[Termes IGN] radiosondage
[Termes IGN] réseau neuronal artificiel
[Termes IGN] retard hydrostatique
[Termes IGN] retard troposphérique zénithal
[Termes IGN] tomographie par GPS
[Termes IGN] vapeur d'eau
[Termes IGN] voxelRésumé : (auteur) This paper studies the application of two machine learning methods to model precipitable water vapor (PWV) using observations of 23 GPS stations from the local GPS network of north-west of Iran in 2011. In a first step, the zenith tropospheric delay (ZTD) and zenith hydrostatic delay (ZHD) is calculated with the Bernese GNSS software and Saastamoinen model as revised by Davis, respectively. Then, by subtracting the ZHD from the ZTD, the zenith wet delay (ZWD) is obtained at each GPS station, for all times. In a second step, ZWD is modeled by two different machine learning methods, based on the latitude, longitude, DOY, time, relative humidity, temperature and pressure. After training a Support Vector Machine (SVM) and an Artificial Neural Network (ANN), ZWD temporal and spatial variations are estimated. Using the formula by Bevis, the ZWD can be converted to PWV at any time and space, for each machine learning method. The accuracy of the two new models is evaluated using control stations, exterior and radiosonde station, whose observations were not used in the training step. Also, all the results of the SVM and ANN are compared with a voxel-based tomography (VBT) model. In the control and exterior stations, ZWD estimated by the SVM (ZWDSVM) and ANN (ZWDANN) is compared with the ZWD obtained from the GPS (ZWDGPS). Also, in the control and exterior stations, precise point positioning (PPP) is used to evaluate the accuracy of the new models. In the radiosonde station, the PWV of the new models (PWVSVM, PWVANN) is compared with the radiosonde PWV (PWVradiosonde) and voxel-based PWV (PWVVBT). The averaged relative error of the SVM, ANN and VBT models in the control stations is 10.50%, 12.71% and 12.91%, respectively. For SVM, ANN and VBT models, the averaged RMSE at the control stations is 1.87 (mm), 2.22 (mm) and 2.29 (mm), respectively. Analysis of the results of PWV estimated by the SVM, ANN and VBT, as well as the surface precipitation obtained from meteorological stations, indicate the high accuracy of the SVM in comparison with the ANN and VBT model. In the results shown in this paper, the SVM has the best ability to accurately estimate ZWD and PWV, using local GPS network observations. Numéro de notice : A2022-446 Affiliation des auteurs : non IGN Thématique : POSITIONNEMENT Nature : Article DOI : 10.1016/j.asr.2022.01.003 Date de publication en ligne : 13/01/2022 En ligne : https://doi.org/10.1016/j.asr.2022.01.003 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100106
in Advances in space research > vol 69 n° 7 (April 2022) . - pp 2671 - 2681[article]Photogrammetric point clouds: quality assessment, filtering, and change detection / Zhenchao Zhang (2022)
Titre : Photogrammetric point clouds: quality assessment, filtering, and change detection Type de document : Thèse/HDR Auteurs : Zhenchao Zhang, Auteur ; M. George Vosselman, Auteur ; Markus Gerke, Auteur ; Michael Ying Yang, Auteur Editeur : Enschede [Pays-Bas] : International Institute for Geo-Information Science and Earth Observation ITC Année de publication : 2022 Note générale : bibliographie
NB : EMBARGO SUR LE TEXTE JUSQU'AU 1ER JUILLET 2022Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] appariement dense
[Termes IGN] détection de changement
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] qualité des données
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsRésumé : (auteur) 3D change detection draws more and more attention in recent years due to the increasing availability of 3D data. It can be used in the fields of land use / land cover (LULC) change detection, 3D geographic information updating, terrain deformation analysis, urban construction monitoring et al. Our motivation to study 3D change detection is mainly related to the practical need to update the outdated point clouds captured by Airborne Laser Scanning (ALS) with new point clouds obtained by dense image matching (DIM).
The thesis has three main parts. The first part, chapter 1, explains the motivation, providing a review of current ALS and airborne photogrammetry techniques. It also presents the research objectives and questions. The second part including chapter 2 and chapter 3 evaluates the quality of photogrammetric products and investigates their potential for change detection. The third part including chapter 4 and chapter 5 proposes two methods for change detection that meet different requirements.
To investigate the potential of using point clouds derived by dense matching for change detection, we propose a framework for evaluating the quality of 3D point clouds and DSMs generated by dense image matching. Our evaluation framework based on a large number of square patches reveals the distribution of dense matching errors in the whole photogrammetric block. Robust quality measures are proposed to indicate the DIM accuracy and precision quantitatively. The overall mean offset to the reference is 0.1 Ground Sample Distance (GSD); the maximum mean deviation reaches 1.0 GSD. We also find that the distribution of dense matching errors is homogenous in the whole block and close to a normal distribution based on many patch-based samples. However, in some locations, especially along narrow alleys, the mean deviations may get worse. In addition, the profiles of ALS points and DIM points reveal that the DIM profile fluctuates around the ALS profile. We find that the accuracy of DIM point cloud improves and that the noise level decreases on smooth ground areas when oblique images are used in dense matching together with nadir images.
Then we evaluate whether the standard LiDAR filters are effective to filter dense matching points in order to derive accurate DTMs. Filtering results on a city block show that LiDAR filters perform well on the grassland, along bushes and around individual trees if the point cloud is sufficiently precise. When a ranking filter is used on the point clouds before filtering, the filtering will identify fewer but more reliable ground points. However, some small objects on the terrain will be filtered out. Since we aim at obtaining accurate DTMs, the ranking filter shows its value in identifying reliable ground points. Based on the previous findings in DIM quality, we propose a method to detect building changes between ALS and photogrammetric data. Firstly, the ALS points and DIM points are split out and concatenated with the orthoimages. The multimodal data are normalized to feed into a pseudo-Siamese Neural network for change detection. Then, the changed objects are delineated through per-pixel classification and artefact removal. The change detection module based on a pseudo-Siamese CNN can quickly localize the changes and generate coarse change maps. The next module can be used in precise mapping of change boundaries. Experimental results show that the proposed pseudo-Siamese Neural network can cope with the DIM errors and output plausible change detection results. Although the point cloud quality from dense matching is not as fine as laser scanning points, the spectral and textural information provided by the orthoimages serve as a supplement.
Considering that the tasks of semantic segmentation and change detection are correlated, we propose SiamPointNet++ model to combine the two tasks in one framework. The method outputs a pointwise joint label for each ALS point. If an ALS point is unchanged, it is assigned a semantic label; If an ALS point is changed, it is assigned a change label. The sematic and change information are included in the joint labels with minimum information redundancy. The combined Siamese network learns both intra-epoch and inter-epoch features. Intra-epoch features are extracted at multiple scales to embed the local and global information. Inter-epoch features are extracted by Conjugated Ball Sampling (CBS) and concatenated to make change inference. Experiments on the Rotterdam data set indicate that the network is effective in learning multi-task features. It is invariant to the permutation and noise of inputs and robust to the data difference between ALS and DIM data. Compared with a sophisticated object-based method and supervised change detection, this method requires much less hyper-parameters and human intervention but achieves superior performance.
As a conclusion, the thesis evaluates the quality of dense matching points and investigates its potential of updating outdated ALS points. The two change detection methods developed for different applications show their potential in the automation of topographic change detection and point cloud updating. Future work may focus on improving the generalizability and interpretability of the proposed models.Numéro de notice : 20403 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse étrangère Note de thèse : PhD thesis : Geo-Information Science and Earth Observation : Enschede, university of Twente : 2022 DOI : 10.3990/1.9789036552653 Date de publication en ligne : 14/01/2022 En ligne : https://research.utwente.nl/en/publications/photogrammetric-point-clouds-quality [...] Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100963
Titre : Scene understanding and gesture recognition for human-machine interaction Type de document : Thèse/HDR Auteurs : Naina Dhingra, Auteur Editeur : Zurich : Eidgenossische Technische Hochschule ETH - Ecole Polytechnique Fédérale de Zurich EPFZ Année de publication : 2022 Note générale : Bibliographie
A dissertation submitted to attain the degree of Doctor of Sciences of ETH ZurichLangues : Français (fre) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage profond
[Termes IGN] attention (apprentissage automatique)
[Termes IGN] classification orientée objet
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] compréhension de l'image
[Termes IGN] image RVB
[Termes IGN] interaction homme-machine
[Termes IGN] oculométrie
[Termes IGN] reconnaissance automatique
[Termes IGN] reconnaissance de formes
[Termes IGN] reconnaissance de gestes
[Termes IGN] réseau neuronal récurrent
[Termes IGN] scène
[Termes IGN] vision par ordinateurRésumé : (auteur) Scene understanding and gesture recognition are useful for a myriad of applications such as human-robotic interaction, assisting blind and visually impaired people, advanced driver assistance systems, and autonomous driving. To work autonomously in real-world environments, automatic systems need to deliver non-verbal information to enhance the verbal communication in particular for blind people. We are exploring the holistic approach for providing the scene as well as gesture related information. We propose that incorporating attention mechanisms in neural networks which behave similarly to attention in the human brain, and conducting an integrated study using neural networks in real-time can yield significant improvements in the scene and gesture understanding, thereby enhancing the user experience. In this thesis, we investigate the understanding of visual scenes and gestures. We explore these two areas, in particular, by proposing novel architectures, training methods, user studies, and thorough evaluations. We show that, for deep learning approaches, attention or self attention mechanisms improve and push the boundaries of network performance for different tasks in consideration. We suggest that the various kinds of gestures can complement and supplement each other’s information to better understand non-verbal conversation; hence integrated gestures comprehension is useful. First, we focus on visual scene understanding using scene graph generation. We propose, BGT-Net, a new network that uses an object detection model with 1) bidirectional gated recurrent units for object-object communication and 2) transformer encoders including self attention to classify the objects and their relationships. We address the problem of bias caused by the long tailed distribution in the dataset. This enables the network to perform even for the unseen objects or relationships in the dataset. Second, we propose to learn hand gesture recognition from RGB and RGB-D videos using attention learning. We present a novel architecture based on residual connections and an attention mechanism. Our approach successfully detects hand gestures when evaluated on three open-source datasets. Third, we explore pointing gesture recognition and localization using open-source software, i.e. OpenPtrack which uses a deep learning based iii network to track multi-persons in the scene. We use a Kinect sensor as an input device and conduct a user study with 26 users to evaluate the system using two setup types. Fourth, we propose a technique to perform eye gaze tracking using OpenFace which is based on a deep learning model and RGB webcam. We use support vector machine regression to estimate the position of eye gaze on the screen. In a study, we evaluate the system with 28 users and show that this system can perform similarly to commercially expensive eye trackers. Finally, we focus on 3D head pose estimation using two models: 1)headPosr includes residual connections for the base network followed by a transformer encoder. It outperforms existing models but has a drawback of being computationally expensive; 2) lwPosr uses depthwise separable convolutions and transformer encoders. It is a two stream network in fine-grained fashion to estimate the three angles of the head pose. We demonstrate that this method is able to predict head poses better than state-of-the-art lightweight networks. Note de contenu : 1- Introduction
2- Background
3- State of the art
4- Scene graph generation
5- 3D hand gesture recognition
6- Pointing gesture recognition
7- Eye-gaze tracking
8- Head pose estimation
9- Lightweight head pose estimation
10- SummaryNuméro de notice : 24039 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse étrangère Note de thèse : PhD Thesis : Sciences : ETH Zurich :2022 DOI : sans En ligne : https://www.research-collection.ethz.ch/handle/20.500.11850/559347 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101876 Self-attention and generative adversarial networks for algae monitoring / Nhut Hai Huynh in European journal of remote sensing, vol 55 n° 1 (2022)
[article]
Titre : Self-attention and generative adversarial networks for algae monitoring Type de document : Article/Communication Auteurs : Nhut Hai Huynh, Auteur ; Gordon Boër, Auteur ; Hauke Schramm, Auteur Année de publication : 2022 Article en page(s) : pp 10 - 22 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] algue
[Termes IGN] analyse en composantes principales
[Termes IGN] apprentissage profond
[Termes IGN] attention (apprentissage automatique)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] image hyperspectrale
[Termes IGN] plancton
[Termes IGN] réseau antagoniste génératif
[Termes IGN] réseau neuronal artificielRésumé : (auteur) Water is important for the natural environment and human health. Monitoring algae concentrations yield information on the water quality. Compared with in situ measurements of water quality parameters, which are often complex and expensive, remote sensing techniques, using hyperspectral data analysis, are fast and cost-effective. The objectives of this study are (1) to estimate the algae concentrations from hyperspectral data using deep learning techniques, (2) to investigate the applicability of attention mechanisms in the analysis of hyperspectral data, and (3) to augment the training data using generative adversarial networks (GANs). The results show that the accuracy of deep learning techniques is 7.6% higher than that of simpler artificial neural networks. Compared to noise injection and principal component analysis-based data augmentation, the use of a GAN-based data augmentation method significantly improves the accuracy of algae concentration estimates (>5%). In addition, models with added attention mechanisms yield an on average 3.13% higher accuracy than those without attention techniques. This result demonstrates the improvement of spectral features of artificial hyperspectral data based on the self-attention approach, revealing the potential of attention techniques in hyperspectral remote sensing. Numéro de notice : A2022-097 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1080/22797254.2021.2010605 Date de publication en ligne : 02/01/2022 En ligne : https://doi.org/10.1080/22797254.2021.2010605 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99547
in European journal of remote sensing > vol 55 n° 1 (2022) . - pp 10 - 22[article]Studying informativeness of satellite image texture for sea ice state retrieval using deep learning methods / Clément Fougerouse (2022)PermalinkTowards expressive graph neural networks : Theory, algorithms, and applications / Georgios Dasoulas (2022)PermalinkTowards synthetic sensing for smart cities : a machine/deep learning-based approach / Faraz Malik Awan (2022)PermalinkImproving soil moisture retrieval from GNSS-interferometric reflectometry: parameters optimization and data fusion via neural network / Yajie Shi in International Journal of Remote Sensing IJRS, vol 42 n° 23 (1-10 December 2021)PermalinkA comparison of a gradient boosting decision tree, random forests, and artificial neural networks to model urban land use changes: the case of the Seoul metropolitan area / Myung-Jin Jun in International journal of geographical information science IJGIS, vol 35 n° 11 (November 2021)PermalinkA deep multi-modal learning method and a new RGB-depth data set for building roof extraction / Mehdi Khoshboresh Masouleh in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 10 (October 2021)PermalinkField scale wheat LAI retrieval from multispectral Sentinel 2A-MSI and LandSat 8-OLI imagery: effect of atmospheric correction, image resolutions and inversion techniques / Rajkumar Dhakar in Geocarto international, vol 36 n° 18 ([01/10/2021])PermalinkA deep translation (GAN) based change detection network for optical and SAR remote sensing images / Xinghua Li in ISPRS Journal of photogrammetry and remote sensing, vol 179 (September 2021)PermalinkStochastic super-resolution for downscaling time-evolving atmospheric fields with a generative adversarial network / Jussi Leinonen in IEEE Transactions on geoscience and remote sensing, Vol 59 n° 9 (September 2021)PermalinkTwo hidden layer neural network-based rotation forest ensemble for hyperspectral image classification / Laxmi Narayana Eeti in Geocarto international, vol 36 n° 16 ([01/09/2021])Permalink