Descripteur
Documents disponibles dans cette catégorie (2096)
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Etendre la recherche sur niveau(x) vers le bas
Correcting misclassification errors in crowdsourced ecological data: A Bayesian perspective / Edgar Santos-Fernandez in Journal of the Royal Statistical Society: Series C Applied Statistics, vol 70 n° 1 (January 2021)
![]()
[article]
Titre : Correcting misclassification errors in crowdsourced ecological data: A Bayesian perspective Type de document : Article/Communication Auteurs : Edgar Santos-Fernandez, Auteur ; Erin E. Peterson, Auteur ; Julie Vercelloni, Auteur ; Em Rushworth, Auteur ; Kerrie Mengersen, Auteur Année de publication : 2021 Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification bayesienne
[Termes IGN] données écologiques
[Termes IGN] estimation bayesienne
[Termes IGN] modèle d'incertitude
[Termes IGN] récif corallien
[Termes IGN] science citoyenneRésumé : (auteur) Many research domains use data elicited from ‘citizen scientists’ when a direct measure of a process is expensive or infeasible. However, participants may report incorrect estimates or classifications due to their lack of skill. We demonstrate how Bayesian hierarchical models can be used to learn about latent variables of interest, while accounting for the participants’ abilities. The model is described in the context of an ecological application that involves crowdsourced classifications of georeferenced coral-reef images from the Great Barrier Reef, Australia. The latent variable of interest is the proportion of coral cover, which is a common indicator of coral reef health. The participants’ abilities are expressed in terms of sensitivity and specificity of a correctly classified set of points on the images. The model also incorporates a spatial component, which allows prediction of the latent variable in locations that have not been surveyed. We show that the model outperforms traditional weighted-regression approaches used to account for uncertainty in citizen science data. Our approach produces more accurate regression coefficients and provides a better characterisation of the latent process of interest. This new method is implemented in the probabilistic programming language Stan and can be applied to a wide number of problems that rely on uncertain citizen science data. Numéro de notice : A2021-509 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/IMAGERIE/MATHEMATIQUE Nature : Article DOI : 10.1111/rssc.12453 Date de publication en ligne : 11/11/2020 En ligne : https://doi.org/10.1111/rssc.12453 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102439
in Journal of the Royal Statistical Society: Series C Applied Statistics > vol 70 n° 1 (January 2021)[article]
Titre : Deep learning for feature based image matching Type de document : Thèse/HDR Auteurs : Lin Chen, Auteur ; Christian Heipke, Directeur de thèse Editeur : Munich : Bayerische Akademie der Wissenschaften Année de publication : 2021 Collection : DGK - C, ISSN 0065-5325 num. 867 Importance : 159 p. Format : 21 x 30 cm Note générale : bibliographie
Diese Arbeit ist gleichzeitig veröffentlicht in: Wissenschaftliche Arbeiten der Fachrichtung Geodäsie und Geoinformatik der Leibniz UniversitätHannoverISSN 0174-1454, Nr. 369, Hannover 2021Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] appariement d'images
[Termes IGN] chaîne de traitement
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] descripteur
[Termes IGN] image aérienne oblique
[Termes IGN] orientation d'image
[Termes IGN] orthoimageRésumé : (auteur) Feature based image matching aims at finding matched features between two or more images. It is one of the most fundamental research topics in photogrammetry and computer vision. The matching features area prerequisite for applications such as image orientation, Simultaneous Localization and Mapping (SLAM) and robot vision. A typical feature based matching algorithm is composed of five steps: feature detection, affine shape estimation, orientation, description and descriptor matching. Today, the employment of deep neural network has framed those different steps as machine learning problems and the matching performance has been improved significantly. One of the main reasons why feature based image matching may still prove difficult is the complex change between different images, including geometric and radiometric transformations. If the change between images exceeds a certain level, it will also exceed the tolerance of those aforementioned separate steps and, in turn, cause feature based image matching to fail.
This thesis focuses on improving feature based image matching against large viewpoint and viewing direction change between images. In order to improve the feature based image matching performance under these circumstances, affine shape estimation, orientation and description are solved with deep learning architectures. In particular, Convolutional Neural Networks (CNN) are used. For the affine shape and orientation learning, the main contribution of this thesis is two fold. First, instead of a Siamese CNN, only one branch is needed and the loss is built based on the geometric measures calculated from the mean gradient or second moment matrix. Therefore, for each of the input patches, a global minimum, namely the canonical feature, exists. Second, both the affine shape and orientation are solved simultaneously within one network by combining the loss used for affine shape and orientation learning. To the best of the author’s knowledge, this is the first time these two modules are reported to have been successfully trained simultaneously. For the descriptor learning part, a new weak match is defined. For any input feature patch, a slightly transformed patch that lies far from the input feature patch in descriptor space is defined as a weak match feature. A weak match finder network is proposed to actively find these weak match features. In a following step, the found weak matches are used in the standard descriptor learning framework. In this way, the intra-variance of the appearance of matched feature patch pairs is explored in depth and, accordingly, the invariance of feature descriptors against viewpoint and viewing direction change is improved. The proposed feature based image matching method is evaluated on standard benchmarks and is used to solve for the parameters of image orientation. For the image orientation task, aerial oblique images are taken into account. Through analysis of the experiments conducted for small image blocks, it is shown that deep learning feature based image matching leads to more registered images, more reconstructed 3D points and a more stable block connection.Note de contenu : 1- Introduction
2- Basics
3- Related work
4- Deep learning feature representation
5- Experiments and results
6- Discussion
7- Conclusion and outlookNuméro de notice : 17673 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : PhD dissertation : Fachrichtung Geodäsie und Geoinformatik : Hanovre : 2021 En ligne : https://dgk.badw.de/fileadmin/user_upload/Files/DGK/docs/c-867.pdf Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97999 Deep learning for wildfire progression monitoring using SAR and optical satellite image time series / Puzhao Zhang (2021)
![]()
Titre : Deep learning for wildfire progression monitoring using SAR and optical satellite image time series Type de document : Thèse/HDR Auteurs : Puzhao Zhang, Auteur Editeur : Stockholm : Royal Institute of Technology Année de publication : 2021 Importance : 100 p. Format : 21 x 30 cm ISBN/ISSN/EAN : 978-91-7873-935-6 Note générale : bibliographie
Doctoral Thesis in GeoinformaticsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] Alberta (Canada)
[Termes IGN] apprentissage profond
[Termes IGN] bande C
[Termes IGN] Californie (Etats-Unis)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] Colombie-Britannique (Canada)
[Termes IGN] détection de changement
[Termes IGN] gestion des risques
[Termes IGN] image radar moirée
[Termes IGN] image Sentinel-SAR
[Termes IGN] incendie de forêt
[Termes IGN] série temporelle
[Termes IGN] surveillance forestière
[Termes IGN] Sydney (Nouvelle-Galles du Sud)
[Termes IGN] zone sinistréeRésumé : (auteur) Wildfires have coexisted with human societies for more than 350 million years, always playing an important role in affecting the Earth's surface and climate. Across the globe, wildfires are becoming larger, more frequent, and longer-duration, and tend to be more destructive both in lives lost and economic costs, because of climate change and human activities. To reduce the damages from such destructive wildfires, it is critical to track wildfire progressions in near real-time, or even real-time. Satellite remote sensing enables cost-effective, accurate, and timely monitoring on the wildfire progressions over vast geographic areas. The free availability of global coverage Landsat-8 and Sentinel-1/2 data opens the new era for global land surface monitoring, providing an opportunity to analyze wildfire impacts around the globe. The advances in both cloud computing and deep learning empower the automatic interpretation of spatio-temporal remote sensing big data on a large scale. The overall objective of this thesis is to investigate the potential of modern medium resolution earth observation data, especially Sentinel-1 C-Band synthetic aperture radar (SAR) data, in wildfire monitoring and develop operational and effective approaches for real-world applications. This thesis systematically analyzes the physical basis of earth observation data for wildfire applications, and critically reviews the available wildfire burned area mapping methods in terms of satellite data, such as SAR, optical, and SAR-Optical fusion. Taking into account its great power in learning useful representations, deep learning is adopted as the main tool to extract wildfire-induced changes from SAR and optical image time series. On a regional scale, this thesis has conducted the following four fundamental studies that may have the potential to further pave the way for achieving larger scale or even global wildfire monitoring applications. To avoid manual selection of temporal indices and to highlight wildfire-induced changes in burned areas, we proposed an implicit radar convolutional burn index (RCBI), with which we assessed the roles of Sentinel-1 C-Band SAR intensity and phase in SAR-based burned area mapping. The experimental results show that RCBI is more effective than the conventional log-ratio differencing approach in detecting burned areas. Though VV intensity itself may perform poorly, the accuracy can be significantly improved when phase information is integrated using Interferometric SAR (InSAR). On the other hand, VV intensity also shows the potential to improve VH intensity-based detection results with RCBI. By exploiting VH and VV intensity together, the proposed RCBI achieved an overall mapping accuracy of 94.68% and 94.17% on the 2017 Thomas Fire and the 2018 Carr Fire. For the scenario of near real-time application, we investigated and demonstrated the potential Sentinel-1 SAR time series for wildfire progression monitoring with Convolutional Neural Networks (CNN). In this study, the available pre-fire SAR time series were exploited to compute temporal average and standard deviation for characterizing SAR backscatter behaviors over time and highlighting the changes with kMap. Trained with binarized kMap time series in a progression-wise manner, CNN showed good capability in detecting wildfire burned areas and capturing temporal progressions as demonstrated on three large and impactful wildfires with various topographic conditions. Compared to the pseudo masks (binarized kMap), CNN-based framework brought an 0.18 improvement in F1 score on the 2018 Camp Fire, and 0.23 on the 2019 Chuckegg Creek Fire. The experimental results demonstrated that spaceborne SAR time series with deep learning can play a significant role for near real-time wildfire monitoring when the data becomes available at daily and hourly intervals. For continuous wildfire progression mapping, we proposed a novel framework of learning U-Net without forgetting in a near real-time manner. By imposing a temporal consistency restriction on the network response, Learning without Forgetting (LwF) allows the U-Net to learn new capabilities for better handling with newly incoming data, and simultaneously keep its existing capabilities learned before. Unlike the continuous joint training (CJT) with all available historical data, LwF makes U-Net learning not dependent on the historical training data any more. To improve the quality of SAR-based pseudo progression masks, we accumulated the burned areas detected by optical data acquired prior to SAR observations. The experimental results demonstrated that LwF has the potential to match CJT in terms of the agreement between SAR-based results and optical-based ground truth, achieving a F1 score of 0.8423 on the Sydney Fire (2019-2020) and 0.7807 on the Chuckegg Creek Fire (2019). We also found that the SAR cross-polarization ratio (VH/VV) can be very useful in highlighting burned areas when VH and VV have diverse temporal change behaviors. SAR-based change detection often suffers from the variability of the surrounding background noise, we proposed a Total Variation (TV)-regularized U-Net model to relieve the influence of SAR-based noisy masks. Considering the small size of labeled wildfire data, transfer learning was adopted to fine-tune U-Net from pre-trained weights based on the past wildfire data. We quantified the effects of TV regularization on increasing the connectivity of SAR-based areas, and found that TV-regularized U-Net can significantly increase the burned area mapping accuracy, bringing an improvement of 0.0338 in F1 score and 0.0386 in IoU score on the validation set. With TV regularization, U-Net trained with noisy SAR masks achieved the highest F1 (0.6904) and IoU (0.5295), while U-Net trained with optical reference mask achieved the highest F1 (0.7529) and IoU (0.6054) score without TV regularization. When applied on wildfire progression mapping, TV-regularized U-Net also worked significantly better than vanilla U-Net with the supervision of noisy SAR-based masks, visually comparable to optical mask-based results. On the regional scale, we demonstrated the effectiveness of deep learning on SAR-based and SAR-optical fusion based wildfire progression mapping. To scale up deep learning models and make them globally applicable, large-scale globally distributed data is needed. Considering the scarcity of labelled data in the field of remote sensing, weakly/self-supervised learning will be our main research directions to go in the near future. Note de contenu : 1- Introduction
2- Literature review
3- Study areas and data
4- Metodology
5- Results and discussionNuméro de notice : 28309 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Thèse étrangère Note de thèse : PhD Thesis : Geomatics : RTK Stockholm : 2021 DOI : sans En ligne : http://kth.diva-portal.org/smash/record.jsf?pid=diva2%3A1557429 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98130 Détection d’ouvertures par segmentation sémantique de nuages de points 3D : apport de l’apprentissage profond / Camille Lhenry (2021)
![]()
Titre : Détection d’ouvertures par segmentation sémantique de nuages de points 3D : apport de l’apprentissage profond Type de document : Mémoire Auteurs : Camille Lhenry, Auteur Editeur : Strasbourg : Institut National des Sciences Appliquées INSA Strasbourg Année de publication : 2021 Importance : 106 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] base de données dérivée
[Termes IGN] classification par Perceptron multicouche
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fenêtre (bâtiment)
[Termes IGN] image RVB
[Termes IGN] image thermique
[Termes IGN] modélisation 3D du bâti BIM
[Termes IGN] Python (langage de programmation)
[Termes IGN] réseau neuronal de graphes
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsIndex. décimale : INSAS Mémoires d'ingénieur de l'INSA Strasbourg - Topographie, ex ENSAIS Résumé : (auteur) Grâce au développement rapide des techniques d’acquisition 3D, les nuages de points sont de plus en plus utilisés dans divers domaines. Ils sont notamment la donnée de départ pour le développement de BIM (Building Information Modeling) de bâtiments existants, processus permettant le travail collaboratif des différents corps de métier. Néanmoins, le traitement de cette donnée est une étape majoritairement manuelle, longue et chronophage. Ce projet de fin d’études s’inscrit donc dans une problématique d’automatisation des traitements menant du nuage de points au BIM et se concentre sur la segmentation automatique des ouvertures des bâtiments. Cette problématique a été abordée par de multiples auteurs avec des méthodes algorithmiques ou d’apprentissage machine, qui nécessitent une certaine implication de l’utilisateur. Profitant de l’expansion du domaine de l’apprentissage profond, le réseau de neurones PointNet++ (Qi, Yi, Su & Guibas 2017) a été utilisé pour répondre à l’objectif de l’étude. Malgré les difficultés inhérentes à la nature des éléments à segmenter (transparence des matériaux, variabilité des styles architecturaux), la qualité de segmentation des ouvertures est prometteuse, notamment en couplant l’information thermique au nuage de points. Le défi majeur mis en évidence par l’étude est le manque de bases de données d’apprentissage, indispensables à l’utilisation de réseaux de neurones. Face à cet obstacle, une solution semi-automatique nécessitant la labellisation manuelle d’une portion limitée du bâtiment est présentée. Note de contenu : Introduction
1- Etat de l'art
2- Développement de la méthode
3- Résultats et discussions
Conclusions et perspectivesNuméro de notice : 28682 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Mémoire ingénieur INSAS Organisme de stage : Laboratoire ICUBE En ligne : http://eprints2.insa-strasbourg.fr/4492/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99976 Détection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)
![]()
Titre : Détection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu Type de document : Thèse/HDR Auteurs : Younes Zegaoui, Auteur ; Marc Chaumont, Directeur de thèse Editeur : Montpellier : Université de Montpellier Année de publication : 2021 Importance : 182 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée pour obtenir le grade de Docteur de l'Université de Montpellier, spécialité InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] classification dirigée
[Termes IGN] classification orientée objet
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] mobilier urbain
[Termes IGN] objet géographique urbain
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] zone urbaine denseIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Le développement des dispositifs d'acquisition LiDAR mobiles terrestres, montés sur véhicule ou drone, rendent possible la numérisation de villes entières sous la forme de nuages de points tridimensionnels géo-référencés. L'exploitation de ces données par les gestionnaires de ville permettent le recensement ainsi que le suivi au cours du temps des objets urbains qu'ils soient fixes (lampadaires, abribus…), mobiles (containers de poubelle) ou naturels (arbres) afin de pouvoir intervenir en cas de disparition, déplacement, détérioration ou de danger potentiel. Cette approche nécessite d'être en mesure de traiter des grands nuages pouvant compter plusieurs centaines de millions de points et réunir des milliers d'objets. Il devient donc nécessaire d'automatiser les traitements appliqués aux nuages de points afin de pouvoir extraire et classer automatiquement les éléments qui correspondent à des objets urbains. La diversité ainsi que le grand nombre d'objets urbains présents dans les villes sont un réel défi pour le développement d'approches automatisées. Dans cette thèse, nous explorons la piste récente de l'apprentissage profond appliqué aux données non structurées pour réaliser la localisation et la reconnaissance automatique d'objets urbains dans un nuage de points 3D. En s'inspirant des avancées récentes permises par le réseau PointNet, nous proposons de réaliser un apprentissage supervisé directement à partir des nuages de points sans passer par des transformations intermédiaires. Nous avons ainsi développé une architecture neuronale 3D que nous avons basée sur une couche originale permettant simultanément de regrouper des points et d'en extraire des caractéristiques. A partir de cette architecture, nous présentons les résultats que nous avons obtenues sur la tâche de détection d'objets urbains dans des nuages de points LiDAR obtenus dans des rues de grandes villes. Note de contenu : 1- Introduction
2- Etat de l’art
3- Architecture par clustering
4- Application à la détection d’objets en milieu urbain
5- Conclusion
6- PerspectivesNuméro de notice : 24108 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse de Doctorat : Informatique : Montpellier : 2021 Organisme de stage : Laboratoire LIRMM DOI : sans En ligne : https://tel.hal.science/tel-03589031/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100629 Détection et reconstruction 3D d’arbres urbains par segmentation de nuages de points : apport de l’apprentissage profond / Victor Alteirac (2021)
PermalinkDevelopment and analysis of land-use/land-cover spatio-temporal metrics in urban environments: Exploring urban growth patterns and linkages to socio-economic factors / Marta Sapena Moll (2021)
PermalinkDynamic committee machine with fuzzy-c-means clustering for total organic carbon content prediction from wireline logs / Yang Bai in Computers & geosciences, vol 146 (January 2021)
PermalinkEnsemble learning methods on the space of covariance matrices : application to remote sensing scene and multivariate time series classification / Sara Akodad (2021)
PermalinkEvaluation of multipath mitigation performance using signal-to-noise ratio (SNR) based signal selection methods / Valanon Uaratanawong in Journal of applied geodesy, vol 15 n° 1 (January 2021)
PermalinkEvaluation of a neural network with uncertainty for detection of ice and water in SAR imagery / Nazanin Asadi in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)
PermalinkEvaluation du stock de carbone aérien dans la végétation à partir de multiples observations satellites micro-ondes / Martin Cubaud (2021)
PermalinkExploration of reinforcement learning algorithms for autonomous vehicle visual perception and control / Florence Carton (2021)
PermalinkFOSTER - An R package for forest structure extrapolation / Martin Queinnec in Plos one, vol 16 n° 1 (January 2021)
PermalinkFrom local to global: A transfer learning-based approach for mapping poplar plantations at national scale using Sentinel-2 / Yousra Hamrouni in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)
Permalink