Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > reconstruction 3D
reconstruction 3DSynonyme(s)reconstruction volumique reconstruction volumique tridimensionnelle |
Documents disponibles dans cette catégorie (233)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Développement de la photogrammétrie et d'analyses d'images pour l'étude et le suivi d'habitats marins / Guilhem Marre (2020)
Titre : Développement de la photogrammétrie et d'analyses d'images pour l'étude et le suivi d'habitats marins Type de document : Thèse/HDR Auteurs : Guilhem Marre, Auteur ; Julie Deter, Directeur de thèse ; Sandra Luque, Directeur de thèse Editeur : Montpellier : Université de Montpellier Année de publication : 2020 Importance : 286 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le grade de Docteur de l'Université de Montpellier en Sciences de la merLangues : Français (fre) Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] cartographie hydrographique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] habitat (nature)
[Termes IGN] herbier marin
[Termes IGN] lever bathymétrique
[Termes IGN] Méditerranée, mer
[Termes IGN] milieu marin
[Termes IGN] photogrammétrie sous-marine
[Termes IGN] plante aquatique d'eau salée
[Termes IGN] récif corallien
[Termes IGN] reconnaissance d'objets
[Termes IGN] reconstruction 3D
[Termes IGN] surveillance écologiqueIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Dans un contexte de changement climatique et d’érosion de la biodiversité marine, la surveillance écologique des habitats marins les plus sensibles est primordiale et nécessite des méthodes opérationnelles de suivi permettant aux décideurs et gestionnaires d’établir des mesures de conservation pertinentes et d’évaluer leur efficacité. TEMPO et RECOR sont deux réseaux de surveillance centrés sur les herbiers de posidonie et les récifs coralligènes, les deux habitats les plus riches et sensibles de Méditerranée. L’objectif de cette thèse est de répondre aux besoins de la surveillance des habitats marins par le développement de méthodes d’évaluation de leur état de santé, basées sur deux techniques d’analyses d’images clés : les réseaux de neurones convolutifs et la photogrammétrie. Les résultats montrent que les réseaux de neurones convolutifs sont capables de reconnaître les principales espèces des assemblages coralligènes sur des photos sous-marines issues de RECOR, avec une précision semblable à celle d’un expert taxonomiste. Par ailleurs, nous avons montré que la photogrammétrie permettait de reproduire en 3D un habitat marin avec une grande précision, suffisante pour un suivi de la structure de l’habitat et de la distribution d’espèces à fine échelle. À partir de ces reconstructions, nous avons mis au point une méthode de cartographie automatique des herbiers de posidonie, permettant de réaliser un suivi temporel de la qualité écologique de cet habitat sensible. Enfin, nous avons caractérisé la structure 3D des récifs coralligènes à partir de leurs reconstructions photogrammétriques et étudié les liens avec la structuration des assemblages qui les composent. Ce travail de thèse a permis de développer des méthodes opérationnelles, aujourd’hui intégrées aux réseaux de surveillance TEMPO et RECOR, et ouvre la voie à de futures recherches, notamment la caractérisation de l’activité biologique des récifs coralligènes grâce au couplage entre photogrammétrie, réseaux de neurones et acoustique sous-marine. Note de contenu : 1- Introduction générale
2- Méthodes
3- Résultats
4- Discussion généraleNuméro de notice : 28563 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Sciences de la mer : Montpellier : 2020 Organisme de stage : Andromède Océanologie (Carnon) nature-HAL : Thèse En ligne : https://hal-cnrs.archives-ouvertes.fr/tel-02951806v2/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97607 Fusion d'approches photométriques et géométriques pour la création de modèles 3D / Jean Mélou (2020)
Titre : Fusion d'approches photométriques et géométriques pour la création de modèles 3D Type de document : Thèse/HDR Auteurs : Jean Mélou, Auteur ; Jean-Denis Durou, Directeur de thèse Editeur : Toulouse : Université de Toulouse Année de publication : 2020 Autre Editeur : Toulouse : Institut National Polytechnique de Toulouse INPT Importance : 121 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, délivré par l’Institut National Polytechnique de Toulouse en Informatique et TélécommunicationLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] albedo
[Termes IGN] éclairage
[Termes IGN] ombre
[Termes IGN] photogrammétrie
[Termes IGN] reconstruction 3D
[Termes IGN] réflectance
[Termes IGN] rendu réaliste
[Termes IGN] stéréoscopie
[Termes IGN] structure-from-motionIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les solutions opérationnelles de reconstruction 3D à partir de photographies se fondent généralement sur des méthodes multi-vues, dites géométriques, qui n'utilisent que très partiellement les informations photométriques contenues dans les images. L'utilisation de ces dernières doit permettre, à la fois, d’augmenter la finesse du relief reconstruit et d’estimer les caractéristiques photométriques de la scène que sont la réflectance de la surface et l’éclairage incident. Cette thèse montre comment une approche combinant les techniques multi-vues et les techniques photométriques peut effectivement améliorer un pipeline de reconstruction 3D. Nous commençons par présenter une façon de rendre la méthode du shape-from-shading opérationnelle en conditions d'éclairage naturel. Ceci nous permet de combiner les approches multi-vues et photométriques sous la forme d'un problème variationnel, pour lequel nous proposons un schéma numérique de résolution. Cependant, comme le shape-from-shading luimême, la méthode proposée nécessite la connaissance a priori de la réflectance et de l’éclairage. Nous présentons une méthode d'estimation conjointe de ces deux grandeurs à partir d'un relief grossier de la scène. En guise de conclusion, nous présentons un algorithme qui, à partir des images utilisées par un pipeline de reconstruction 3D multi-vues, permet d'estimer une carte de réflectance et une carte de profondeur par vue, ainsi que l’éclairage de la scène. Note de contenu : Introduction
1- Photogrammétrie
2- Shape-from-shading en conditions d’éclairage naturel
3- MVS et SfS
4- Estimation de l’albédo et de l’éclairage
ConclusionNuméro de notice : 28567 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunication : Toulouse : 2020 Organisme de stage : IRIT Toulouse nature-HAL : Thèse En ligne : https://hal.science/tel-02940259 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97697 De l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond / Lionel Matteo (2020)
Titre : De l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond Type de document : Thèse/HDR Auteurs : Lionel Matteo, Auteur Editeur : Nice : Université Côte d'Azur Année de publication : 2020 Importance : 170 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse en vue de l’obtention du grade de docteur de l'Université Côte d'Azur, en Sciences de la Terre et de l’UniversLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] acquisition d'images
[Termes IGN] analyse comparative
[Termes IGN] apprentissage profond
[Termes IGN] Arizona (Etats-Unis)
[Termes IGN] Californie (Etats-Unis)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données topographiques
[Termes IGN] faille géologique
[Termes IGN] fusion de données multisource
[Termes IGN] image captée par drone
[Termes IGN] image multi sources
[Termes IGN] image Pléiades-HR
[Termes IGN] MicMac
[Termes IGN] modèle de simulation
[Termes IGN] modèle numérique de surface
[Termes IGN] Nevada (Etats-Unis)
[Termes IGN] reconstruction 3D
[Termes IGN] semis de points
[Termes IGN] stéréo-orthophotographie
[Termes IGN] traitement de semis de pointsIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Les failles sismogéniques sont la source des séismes. L'étude de leurs propriétés nous informe donc sur les caractéristiques des forts séismes qu'elles peuvent produire. Les failles sont des objets 3D qui forment des réseaux complexes incluant une faille principale et une multitude de failles et fractures secondaires qui "découpent" la roche environnante à la faille principale. Mon objectif dans cette thèse a été de développer des approches pour aider à étudier cette fracturation secondaire intense. Pour identifier, cartographier et mesurer les fractures et les failles dans ces réseaux, j'ai adressé deux défis : -1) Les failles peuvent former des escarpements topographiques très pentus à la surface du sol, créant des "couloirs" ou des canyons étroits et profond où la topographie et donc, la trace des failles, peut être difficile à mesurer en utilisant des méthodologies standard (comme des acquisitions d'images satellites optiques stéréo et tri-stéréo). Pour répondre à ce défi, j'ai utilisé des acquisitions multi-stéréos avec différentes configurations (différents angles de roulis et tangage, différentes dates et modes d'acquisitions). Notre base de données constituée de 37 images Pléiades dans trois sites tectoniques différents dans l'Ouest américain (Valley of Fire, Nevada ; Granite Dells, Arizona ; Bishop Tuff, California) m'a permis de tester différentes configurations d'acquisitions pour calculer la topographie avec trois approches différentes. En utilisant la solution photogrammétrique open-source Micmac (IGN ; Rupnik et al., 2017), j'ai calculé la topographie sous la forme de Modèles Numériques de Surfaces (MNS) : (i) à partir de combinaisons de 2 à 17 images Pléiades, (ii) en fusionnant des MNS calculés individuellement à partir d'acquisitions stéréo et tri-stéréo, évitant alors l'utilisant d'acquisitions multi-dates et (iii) en fusionnant des nuages de points calculés à partir d'acquisitions tri-stéréos en suivant la méthodologie multi-vues développée par Rupnik et al. (2018). J’ai aussi combiné, dans une dernière approche (iv), des acquisitions tri-stéréos avec la méthodologie multi-vues stéréos du CNES/CMLA (CARS) développé par Michel et al. (2020), en combinant des acquisitions tri-stéréos. A partir de ces quatre approches, j'ai calculé plus de 200 MNS et mes résultats suggèrent que deux acquisitions tri-stéréos ou une acquisition stéréo combinée avec une acquisition tri-stéréo avec des angles de roulis opposés permettent de calculer les MNS avec la surface topographique la plus complète et précise. -2) Couramment, les failles sont cartographiées manuellement sur le terrain ou sur des images optiques et des données topographiques en identifiant les traces curvilinéaires qu'elles forment à la surface du sol. Néanmoins, la cartographie manuelle demande beaucoup de temps, ce qui limite notre capacité à produire cartographies et mesures complètes des réseaux de failles. Pour s'affranchir de ce problème, j'ai adopté une approche d'apprentissage profond, couramment appelé un réseau de neurones convolutifs (CNN) - U-Net, pour automatiser l'identification et la cartographie des fractures et des failles dans des images optiques et des données topographiques. Volontairement, le modèle CNN a été entraîné avec une quantité modérée de fractures et failles cartographiées manuellement à basse résolution et dans un seul type d'images optiques (photographies du sol avec des caméras classiques). A partir d'un grand nombre de tests, j'ai sélectionné le meilleur modèle, MRef et démontre sa capacité à prédire des fractures et des failles précisément dans données optiques et topographiques de différents types et différentes résolutions (photographies prises au sol, avec un drone et par satellite). Le modèle MRef montre de bonnes capacités de généralisations faisant alors de ce modèle un bon outil pour cartographie rapidement et précisément des fractures et des failles dans des images optiques et des données topographiques. Note de contenu : Introduction générale
Partie 1 - Reconstruction 3D haute résolution
1. Introduction
1.1 Les données topographiques, une solution pour analyser la surface terrestre
1.2 Le récent développement de satellites à capteur optique
1.3 La reconstruction 3D à partir d’images optiques : la photogrammétrie
1.4 Problématique du sujet
2. Acquisitions de données et sites d’études
2.1 Acquisitions d’images satellitaires
2.2 Données LiDAR aéroportées
2.3 Acquisitions d’images par drone
2.4 Acquisitions d’images par appareil photo suspendu à une perche
2.5 Acquisitions de points d’appui
2.6 Sites d’études
3. Calcul de MNS et estimation de leur performance
3.1 Micmac (IGN)
3.2 CARS (CNES/CMLA)
3.3 Quatre méthodes pour calculer des MNS
3.4 Performances des MNS
4. Résultats
4.1 MNS calculés avec des acquisitions multi-dates
4.2 Fusion de MNS calculés avec des acquisitions mono-dates
4.3 Reconstruction 3D à partir de nuage de points fusionnés
4.4 Analyses des MNS générés avec CARS
4.5 Comparaison des méthodes B, C et D dans la zone de Canyons de Valley of Fire 65
4.6 Utilisation de 1 à 4 GCPs pour calculer un MNS
4.7 Application de la méthode B aux deux autres sites
5. Discussion
5.1 La reconstruction 3D à partir d’acquisitions multi-dates
5.2 L’impact des méthodes B, C et D dans la performance des MNS finaux
5.3 Les erreurs possibles dans le calcul des erreurs du géoréférencement des MNS
5.4 La comparaison des MNS Pléiades calculés à d’autres MNS
6. Conclusions
Partie 2 - Automatic fault mapping in remote optical images and topographic data with deep learning - submitted to JGR: Solid Earth
7. Introduction
8. Image, topographic and fault data
8.1 Fault Sites
8.2 Optical image and topographic data
8.3 Fault ground truth derived from manual mapping
9. Deep learning methodology
9.1 Principles of Deep Learning and Convolutional Neural Networks
9.2 Architecture of the CNN model used in present study
9.3 Training procedure
9.4 Estimating the performance of the models
10. Defining a “reference model” MRef
10.1 Selecting the most appropriate CNN architecture
10.2 Sensitivity of model performance to training data size
10.3 Sensitivity of model performance to “quality” of training data
10.4 Refrence model
11. Detailed evaluation of reference model fault predictions
11.1 Results in sites A and B
11.2 Predictions in unseen data of similar type
11.3 Predictions in unseen data of different type
12. Discussion
12.1 U-net appropriate for fracture and fault detection in optical images
12.2 Interpreting learnt characteristics of faults and fractures
12.3 Conditions for model generalization
12.4 Uncertainties and model robustness
12.5 Recovering fault hierarchy and connectivity
13 Conclusions
Conclusion généraleNuméro de notice : 26555 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Sciences de la Terre et de l'Univers : Côte d'Azur : 2020 Organisme de stage : Géoazur UMR 7329 - Observatoire de la Côte d'Azur nature-HAL : Thèse Date de publication en ligne : 02/06/2021 En ligne : https://tel.archives-ouvertes.fr/tel-03245713/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97965
Titre : Learning 3D generation and matching Type de document : Thèse/HDR Auteurs : Thibault Groueix, Auteur ; Mathieu Aubry, Directeur de thèse Editeur : Paris : Ecole Nationale des Ponts et Chaussées ENPC Année de publication : 2020 Importance : 169 p. Format : 21 x 30 cm Note générale : bibliographie
A doctoral thesis in the domain of automated signal and image processing submitted to École Doctorale Paris-Est
Mathématiques et Sciences et Technologies de l’Information et de la CommunicationLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] appariement de formes
[Termes IGN] appariement dense
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] déformation de surface
[Termes IGN] isométrie
[Termes IGN] maillage
[Termes IGN] modélisation 3D
[Termes IGN] reconstruction 3D
[Termes IGN] reconstruction d'image
[Termes IGN] segmentation d'image
[Termes IGN] semis de points
[Termes IGN] voxelIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The goal of this thesis is to develop deep learning approaches to model and analyse 3D shapes. Progress in this field could democratize artistic creation of 3D assets which currently requires time and expert skills with technical software. We focus on the design of deep learning solutions for two particular tasks, key to many 3D modeling applications: single-view reconstruction and shape matching. A single-view reconstruction (SVR) method takes as input a single image and predicts the physical world which produced that image. SVR dates back to the early days of computer vision. In particular, in the 1960s, Lawrence G. Roberts proposed to align simple 3D primitives to the input image under the assumption that the physical world is made of cuboids. Another approach proposed by Berthold Horn in the 1970s is to decompose the input image in intrinsic images and use those to predict the depth of every input pixel. Since several configurations of shapes, texture and illumination can explain the same image, both approaches need to form assumptions on the distribution of images and 3D shapes to resolve the ambiguity. In this thesis, we learn these assumptions from large-scale datasets instead of manually designing them. Learning allows us to perform complete object reconstruction, including parts which are not visible in the input image. Shape matching aims at finding correspondences between 3D objects. Solving this task requires both a local and global understanding of 3D shapes which is hard to achieve explicitly. Instead we train neural networks on large-scale datasets to solve this task and capture this knowledge implicitly through their internal parameters.Shape matching supports many 3D modeling applications such as attribute transfer, automatic rigging for animation, or mesh editing.The first technical contribution of this thesis is a new parametric representation of 3D surfaces modeled by neural networks.The choice of data representation is a critical aspect of any 3D reconstruction algorithm. Until recently, most of the approaches in deep 3D model generation were predicting volumetric voxel grids or point clouds, which are discrete representations. Instead, we present an alternative approach that predicts a parametric surface deformation ie a mapping from a template to a target geometry. To demonstrate the benefits of such a representation, we train a deep encoder-decoder for single-view reconstruction using our new representation. Our approach, dubbed AtlasNet, is the first deep single-view reconstruction approach able to reconstruct meshes from images without relying on an independent post-processing, and can do it at arbitrary resolution without memory issues. A more detailed analysis of AtlasNet reveals it also generalizes better to categories it has not been trained on than other deep 3D generation approaches.Our second main contribution is a novel shape matching approach purely based on reconstruction via deformations. We show that the quality of the shape reconstructions is critical to obtain good correspondences, and therefore introduce a test-time optimization scheme to refine the learned deformations. For humans and other deformable shape categories deviating by a near-isometry, our approach can leverage a shape template and isometric regularization of the surface deformations. As category exhibiting non-isometric variations, such as chairs, do not have a clear template, we learn how to deform any shape into any other and leverage cycle-consistency constraints to learn meaningful correspondences. Our reconstruction-for-matching strategy operates directly on point clouds, is robust to many types of perturbations, and outperforms the state of the art by 15% on dense matching of real human scans. Note de contenu : 1- Introduction
2 Related Work
3 AtlasNet: A Papier-Mache Approach to Learning 3D Surface Generation
4 3D-CODED : 3D Correspondences by Deep Deformation
5 Unsupervised cycle-consistent deformation for shape matching
6 ConclusionNuméro de notice : 28310 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Automated signal and image processing : Paris-Est : 2020 Organisme de stage : LIGM DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-03127055v2/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98201
Titre : Learning stereo reconstruction with deep neural networks Type de document : Thèse/HDR Auteurs : Stepan Tulyakov, Auteur ; François Fleuret, Directeur de thèse ; Anton Ivanov, Directeur de thèse Editeur : Lausanne : Ecole Polytechnique Fédérale de Lausanne EPFL Année de publication : 2020 Importance : 139 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée à l'Ecole Polytechnique Fédérale de Lausanne pour l’obtention du grade de Docteur ès SciencesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification semi-dirigée
[Termes IGN] contrainte géométrique
[Termes IGN] couple stéréoscopique
[Termes IGN] entropie
[Termes IGN] estimateur
[Termes IGN] étalonnage géométrique
[Termes IGN] modèle stéréoscopique
[Termes IGN] profondeur
[Termes IGN] réalité de terrain
[Termes IGN] reconstruction 3D
[Termes IGN] reconstruction d'image
[Termes IGN] vision par ordinateur
[Termes IGN] vision stéréoscopiqueRésumé : (auteur) Stereo reconstruction is a problem of recovering a 3d structure of a scene from a pair of images of the scene, acquired from different viewpoints. It has been investigated for decades and many successful methods were developed. The main drawback of these methods, is that they typically utilize a single depth cue, such as parallax, defocus blur or shading, and thus are not as robust as a human visual system that simultaneously relies on a range of monocular and binocular cues. This is mainly because it is hard to manually design a model, accounting for multiple depth cues. In this work, we address this problem by focusing on deep learning-based stereo methods that can discover a model for multiple depth cues directly from training data with ground truth depth. The complexity of deep learning-based methods, however, requires very large training sets with ground truth depth, which is often hard or costly to collect. Furthermore, even when training data is available it is often contaminated with noise, which reduces the effectiveness of supervised learning. In this work, in Chapter 3 we show that it is possible to alleviate this problem by using weakly supervised learning, that utilizes geometric constraints of the problem instead of ground truth depth. Besides the large training set requirement, deep stereo methods are not as application-friendlyas traditional methods. They have a large memory footprint and their disparity range is fixed at training time. For some applications, such as satellite stereo i magery, these are serious problems since satellite images are very large, often reaching tens of megapixels, and have a variable baseline, depending on a time difference between stereo images acquisition. In this work, in Chapter 4 we address these problems by introducing a novel network architecture with a bottleneck, capable of processing large images and utilizing more context, and an estimator that makes the network less sensitive to stereo matching ambiguities and applicable to any disparity range without re-training. Because deep learning-based methods discover depth cues directly from training data, they can be adapted to new data modalities without large modifications. In this work, in Chapter 5 we show that our method, developed for a conventional frame-based camera, can be used with a novel event-based camera, that has a higher dynamic range, smaller latency, and low power consumption. Instead of sampling intensity of all pixels with a fixed frequency, this camera asynchronously reports events of significant pixel intensity changes. To adopt our method to this new data modality, we propose a novel event sequence embedding module, that firstly aggregates information locally, across time, using a novel fully-connected layer for an irregularly sampled continuous domain, and then across discrete spatial domain. One interesting application of stereo is a reconstruction of a planet’s surface topography from satellite stereo images. In this work, in Chapter 6 we describe a geometric calibration method, as well as mosaicing and stereo reconstruction tools that we developed in the framework of the doctoral project for Color and Stereo Surface Imaging System onboard of ESA’s Trace Gas Orbiter, orbiting Mars. For the calibration, we propose a novel method, relying on starfield images because large focal lengths and complex optical distortion of the instrument forbid using standard methods. Scientific and practical results of this work are widely used by a scientific community. Note de contenu : 1- Introduction
2- Background
3- Weakly supervised learning of deep patch-matching cost
4- Applications-friendly deep stereo
5- Dense deep event-based stereo
6- Calibration of a satellite stereo system
7- ConclusionsNuméro de notice : 25795 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : Thèse de Doctorat : Sciences : Lausanne : 2020 En ligne : https://infoscience.epfl.ch/record/275342?ln=fr Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95025 PermalinkMoving objects aware sensor mesh fusion for indoor reconstruction from a couple of 2D lidar scans / Teng Wu (2020)PermalinkPermalinkProbabilistic pose estimation and 3D reconstruction of vehicles from stereo images / Maximilian Alexander Coenen (2020)PermalinkPermalinkPermalinkPermalinkRobust pose estimation and calibration of catadioptric cameras with spherical mirrors / Sagi Filin in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 1 (January 2020)PermalinkSimplicial complexes reconstruction and generalisation of 3d lidar data in urban scenes / Stéphane Guinard (2020)PermalinkStreambank topography: an accuracy assessment of UAV-based and traditional 3D reconstructions / Benjamin U. Meinen in International Journal of Remote Sensing IJRS, vol 41 n° 1 (01 - 08 janvier 2020)Permalink