Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond
apprentissage profond |
Documents disponibles dans cette catégorie (186)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Deep learning-based point cloud compression Titre original : Compression de nuages de points par apprentissage profond Type de document : Thèse/HDR Auteurs : Maurice Quach, Auteur ; Frédéric Dufaux, Directeur de thèse ; Giuseppe Valenzise, Directeur de thèse Editeur : Bures-sur-Yvette : Université Paris-Saclay Année de publication : 2022 Importance : 165 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de Doctorat de l'Université de Saclay, spécialité Traitement du signal et des imagesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage profond
[Termes IGN] attribut
[Termes IGN] compression d'image
[Termes IGN] compression de données
[Termes IGN] géométrie
[Termes IGN] semis de points
[Termes IGN] stockage de donnéesIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Point clouds are becoming essential in key applications with advances in capture technologies leading to large volumes of data.Compression is thus essential for storage and transmission.Point Cloud Compression can be divided into two parts: geometry and attribute compression.In addition, point cloud quality assessment is necessary in order to evaluate point cloud compression methods.Geometry compression, attribute compression and quality assessment form the three main parts of this dissertation.The common challenge across these three problems is the sparsity and irregularity of point clouds.Indeed, while other modalities such as images lie on a regular grid, point cloud geometry can be considered as a sparse binary signal over 3D space and attributes are defined on the geometry which can be both sparse and irregular.First, the state of the art for geometry and attribute compression methods with a focus on deep learning based approaches is reviewed.The challenges faced when compressing geometry and attributes are considered, with an analysis of the current approaches to address them, their limitations and the relations between deep learning and traditional ones.We present our work on geometry compression: a convolutional lossy geometry compression approach with a study on the key performance factors of such methods and a generative model for lossless geometry compression with a multiscale variant addressing its complexity issues.Then, we present a folding-based approach for attribute compression that learns a mapping from the point cloud to a 2D grid in order to reduce point cloud attribute compression to an image compression problem.Furthermore, we propose a differentiable deep perceptual quality metric that can be used to train lossy point cloud geometry compression networks while being well correlated with perceived visual quality and a convolutional neural network for point cloud quality assessment based on a patch extraction approach.Finally, we conclude the dissertation and discuss open questions in point cloud compression, existing solutions and perspectives. We highlight the link between existing point cloud compression research and research problems to relevant areas of adjacent fields, such as rendering in computer graphics, mesh compression and point cloud quality assessment. Note de contenu : 1- Introduction
2- State of the Art on point cloud compression
3- Convolutional neural networks for lossy PCGC
4- Deep generative model for lossless PCGC
5- Deep multiscale lossless PCGC
6- Folding-based PCAC
7- Deep perceptual point cloud quality metric
8- Convolutional Neural Network for PCQANuméro de notice : 24081 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de doctorat : Traitement du signal et des images : Paris-Saclay : 2022 Organisme de stage : Laboratoire des signaux et systèmes DOI : sans En ligne : https://theses.hal.science/tel-03894261 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102331
Titre : Deep learning based vehicle detection in aerial imagery Type de document : Monographie Auteurs : Lars Wilko Sommer, Éditeur scientifique Editeur : Karlsruhe [Allemagne] : KIT Scientific Publishing Année de publication : 2022 Importance : 276 p. Format : 15 x 21 cm ISBN/ISSN/EAN : 978-3-7315-1113-7 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] ancre
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] filtre
[Termes IGN] image aérienne
[Termes IGN] véhiculeRésumé : (éditeur) This book proposes a novel deep learning based detection method, focusing on vehicle detection in aerial imagery recorded in top view. The base detection framework is extended by two novel components to improve the detection accuracy by enhancing the contextual and semantical content of the employed feature representation. To reduce the inference time, a lightweight CNN architecture is proposed as base architecture and a novel module that restricts the search area is introduced. Note de contenu : 1- Introduction
2- Related work
3- Concept
4- Experimental setup
5- Base framework
6- Integration of contextual knowledge
7- Runtime optimization
8- Evaluation
9- Conclusions and outlookNuméro de notice : 28685 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Recueil / ouvrage collectif DOI : 10.5445/KSP/1000135415 En ligne : https://doi.org/10.5445/KSP/1000135415 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100015
Titre : Deep learning for anchor detection in multi-scale maps Type de document : Article/Communication Auteurs : Quentin Potié , Auteur ; Guillaume Touya , Auteur ; Chaimaa Beladraoui, Auteur ; Amina El-Moutaouakkil, Auteur ; William A Mackaness, Auteur Editeur : International Cartographic Association ICA - Association cartographique internationale ACI Année de publication : 2022 Collection : Abstracts of the ICA num. 5 Projets : LostInZoom / Touya, Guillaume Conférence : EuroCarto 2022, European Cartographic Conference 19/09/2022 21/09/2022 Vienne Autriche OA Proceedings Note générale : bibliographie
This project has received funding from the European Research Council (ERC) under the European Union‟s Horizon 2020 research and innovation programme (grant agreement No. 101003012)Langues : Anglais (eng) Descripteur : [Termes IGN] ancre
[Termes IGN] apprentissage profond
[Termes IGN] point de repère
[Termes IGN] reconnaissance de formes
[Termes IGN] visualisation multiéchelle
[Vedettes matières IGN] GénéralisationNuméro de notice : C2022-037 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : GEOMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.5194/ica-abs-5-82-2022 Date de publication en ligne : 14/09/2022 En ligne : http://dx.doi.org/10.5194/ica-abs-5-82-2022 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101622
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125
Titre : Deep surface reconstruction from point clouds with visibility information Type de document : Article/Communication Auteurs : Raphaël Sulzer , Auteur ; Loïc Landrieu , Auteur ; Alexandre Boulch, Auteur ; Renaud Marlet, Auteur ; Bruno Vallet , Auteur Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Année de publication : 2022 Projets : BIOM / Vallet, Bruno Conférence : ICPR 2022, 26th International Conference on Pattern Recognition 21/08/2022 25/08/2022 Montréal Québec - Canada Proceedings IEEE Importance : 13 p. Format : 21 x 30 cm Note générale : bibliographie
https://doi.org/10.48550/arXiv.2202.01810 sur ArXivLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] reconstruction d'objet
[Termes IGN] semis de points
[Termes IGN] visibilitéRésumé : (auteur) Most current neural networks for reconstructing surfaces from point clouds ignore sensor poses and only operate on raw point locations. Sensor visibility, however, holds meaningful information regarding space occupancy and surface orientation. In this paper, we present two simple ways to augment raw point clouds with visibility information, so it can directly be leveraged by surface reconstruction networks with minimal adaptation. Our proposed modifications consistently improve the accuracy of generated surfaces as well as the generalization ability of the networks to unseen shape domains. Numéro de notice : C2022-048 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.48550/arXiv.2202.01810 Date de publication en ligne : 03/02/2022 En ligne : https://doi.org/10.1109/ICPR56361.2022.9956560 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99811 Detection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks / Stefan Reder in Remote sensing, vol 14 n° 1 (January-1 2022)PermalinkDétection des prairies de fauche et estimation des périodes de fauche par télédétection / Emma Seneschal (2022)PermalinkDeveloping the potential of airborne lidar systems for the sustainable management of forests / Karun Dayal (2022)PermalinkDevelopment of object detectors for satellite images by deep learning / Alissa Kouraeva (2022)PermalinkPermalinkEstimating aboveground biomass in dense Hyrcanian forests by the use of Sentinel-2 data / Fardin Moradi in Forests, vol 13 n° 1 (January 2022)PermalinkExploring data fusion for multi-object detection for intelligent transportation systems using deep learning / Amira Mimouna (2022)PermalinkGénération d’un jeu de données d’entraînement et mise en oeuvre d’une architecture de détection par deep learning des numéros de parcelles sur les plans du cadastre Napoléonien / Tiecoumba Ibrahim Tamela (2022)PermalinkA GIS-based landslide susceptibility mapping and variable importance analysis using artificial intelligent training-based methods / Pengxiang Zhao in Remote sensing, vol 14 n° 1 (January-1 2022)PermalinkGlobal canopy height regression and uncertainty estimation from GEDI LIDAR waveforms with deep ensembles / Nico Lang in Remote sensing of environment, vol 268 (January 2022)PermalinkHigh-resolution canopy height map in the Landes forest (France) based on GEDI, Sentinel-1, and Sentinel-2 data with a deep learning approach / Martin Schwartz (2022)PermalinkInteractive semantic segmentation of aerial images with deep neural networks / Gaston Lenczner (2022)PermalinkPermalinkLearning spatio-temporal representations of satellite time series for large-scale crop mapping / Vivien Sainte Fare Garnot (2022)PermalinkPermalinkPermalinkMLMT-CNN for object detection and segmentation in multi-layer and multi-spectral images / Majedaldein Almahasneh in Machine Vision and Applications, vol 33 n° 1 (January 2022)PermalinkModeling of precipitable water vapor from GPS observations using machine learning and tomography methods / Mir Reza Ghaffari Razin in Advances in space research, vol 69 n° 7 (April 2022)PermalinkMonitoring grassland dynamics by exploiting multi-modal satellite image time series / Anatol Garioud (2022)PermalinkMonitoring leaf phenology in moist tropical forests by applying a superpixel-based deep learning method to time-series images of tree canopies / Guangqin Song in ISPRS Journal of photogrammetry and remote sensing, vol 183 (January 2022)Permalink