Descripteur
Documents disponibles dans cette catégorie (1332)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125
Titre : Deep surface reconstruction from point clouds with visibility information Type de document : Article/Communication Auteurs : Raphaël Sulzer , Auteur ; Loïc Landrieu , Auteur ; Alexandre Boulch, Auteur ; Renaud Marlet, Auteur ; Bruno Vallet , Auteur Editeur : Ithaca [New York - Etats-Unis] : ArXiv - Université Cornell Année de publication : 2022 Projets : BIOM / Vallet, Bruno Conférence : ICPR 2022, 26th International Conference on Pattern Recognition 21/08/2022 25/08/2022 Montréal Québec - Canada Proceedings IEEE Importance : 13 p. Format : 21 x 30 cm Note générale : bibliographie
https://doi.org/10.48550/arXiv.2202.01810 sur ArXivLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] reconstruction d'objet
[Termes IGN] semis de points
[Termes IGN] visibilitéRésumé : (auteur) Most current neural networks for reconstructing surfaces from point clouds ignore sensor poses and only operate on raw point locations. Sensor visibility, however, holds meaningful information regarding space occupancy and surface orientation. In this paper, we present two simple ways to augment raw point clouds with visibility information, so it can directly be leveraged by surface reconstruction networks with minimal adaptation. Our proposed modifications consistently improve the accuracy of generated surfaces as well as the generalization ability of the networks to unseen shape domains. Numéro de notice : C2022-048 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.48550/arXiv.2202.01810 Date de publication en ligne : 03/02/2022 En ligne : https://doi.org/10.1109/ICPR56361.2022.9956560 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99811 Detecting and visualizing observation hot-spots in massive volunteer-contributed geographic data across spatial scales using GPU-accelerated kernel density estimation / Guiming Zhang in ISPRS International journal of geo-information, vol 11 n° 1 (January 2022)
[article]
Titre : Detecting and visualizing observation hot-spots in massive volunteer-contributed geographic data across spatial scales using GPU-accelerated kernel density estimation Type de document : Article/Communication Auteurs : Guiming Zhang, Auteur Année de publication : 2022 Article en page(s) : n° 55 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Géomatique web
[Termes IGN] données localisées des bénévoles
[Termes IGN] données massives
[Termes IGN] estimation par noyau
[Termes IGN] exploration de données géographiques
[Termes IGN] géovisualisation
[Termes IGN] processeur graphique
[Termes IGN] qualité des données
[Termes IGN] réseau social
[Termes IGN] tâche claireRésumé : (auteur) Volunteer-contributed geographic data (VGI) is an important source of geospatial big data that support research and applications. A major concern on VGI data quality is that the underlying observation processes are inherently biased. Detecting observation hot-spots thus helps better understand the bias. Enabled by the parallel kernel density estimation (KDE) computational tool that can run on multiple GPUs (graphics processing units), this study conducted point pattern analyses on tens of millions of iNaturalist observations to detect and visualize volunteers’ observation hot-spots across spatial scales. It was achieved by setting varying KDE bandwidths in accordance with the spatial scales at which hot-spots are to be detected. The succession of estimated density surfaces were then rendered at a sequence of map scales for visual detection of hot-spots. This study offers an effective geovisualization scheme for hierarchically detecting hot-spots in massive VGI datasets, which is useful for understanding the pattern-shaping drivers that operate at multiple spatial scales. This research exemplifies a computational tool that is supported by high-performance computing and capable of efficiently detecting and visualizing multi-scale hot-spots in geospatial big data and contributes to expanding the toolbox for geospatial big data analytics. Numéro de notice : A2022-091 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/ijgi11010055 Date de publication en ligne : 12/01/2022 En ligne : https://doi.org/10.3390/ijgi11010055 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99507
in ISPRS International journal of geo-information > vol 11 n° 1 (January 2022) . - n° 55[article]
Titre : Détection des micro et macroplastiques à partir de mesures spectrales Type de document : Mémoire Auteurs : Martin Cubaud, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2022 Importance : 82 p. Format : 21 x 30 cm Note générale : Bibliographie
Mémoire de fin d'études, cycle des ingénieurs ENSG 3ème annéeLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] analyse de données
[Termes IGN] apprentissage automatique
[Termes IGN] bande infrarouge
[Termes IGN] déchet
[Termes IGN] dégradation de l'environnement
[Termes IGN] détection d'anomalie
[Termes IGN] détection de cible
[Termes IGN] image captée par drone
[Termes IGN] image hyperspectrale
[Termes IGN] matière plastique
[Termes IGN] plateau continental
[Termes IGN] pollution
[Termes IGN] spectrométrieIndex. décimale : MPT Mémoires de fin d'études du Master Méthodes physiques en télédétection Résumé : (Auteur) La pollution plastique pose d’importants problèmes pour les organismes vivants, et nécessite donc d’être surveillée de manière fiable et efficace. Le présent rapport de stage compare différentes méthodes pour détecter et identifier la nature de déchets plastiques à partir d’images hyperspectrales dans l’infrarouge court (SWIR, entre 1 et 2,5 µm) prises par drone au-dessus de surfaces continentales : détection d’anomalies, indices spectraux, détection de cibles et apprentissage automatique. Il s’intéresse également à la quantification de l’abondance sub-pixellique des plastiques, et notamment des microplastiques d’une taille inférieure à 5 mm. Note de contenu : Introduction
1. Analyse des données
1.1 Présentation des données
1.2 Analyse et comparaison de spectres
2. Méthodologie 19
2.1 Réduction de dimension
2.2 Détection des plastiques
2.3 Démélange spectral
2.4 Métriques d’évaluation
3. Résultats
3.1 Détection des plastiques
3.2 Quantification de l’abondance sub-pixellique de plastique
4. Discussion
4.1 Détection et identification
4.2 Identification des polymères
4.3 Quantification de l’abondance sub-pixellique de plastique
ConclusionNuméro de notice : 26936 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire de fin d'études IT Organisme de stage : Office National d’Etudes et de Recherches Aérospatiales ONERA Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102060 Documents numériques
en open access
Détection des micro et macroplastiques à partir de mesures spectrales - pdf auteurAdobe Acrobat PDF Detection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks / Stefan Reder in Remote sensing, vol 14 n° 1 (January-1 2022)
[article]
Titre : Detection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks Type de document : Article/Communication Auteurs : Stefan Reder, Auteur ; J.P. Mund, Auteur ; Nicole Albert, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 75 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] branche (arbre)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] dommage forestier causé par facteurs naturels
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] image captée par drone
[Termes IGN] orthophotoplan numérique
[Termes IGN] segmentation sémantique
[Termes IGN] tempête
[Termes IGN] troncRésumé : (auteur) The increasing number of severe storm events is threatening European forests. Besides the primary damages directly caused by storms, there are secondary damages such as bark beetle outbreaks and tertiary damages due to negative effects on the market. These subsequent damages can be minimized if a detailed overview of the affected area and the amount of damaged wood can be obtained quickly and included in the planning of clearance measures. The present work utilizes UAV-orthophotos and an adaptation of the U-Net architecture for the semantic segmentation and localization of windthrown stems. The network was pre-trained with generic datasets, randomly combining stems and background samples in a copy–paste augmentation, and afterwards trained with a specific dataset of a particular windthrow. The models pre-trained with generic datasets containing 10, 50 and 100 augmentations per annotated windthrown stems achieved F1-scores of 73.9% (S1Mod10), 74.3% (S1Mod50) and 75.6% (S1Mod100), outperforming the baseline model (F1-score 72.6%), which was not pre-trained. These results emphasize the applicability of the method to correctly identify windthrown trees and suggest the collection of training samples from other tree species and windthrow areas to improve the ability to generalize. Further enhancements of the network architecture are considered to improve the classification performance and to minimize the calculative costs. Numéro de notice : A2022-082 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article DOI : 10.3390/rs14010075 En ligne : https://doi.org/10.3390/rs14010075 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99476
in Remote sensing > vol 14 n° 1 (January-1 2022) . - n° 75[article]Détection des prairies de fauche et estimation des périodes de fauche par télédétection / Emma Seneschal (2022)PermalinkDeveloping the potential of airborne lidar systems for the sustainable management of forests / Karun Dayal (2022)PermalinkDevelopment of object detectors for satellite images by deep learning / Alissa Kouraeva (2022)PermalinkPermalinkEffective triplet mining improves training of multi-scale pooled CNN for image retrieval / Federico Vaccaro in Machine Vision and Applications, vol 33 n° 1 (January 2022)PermalinkEstimating aboveground biomass in dense Hyrcanian forests by the use of Sentinel-2 data / Fardin Moradi in Forests, vol 13 n° 1 (January 2022)PermalinkÉvaluation de la qualité des données géographiques d'OpenStreetMap à l'aide des méthodes d'apprentissage automatique : cas de la République de Djibouti / Ibrahim Maidaneh Abdi (2022)PermalinkPermalinkExploring data fusion for multi-object detection for intelligent transportation systems using deep learning / Amira Mimouna (2022)PermalinkFlood susceptibility mapping using meta-heuristic algorithms / Alireza Arabameri in Geomatics, Natural Hazards and Risk, vol 13 (2022)Permalink