Détail de l'auteur
Auteur Arthur Ouaknine |
Documents disponibles écrits par cet auteur (1)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu : 1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.hal.science/tel-03606384 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125