Descripteur
Termes IGN > 1- Outils - instruments et méthodes > instrument > véhicule > véhicule sans pilote
véhicule sans piloteVoir aussi |
Documents disponibles dans cette catégorie (227)



Etendre la recherche sur niveau(x) vers le bas
Titre : Deep learning for radar data exploitation of autonomous vehicle Type de document : Thèse/HDR Auteurs : Arthur Ouaknine, Auteur ; Florence Tupin, Directeur de thèse ; Patrick Pérez, Directeur de thèse ; Alasdair Newson, Directeur de thèse Editeur : Paris : Institut Polytechnique de Paris Année de publication : 2022 Importance : 195 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’Institut Polytechnique de Paris, Spécialité Signal, Images, Automatique et robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données radar
[Termes IGN] fusion de données multisource
[Termes IGN] réseau neuronal convolutif
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Termes IGN] véhicule sans piloteIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite. Note de contenu :
1. Introduction
1.1 Context
1.2 Motivations
1.3 Contributions and outlines
2. Background
2.1 RADAR theory
2.2 Recordings and signal processing
2.3 Artificial neural networks
2.4 Convolutional neural network
2.5 Recurrent neural network
2.6 Deep learning
3. Related work
3.1 Diverse applications
3.2 Automotive RADAR datasets
3.3 RADAR object detection
3.4 RADAR semantic segmentation
3.5 Sensor fusion
3.6 Conclusions
4. Proposed automotive RADAR datasets
4.1 RADAR simulation
4.2 RADAR data generation
4.3 CARRADA dataset
4.4 Conclusions
5. RADAR scene understanding
5.1 Multi-view RADAR semantic segmentation
5.2 Sensor fusion
5.3 Conclusions
6. High-definition RADAR
6.1 Motivations
6.2 RADIal dataset
6.3 Proposed method
6.4 Experiments and Results
6.5 Conclusions and discussions
7 Conclusion 125
7.1 Contributions
7.2 Future workNuméro de notice : 26803 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Signal, Images, Automatique et robotique : Palaiseau : 2022 Organisme de stage : Télécom Paris nature-HAL : Thèse DOI : sans Date de publication en ligne : 11/03/2022 En ligne : https://tel.archives-ouvertes.fr/tel-03606384/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100125 Trajectory and image-based detection and identification of UAV / Yicheng Liu in The Visual Computer, vol 37 n° 7 (July 2021)
![]()
[article]
Titre : Trajectory and image-based detection and identification of UAV Type de document : Article/Communication Auteurs : Yicheng Liu, Auteur ; Luchuan Liao, Auteur ; Hao Wu, Auteur ; et al., Auteur Année de publication : 2021 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Acquisition d'image(s) et de donnée(s)
[Termes IGN] Aves
[Termes IGN] caméra de surveillance PTZ
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] drone
[Termes IGN] forme caractéristique
[Termes IGN] interférence
[Termes IGN] objet mobile
[Termes IGN] reconnaissance de formes
[Termes IGN] trajectoire (véhicule non spatial)Résumé : (auteur) Much more attentions have been attracted to the inspection and prevention of unmanned aerial vehicle (UAV) in the wake of increasing high frequency of security accident. Many factors like the interferences and the small fuselage of UAV pose challenges to the timely detection of the UAV. In our work, we present a system that is capable of detecting, recognizing, and tracking an UAV using single camera automatically. For our method, a single pan–tilt–zoom (PTZ) camera detects flying objects and gets their trajectories; then, the trajectory identified as a UAV guides the camera and PTZ to capture the detailed region image of the target. Therefore, the images can be classified into the UAV and interference classes (such as birds) by the convolution neural network classifier trained with our image dataset. For the target recognized as a UAV with the double verification, the radio jammer emits the interferential radio to disturb its control radio and GPS. This system could be applied in some complex environment where many birds and UAV appear simultaneously. Numéro de notice : A2021-541 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00371-020-01937-y Date de publication en ligne : 29/07/2020 En ligne : https://doi.org/10.1007/s00371-020-01937-y Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98020
in The Visual Computer > vol 37 n° 7 (July 2021)[article]
Titre : An introduction to ethics in robotics and AI Type de document : Monographie Auteurs : Christoph Bartneck, Auteur ; Christoph Lütge, Auteur ; Alan Wagner, Auteur ; Sean Welsch, Auteur Editeur : Springer International Publishing Année de publication : 2021 Importance : 117 p Présentation : . Format : 16 x 24 cm ISBN/ISSN/EAN : 978-3-030-51110-4 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] données massives
[Termes IGN] édition en libre accès
[Termes IGN] éthique
[Termes IGN] navigation autonome
[Termes IGN] protection de la vie privée
[Termes IGN] robotique
[Termes IGN] utilisateur militaire
[Termes IGN] véhicule sans piloteRésumé : (éditeur) This open access book introduces the reader to the foundations of AI and ethics. It discusses issues of trust, responsibility, liability, privacy and risk. It focuses on the interaction between people and the AI systems and Robotics they use. Designed to be accessible for a broad audience, reading this book does not require prerequisite technical, legal or philosophical expertise. Throughout, the authors use examples to illustrate the issues at hand and conclude the book with a discussion on the application areas of AI and Robotics, in particular autonomous vehicles, automatic weapon systems and biased algorithms. A list of questions and further readings is also included for students willing to explore the topic further. Note de contenu : 1- What is AI?
2- What is ethics?
3- Trust and fairness in AI systems
4- Responsibility and liability in the case of AI systems
5- Risks in the business of AI
6- Psychological aspects of AI
7- Privacy issues of AI
8- Application areas of AI
9- Autonomous vehicles
10- Military uses of AI
11- Ethics in AI and Robotics: A Strategic ChallengeNuméro de notice : 28570 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Monographie DOI : 10.1007/978-3-030-51110-4 En ligne : https://doi.org/10.1007/978-3-030-51110-4 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97726 Real-time multimodal semantic scene understanding for autonomous UGV navigation / Yifei Zhang (2021)
![]()
Titre : Real-time multimodal semantic scene understanding for autonomous UGV navigation Type de document : Thèse/HDR Auteurs : Yifei Zhang, Auteur ; Fabrice Mériaudeau, Directeur de thèse ; Désiré Sidibé, Directeur de thèse Editeur : Dijon : Université Bourgogne Franche-Comté UBFC Année de publication : 2021 Importance : 114 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le doctorat de l'Université Bourgogne Franche-Comté, Spécialité Instrumentation et informatique d’imageLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] données polarimétriques
[Termes IGN] fusion d'images
[Termes IGN] image RVB
[Termes IGN] intégration de données
[Termes IGN] navigation autonome
[Termes IGN] segmentation sémantique
[Termes IGN] temps réel
[Termes IGN] véhicule sans piloteRésumé : (Auteur) Robust semantic scene understanding is challenging due to complex object types, as well as environmental changes caused by varying illumination and weather conditions. This thesis studies the problem of deep semantic segmentation with multimodal image inputs. Multimodal images captured from various sensory modalities provide complementary information for complete scene understanding. We provided effective solutions for fully-supervised multimodal image segmentation and few-shot semantic segmentation of the outdoor road scene. Regarding the former case, we proposed a multi-level fusion network to integrate RGB and polarimetric images. A central fusion framework was also introduced to adaptively learn the joint representations of modality-specific features and reduce model uncertainty via statistical post-processing.In the case of semi-supervised semantic scene understanding, we first proposed a novel few-shot segmentation method based on the prototypical network, which employs multiscale feature enhancement and the attention mechanism. Then we extended the RGB-centric algorithms to take advantage of supplementary depth cues. Comprehensive empirical evaluations on different benchmark datasets demonstrate that all the proposed algorithms achieve superior performance in terms of accuracy as well as demonstrating the effectiveness of complementary modalities for outdoor scene understanding for autonomous navigation. Note de contenu : 1. Introduction
1.1 Context and Motivation
1.2 Background and Challenges
1.3 Contributions
1.4 Organization
2. Background on Neural Networks
2.1 Basic Concepts
2.2 Neural Network Layers
2.3 Optimization
2.4 Model Training
2.5 Evaluation Metrics
2.6 Summary
3. Literature Review
3.1 Fully-supervised Semantic Image
3.2 Datasets
3.3 Summary
4. Deep Multimodal Fusion for Semantic Image Segmentation
4.1 CMNet: Deep Multimodal Fusion
4.2 A Central Multimodal Fusion Framework
4.3 Summary
5. Few-shot Semantic Image Segmentation
5.1 Introduction on Few-shot Segmentation
5.2 MAPnet: A Multiscale Attention-Based Prototypical Network
5.3 RDNet: Incorporating Depth Information into Few-shot Segmentation
5.4 Summary
6. Conclusion and Future Work
6.1 General Conclusion
6.2 Future PerspectivesNuméro de notice : 26527 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Instrumentation et informatique d’image : Bourgogne : 2021 nature-HAL : Thèse Date de publication en ligne : 02/03/2021 En ligne : https://tel.archives-ouvertes.fr/tel-03154783/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97556
Titre : A scanning LiDAR for long range detection and tracking of UAVs Type de document : Thèse/HDR Auteurs : Alain Quentel, Auteur ; Yohan Dupuis, Directeur de thèse Editeur : Rouen : Université de Rouen Année de publication : 2021 Importance : 159 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le diplôme de Doctorat, spécialité Electronique, microélectronique, optique et lasers, optoélectronique microondes robotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] drone
[Termes IGN] optimisation (mathématiques)
[Termes IGN] poursuite de cible
[Termes IGN] réflectivité
[Termes IGN] télémètre laser aéroporté
[Termes IGN] télémétrie laser aéroporté
[Termes IGN] temps de volIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Misuse of civil drones, or UAVs (unmanned aerial vehicles) has been a rising concern in the past few years. As a response, multiple systems including optics, electronics and even acoustics technologies have been developed for detection and tracking. Unfortunately, UAVs represent a challenging target to detect and track due to their small, decimetric size and large variability of shapes and behaviors. In this PhD, we developed and optimized a LiDAR (light detection and ranging) system to tackle this issue to distances up to a kilometer. In our system, range is acquired using the time of flight principle, and imagery done by sequentially scanning the scene with a dual-axis galvanometer. We took advantage of the scanning versatility to develop several operating modes. A standard detection mode captures the image of the scene using a raster-scan of large field of view. Tracking mode is based on a local pattern surrounding the target, which is updated at a very high rate to keep the target within its boundaries. Efforts were put into a theoretical and numerical optimization study of the numerous parameters involved in our scanning LiDAR, so as to reach sufficient performances in term of maximal range, localization resolution and rate. Pattern optimization for both detection and tracking mode was a primary focus, using the target probability of detection as the function to maximize. Target size, speed and reflectivity was also introduced in the probability of detection, giving a complete overview of the system performance. On our LiDAR platform, developed from the ground up, each component was characterized to enrich and validate our models. This prototype was tested for UAVs detection and tracking during several weeks of trials. Following this success, a pre-industrial integration process was launched and supervised by the candidate. Numéro de notice : 28535 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Electronique, microélectronique, optique et lasers, optoélectronique microondes robotique : Rouen : 2021 Organisme de stage : Institut de Recherche en Systèmes Electroniques Embarqués DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-03228683 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99312 Vers un protocole de calibration de caméras statiques à l'aide d'un drone / Jean-François Villeforceix (2021)
PermalinkDu drone LiDAR à un nuage de points précis et exact : une chaîne de traitement LiDAR adaptée et quasi automatique / Maxime Lafleur in XYZ, n° 165 (décembre 2020)
PermalinkEffects of a navigation spoofing signal on a receiver loop and a UAV spoofing approach / Chao Ma in GPS solutions, Vol 24 n° 3 (July 2020)
PermalinkA history of laser scanning, Part 1: space and defense applications / Adam P. Spring in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 7 (July 2020)
PermalinkFootprint determination of a spectroradiometer mounted on an unmanned aircraft system / Deepak Gautam in IEEE Transactions on geoscience and remote sensing, vol 58 n° 5 (May 2020)
PermalinkPermalinkRadiometric calibration assessments for UAS-borne multispectral cameras: Laboratory and field protocols / Sen Cao in ISPRS Journal of photogrammetry and remote sensing, vol 149 (March 2019)
PermalinkUAS lidar for ecological restoration of wetlands / Marie de Boisvilliers in GIM international, Vol 33 n° 2 (March - April 2019)
PermalinkContribution au développement d’une plateforme web d’analyse réglementaire et de gestion des vols de drones / Yassmine Boudili (2019)
PermalinkInvestigating the accuracy of a bathymetric refraction correction on Structure from Motion photogrammetric datasets / Aelaïg Cournez (2019)
Permalink