Descripteur
Documents disponibles dans cette catégorie (42)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : An introduction to ethics in robotics and AI Type de document : Monographie Auteurs : Christoph Bartneck, Auteur ; Christoph Lütge, Auteur ; Alan Wagner, Auteur ; Sean Welsch, Auteur Editeur : Springer International Publishing Année de publication : 2021 Importance : 117 p Présentation : . Format : 16 x 24 cm ISBN/ISSN/EAN : 978-3-030-51110-4 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] données massives
[Termes IGN] édition en libre accès
[Termes IGN] éthique
[Termes IGN] navigation autonome
[Termes IGN] protection de la vie privée
[Termes IGN] robotique
[Termes IGN] utilisateur militaire
[Termes IGN] véhicule sans piloteRésumé : (éditeur) This open access book introduces the reader to the foundations of AI and ethics. It discusses issues of trust, responsibility, liability, privacy and risk. It focuses on the interaction between people and the AI systems and Robotics they use. Designed to be accessible for a broad audience, reading this book does not require prerequisite technical, legal or philosophical expertise. Throughout, the authors use examples to illustrate the issues at hand and conclude the book with a discussion on the application areas of AI and Robotics, in particular autonomous vehicles, automatic weapon systems and biased algorithms. A list of questions and further readings is also included for students willing to explore the topic further. Note de contenu : 1- What is AI?
2- What is ethics?
3- Trust and fairness in AI systems
4- Responsibility and liability in the case of AI systems
5- Risks in the business of AI
6- Psychological aspects of AI
7- Privacy issues of AI
8- Application areas of AI
9- Autonomous vehicles
10- Military uses of AI
11- Ethics in AI and Robotics: A Strategic ChallengeNuméro de notice : 28570 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Monographie DOI : 10.1007/978-3-030-51110-4 En ligne : https://doi.org/10.1007/978-3-030-51110-4 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97726
Titre : Benefiting from local rigidity in 3D point cloud processing Type de document : Thèse/HDR Auteurs : Zan Gojcic, Auteur Editeur : Zurich : Eidgenossische Technische Hochschule ETH - Ecole Polytechnique Fédérale de Zurich EPFZ Année de publication : 2021 Importance : 141 p. Format : 21 x 30 cm Note générale : bibliographie
A thesis submitted to attain the degree of Doctor of Sciences of ETH ZurichLangues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] capteur actif
[Termes IGN] champ vectoriel
[Termes IGN] déformation d'image
[Termes IGN] données lidar
[Termes IGN] effondrement de terrain
[Termes IGN] enregistrement de données
[Termes IGN] filtrage du bruit
[Termes IGN] flux
[Termes IGN] image 3D
[Termes IGN] navigation autonome
[Termes IGN] orientation du capteur
[Termes IGN] segmentation
[Termes IGN] semis de points
[Termes IGN] téléphone intelligent
[Termes IGN] traitement de semis de points
[Termes IGN] voxelIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Incorporating 3D understanding and spatial reasoning into (intelligent) algorithms is crucial for solving several tasks in fields such as engineering geodesy, risk assessment, and autonomous driving. Humans are capable of reasoning about 3D spatial relations even from a single 2D image. However, making the priors that we rely on explicit and integrating them into computer programs is very challenging. Operating directly on 3D input data, such as 3D point clouds, alleviates the need to lift 2D data into a 3D representation within the task-specific algorithm and hence reduces the complexity of the problem. The 3D point clouds are not only a better-suited input data representation, but they are also becoming increasingly easier to acquire. Indeed, nowadays, LiDAR sensors are even integrated into consumer devices such as mobile phones. However, these sensors often have a limited field of view, and hence multiple acquisitions are required to cover the whole area of interest. Between these acquisitions, the sensor has to be moved and pointed in a different direction. Moreover, the world that surrounds us is also dynamic and might change as well. Reasoning about the motion of both the sensor and the environment, based on point clouds acquired in two-time steps, is therfore an integral part of point cloud processing. This thesis focuses on incorporating rigidity priors into novel deep learning based approaches for dynamic 3D perception from point cloud data. Specifically, the tasks of point cloud registration, deformation analysis, and scene flow estimation are studied. At first, these tasks are incorporated into a common framework where the main difference is in the level of rigidity assumptions that are imposed on the motion of the scene or
the acquisition sensor. Then, the tasks specific priors are proposed and incorporated into novel deep learning architectures. While the global rigidity can be assumed in point cloud registration, the motion patterns in deformation analysis and scene flow estimation are more complex. Therefore, the global rigidity prior has to be relaxed to local or instancelevel rigidity, respectively. Rigidity priors not only add structure to the aforementioned tasks, which prevents physically implausible estimates and improves the generalization of the algorithms, but in some cases also reduce the supervision requirements. The proposed approaches were quantitatively and qualitatively evaluated on several datasets, and they yield favorable performance compared to the state-of-the-art.Numéro de notice : 28660 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : PhD : Sciences : ETH Zurich : 2021 DOI : sans En ligne : https://www.research-collection.ethz.ch/handle/20.500.11850/523368 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99817 Cartographie dense et compacte par vision RGB-D pour la navigation d’un robot mobile / Bruce Canovas (2021)
Titre : Cartographie dense et compacte par vision RGB-D pour la navigation d’un robot mobile Type de document : Thèse/HDR Auteurs : Bruce Canovas, Auteur ; Michèle Rombaut, Directeur de thèse Editeur : Grenoble [France] : Université Grenoble Alpes Année de publication : 2021 Importance : 148 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse pour obtenir le titre de Docteur en Sciences de l'Université Grenoble Alpes, spécialité Signal, Image, Parole, TélécomsLangues : Français (fre) Descripteur : [Vedettes matières IGN] Informatique
[Termes IGN] algorithme ICP
[Termes IGN] cartographie et localisation simultanées
[Termes IGN] image 3D
[Termes IGN] image RVB
[Termes IGN] instrument embarqué
[Termes IGN] modélisation 3D
[Termes IGN] navigation autonome
[Termes IGN] Ransac (algorithme)
[Termes IGN] robot mobile
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Les capacités de perception et de localisation sont des enjeux majeurs de la robotique mobile, nécessaires dans la réalisation de missions impliquant des processus décisionnels autonomes. Elles s'appuient sur les mesures d'un ou plusieurs capteurs embarqués sur la plateforme robotique mobile en question. Dans cette thèse, on s'intéresse à des techniques de perception visuelle basées sur une caméra RGB-D pour permettre la navigation d'un robot compagnon dans un milieu intérieur inconnu. Afin de pouvoir se déplacer de façon autonome, ce robot doit avoir accès à une carte représentative de la structure de son environnement et être capable de s'y repérer.Bien que de nombreuses méthodes de localisation et cartographie simultanées (SLAM - Simultaneous Localization And Mapping) RGB-D capables de résultats impressionnants aient été développées, elles sont bien souvent trop coûteuses en termes de ressources informatiques pour être exécutées sur les cartes embarquées de robots mobiles d'intérieur. Elles font aussi la plupart du temps l'hypothèse que la scène observée par la caméra est statique, ce qui limite leur utilisation dans de nombreuses situations où des personnes sont présentes. De plus, les cartes qu'elles produisent sont souvent inadéquates pour la planification de trajectoires et ne peuvent pas être utilisées directement pour de tâches de navigation.Dans le but de répondre à ces problèmes, nous proposons une nouvelle forme de représentation 3D pour la reconstruction basse résolution, mais compacte rapide et légère d'environnements, au contraire des approches conventionnelles qui se focalisent sur la production de modèles 3D complexes avec un haut niveau détails. Un système de SLAM RGB-D dense complet, robuste aux éléments dynamiques, est conçu autour de cette représentation, puis porté sur une plateforme robotique mobile à conduite différentielle. En outre, une stratégie de navigation efficace est proposée en couplant l'algorithme de SLAM développé à un planificateur de trajectoires. Les différentes solutions proposées sont évaluées et comparées avec les méthodes de l'état de l'art, pour les valider et montrer leurs forces et faiblesses. Note de contenu : 1- Introduction générale
2- Prérequis
3- Modélisation 3D compacte à partir de caméra RGB-D
4- SLAM RGB-D dense, rapide et léger en milieu dynamique
5- Application de SupersurfelFusion à la navigation autonome d’un robot mobile
6- Conclusion et perspectivesNuméro de notice : 15283 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Signal, Image, Parole, Télécoms : Grenoble : 2021 Organisme de stage : Laboratoire Grenoble Images Parole Signal Automatique DOI : sans En ligne : https://tel.hal.science/tel-03647103 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101409 Deep convolutional neural networks for scene understanding and motion planning for self-driving vehicles / Abdelhak Loukkal (2021)
Titre : Deep convolutional neural networks for scene understanding and motion planning for self-driving vehicles Type de document : Thèse/HDR Auteurs : Abdelhak Loukkal, Auteur ; Yves Grandvalet, Directeur de thèse Editeur : Compiègne : Université de Technologie de Compiègne UTC Année de publication : 2021 Importance : 129 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse présentée pour l’obtention du grade de Docteur de l’UTC, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] compréhension de l'image
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données multisource
[Termes IGN] navigation autonome
[Termes IGN] reconnaissance de formes
[Termes IGN] réseau neuronal profond
[Termes IGN] segmentation sémantique
[Termes IGN] système de navigation
[Termes IGN] véhicule automobile
[Termes IGN] vision monoculaire
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) During this thesis, some perception approaches for self-driving vehicles were developed using de convolutional neural networks applied to monocular camera images and High-Definition map (HD-ma rasterized images. We focused on camera-only solutions instead of leveraging sensor fusion with rang sensors because cameras are the most cost-effective and discrete sensors. The objective was also to show th camera-based approaches can perform at par with LiDAR-based solutions on certain 3D vision tasks. Rea world data was used for training and evaluation of the developed approaches but simulation was als leveraged when annotated data was lacking or for safety reasons when evaluating driving capabilities. Cameras provide visual information in a projective space where the perspective effect does not preserve th distances homogeneity. Scene understanding tasks such as semantic segmentation are then often operated i the camera-view space and then projected to 3D using a precise depth sensor such as a LiDAR. Having thi scene understanding in the 3D space is useful because the vehicles evolve in the 3D world and the navigatio algorithms reason in this space. Our focus was then to leverage the geometric knowledge about the camer parameters and its position in the 3D world to develop an approach that allows scene understanding in the 3D space using only a monocular image as input. Neural networks have also proven to be useful for more than just perception and are more and more used fo the navigation and planning tasks that build on the perception outputs. Being able to output 3D scen understanding information from a monocular camera has also allowed us to explore the possibility of havin an end-to-end holistic neural network that takes a camera image as input, extracts intermediate semantic information in the 3D space and then lans the vehicle's trajectory. Note de contenu : 1. Introduction
1.1 General context
1.2 Framework and objectives
1.3 Organization and contributions of the thesis
2. Background and related work
2.1 Introduction
2.2 Autonomous driving perception datasets
2.3 Autonomous driving simulators
2.4 Semantic segmentation with CNNs
2.5 Monocular depth estimation with CNNs
2.6 Driving with imitation learning
2.7 Conclusion
3. Semantic segmentation using cartographic and depth maps
3.1 Introduction
3.2 Synthetic dataset
3.3 Proposed methods
3.4 Experiments
3.5 Conclusion
4. Disparity weighted loss for semantic segmentation
4.1 Introduction
4.2 Disparity weighting for semantic segmentation
4.3 Experiments
4.4 Conclusion
5. FlatMobileNet: Bird-Eye-View semantic masks from a monoc?ular camera
5.1 Introduction
5.2 Theoretical framework
5.3 FlatMobile network: footprint segmentation
5.4 Conclusion
6. Driving among flatmobiles
6.1 Introduction
6.2 Encoder-decoder LSTM for trajectory planning
6.3 Experimental evaluation
6.4 Conclusion
7. Conclusion
7.1 Contributions
7.2 PerspectivesNuméro de notice : 26769 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Compiègne : 2021 Organisme de stage : Heuristique et Diagnostic des Systèmes Complexes HeuDiaSyC nature-HAL : Thèse DOI : sans Date de publication en ligne : 25/10/2021 En ligne : https://tel.hal.science/tel-03402541/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99871 Exploration of reinforcement learning algorithms for autonomous vehicle visual perception and control / Florence Carton (2021)
Titre : Exploration of reinforcement learning algorithms for autonomous vehicle visual perception and control Titre original : Exploration des algorithmes d'apprentissage par renforcement pour la perception et le controle d'un véhicule autonome par vision Type de document : Thèse/HDR Auteurs : Florence Carton, Auteur ; David Filliat, Directeur de thèse Editeur : Paris : Ecole Nationale Supérieure des Techniques Avancées ENSTA Année de publication : 2021 Importance : 173 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l’Institut Polytechnique de Paris, Spécialité : Informatique, Données, IALangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] apprentissage par renforcement
[Termes IGN] classification dirigée
[Termes IGN] instrument embarqué
[Termes IGN] navigation autonome
[Termes IGN] reconnaissance de formes
[Termes IGN] réseau neuronal profond
[Termes IGN] robot mobile
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Reinforcement learning is an approach to solve a sequential decision making problem. In this formalism, an autonomous agent interacts with an environment and receives rewards based on the decisions it makes. The goal of the agent is to maximize the total amount of rewards it receives. In the reinforcement learning paradigm, the agent learns by trial and error the policy (sequence of actions) that yields the best rewards.In this thesis, we focus on its application to the perception and control of an autonomous vehicle. To stay close to human driving, only the onboard camera is used as input sensor. We focus in particular on end-to-end training, i.e. a direct mapping between information from the environment and the action chosen by the agent. However, training end-to-end reinforcement learning for autonomous driving poses some challenges: the large dimensions of the state and action spaces as well as the instability and weakness of the reinforcement learning signal to train deep neural networks.The approaches we implemented are based on the use of semantic information (image segmentation). In particular, this work explores the joint training of semantic information and navigation.We show that these methods are promising and allow to overcome some limitations. On the one hand, combining segmentation supervised learning with navigation reinforcement learning improves the performance of the agent and its ability to generalize to an unknown environment. On the other hand, it enables to train an agent that will be more robust to unexpected events and able to make decisions limiting the risks.Experiments are conducted in simulation, and numerous comparisons with state of the art methods are made. Note de contenu : 1- Introduction
2- Supervised learning and reinforcement learning background
3- State of the art
4- End-to-end autonomous driving on circuit with reinforcement learning
5- From lane following to robust conditional driving
6- Exploration of methods to reduce overfit
7- ConclusionNuméro de notice : 28325 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Thèse étrangère Note de thèse : Thèse de Doctorat : Informatique, Données, IA : ENSTA : 2021 DOI : sans En ligne : https://tel.hal.science/tel-03273748/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98363 Intelligent sensors for positioning, tracking, monitoring, navigation and smart sensing in smart cities / Li Tiancheng (2021)PermalinkMachine learning for the distributed and dynamic management of a fleet of taxis and autonomous shuttles / Tatiana Babicheva (2021)PermalinkMéthodes de partage d'informations visuelles et inertielles pour la localisation et la cartographie simultanées décentralisées multi-robots / Rodolphe Dubois (2021)PermalinkModélisation et simulation de comportements piétons réalistes en espace partagé avec un véhicule autonome / manon Prédhumeau (2021)PermalinkPermalinkReal-time multimodal semantic scene understanding for autonomous UGV navigation / Yifei Zhang (2021)PermalinkA history of laser scanning, Part 1: space and defense applications / Adam P. Spring in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 7 (July 2020)PermalinkApplication of machine learning techniques for evidential 3D perception, in the context of autonomous driving / Edouard Capellier (2020)PermalinkPermalinkPermalink