Descripteur



Etendre la recherche sur niveau(x) vers le bas
Titre : AI based robot safe learning and control Type de document : Monographie Auteurs : Xuefeng Zhou ·, Auteur ; Shuai Li, Auteur ; et al., Auteur Editeur : Springer Nature Année de publication : 2020 Importance : 127 p. Format : 21 x 30 cm ISBN/ISSN/EAN : 978-981-1555039-- Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes descripteurs IGN] contrainte d'objet
[Termes descripteurs IGN] optimisation (mathématiques)
[Termes descripteurs IGN] réseau neuronal récurrent
[Termes descripteurs IGN] robotique
[Termes descripteurs IGN] sécurité
[Termes descripteurs IGN] système de contrôle
[Termes descripteurs IGN] vitesse angulaireRésumé : (éditeur) This open access book mainly focuses on the safe control of robot manipulators. The control schemes are mainly developed based on dynamic neural network, which is an important theoretical branch of deep reinforcement learning. In order to enhance the safety performance of robot systems, the control strategies include adaptive tracking control for robots with model uncertainties, compliance control in uncertain environments, obstacle avoidance in dynamic workspace. The idea for this book on solving safe control of robot arms was conceived during the industrial applications and the research discussion in the laboratory. Most of the materials in this book are derived from the authors’ papers published in journals, such as IEEE Transactions on Industrial Electronics, neurocomputing, etc. This book can be used as a reference book for researcher and designer of the robotic systems and AI based controllers, and can also be used as a reference book for senior undergraduate and graduate students in colleges and universities. Note de contenu : 1- Adaptive Jacobian based trajectory tracking for redundant manipulators with model uncertainties in repetitive tasks
2- RNN based trajectory control for manipulators with uncertain kinematic parameters
3- RNN based adaptive compliance control for robots with model uncertainties
4- Deep RNN based obstacle avoidance control for redundant manipulators
5- Optimization-based compliant control for manipulators under dynamic obstacle constraints
6- RNN for motion-force control of redundant manipulators with optimal joint torqueNuméro de notice : 28518 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE/MATHEMATIQUE Nature : Monographie DOI : sans En ligne : https://directory.doabooks.org/handle/20.500.12854/32049 Format de la ressource électronique : url Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97304 Nonparametric Bayesian learning for collaborative robot multimodal introspection / Xuefeng Zhou · (2020)
![]()
Titre : Nonparametric Bayesian learning for collaborative robot multimodal introspection Type de document : Monographie Auteurs : Xuefeng Zhou ·, Auteur ; Hongmin Wu, Auteur ; Juan Rojas, Auteur ; et al., Auteur Editeur : Springer Nature Année de publication : 2020 Importance : 137 p. Format : 16 x 24 cm ISBN/ISSN/EAN : 978-981-1562631-- Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes descripteurs IGN] apprentissage automatique
[Termes descripteurs IGN] classification bayesienne
[Termes descripteurs IGN] Hidden Markov Model (HMM)
[Termes descripteurs IGN] inférence
[Termes descripteurs IGN] interface homme-machine
[Termes descripteurs IGN] modèle mathématique
[Termes descripteurs IGN] problème de Dirichlet
[Termes descripteurs IGN] robotiqueRésumé : (éditeur) This open access book focuses on robot introspection, which has a direct impact on physical human–robot interaction and long-term autonomy, and which can benefit from autonomous anomaly monitoring and diagnosis, as well as anomaly recovery strategies. In robotics, the ability to reason, solve their own anomalies and proactively enrich owned knowledge is a direct way to improve autonomous behaviors. To this end, the authors start by considering the underlying pattern of multimodal observation during robot manipulation, which can effectively be modeled as a parametric hidden Markov model (HMM). They then adopt a nonparametric Bayesian approach in defining a prior using the hierarchical Dirichlet process (HDP) on the standard HMM parameters, known as the Hierarchical Dirichlet Process Hidden Markov Model (HDP-HMM). The HDP-HMM can examine an HMM with an unbounded number of possible states and allows flexibility in the complexity of the learned model and the development of reliable and scalable variational inference methods. This book is a valuable reference resource for researchers and designers in the field of robot learning and multimodal perception, as well as for senior undergraduate and graduate university students. Note de contenu : 1- Introduction to robot introspection
2- Nonparametric Bayesian modeling of multimodal time series
3- Incremental learning robot task representation and identification
4- Nonparametric Bayesian method for robot anomaly monitoring
5- Nonparametric Bayesian method for robot anomaly diagnose
6- Learning policy for robot anomaly recovery based on robot introspectionNuméro de notice : 25965 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE/MATHEMATIQUE Nature : Monographie DOI : 10.1007%2F978-981-15-6263-1 En ligne : https://link.springer.com/book/10.1007%2F978-981-15-6263-1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96557
Titre : Learning scene geometry for visual localization in challenging conditions Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Valérie Gouet-Brunet
, Auteur ; Cédric Demonceaux, Auteur
Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2019 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : ICRA 2019, International Conference on Robotics and Automation 20/05/2019 24/05/2019 Montréal Québec - Canada Proceedings IEEE Importance : pp 9094 - 9100 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes descripteurs IGN] analyse d'image orientée objet
[Termes descripteurs IGN] analyse visuelle
[Termes descripteurs IGN] appariement d'images
[Termes descripteurs IGN] carte de profondeur
[Termes descripteurs IGN] descripteur
[Termes descripteurs IGN] géométrie de l'image
[Termes descripteurs IGN] image RVB
[Termes descripteurs IGN] localisation basée vision
[Termes descripteurs IGN] précision de localisation
[Termes descripteurs IGN] prise de vue nocturne
[Termes descripteurs IGN] robotique
[Termes descripteurs IGN] scène urbaine
[Termes descripteurs IGN] variation diurne
[Termes descripteurs IGN] variation saisonnière
[Termes descripteurs IGN] vision par ordinateurRésumé : (auteur) We propose a new approach for outdoor large scale image based localization that can deal with challenging scenarios like cross-season, cross-weather, day/night and longterm localization. The key component of our method is a new learned global image descriptor, that can effectively benefit from scene geometry information during training. At test time, our system is capable of inferring the depth map related to the query image and use it to increase localization accuracy. We are able to increase recall@1 performances by 2.15% on cross-weather and long-term localization scenario and by 4.24% points on a challenging winter/summer localization sequence versus state-of-the-art methods. Our method can also use weakly annotated data to localize night images across a reference dataset of daytime images. Numéro de notice : C2019-002 Affiliation des auteurs : LaSTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICRA.2019.8794221 date de publication en ligne : 12/08/2019 En ligne : http://doi.org/10.1109/ICRA.2019.8794221 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93774 Documents numériques
en open access
Learning scene geometry... - pdf auteurAdobe Acrobat PDFMachine learning and pose estimation for autonomous robot grasping with collaborative robots / Victor Talbot (2018)
![]()
Titre : Machine learning and pose estimation for autonomous robot grasping with collaborative robots Type de document : Mémoire Auteurs : Victor Talbot, Auteur Editeur : Strasbourg : Institut National des Sciences Appliquées INSA Strasbourg Année de publication : 2018 Importance : 70 p. Format : 21 x 30 cm Note générale : bibliographie
Mécatronique parcours mécanique pour la robotique, Master Imagerie, Robotique et Ingénierie pour le Vivant, Parcours Automatique RobotiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes descripteurs IGN] apprentissage automatique
[Termes descripteurs IGN] C++
[Termes descripteurs IGN] classification bayesienne
[Termes descripteurs IGN] classification par réseau neuronal
[Termes descripteurs IGN] estimation de pose
[Termes descripteurs IGN] image 3D
[Termes descripteurs IGN] image RVB
[Termes descripteurs IGN] Matlab
[Termes descripteurs IGN] navigation autonome
[Termes descripteurs IGN] Point Cloud Library PCL
[Termes descripteurs IGN] Python (langage de programmation)
[Termes descripteurs IGN] Ransac (algorithme)
[Termes descripteurs IGN] reconnaissance d'objets
[Termes descripteurs IGN] robotique
[Termes descripteurs IGN] semis de points
[Termes descripteurs IGN] vision par ordinateur
[Termes descripteurs IGN] zone d'intérêtIndex. décimale : INSAS Mémoires d'ingénieur de l'INSA Strasbourg - Topographie, ex ENSAIS Résumé : (auteur) L'objectif du stage est de déterminer l'emplacement en trois dimensions d'une zone de préhension sur un objet dans le but d'automatiser la prise de cet objet par un robot anthropomorphe. La prise d'image est assurée par une caméra RGB-D prenant un nuage de points colorés en trois dimensions. La caméra est montée sur un second robot, ce qui permet l'exploration visuelle d'un plus grand espace, et ce, sous plusieurs points de vue. La solution proposée utilise Matlab et un réseau neuronal afin de proposer une zone d'intérêt. Le choix du Machine Learning est motivé par l'adaptabilité de l'algorithme. De cette façon, un objet jamais aperçu auparavant peut être attrapé par notre système robotique. Le système retourne la position X, Y et Z dans l'espace ainsi que l'orientation O et la largeur de l'objet D. Le système proposé a obtenu des résultats de 80 % sur des objets non entraînés. Note de contenu : Introduction
1- States of the arts
2- Realization
3- ConclusionNuméro de notice : 24593 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Mémoire masters divers Organisme de stage : School of Engineering (Cardiff University) Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92164 Documents numériques
en open access
Machine learning and pose estimation... - pdf auteurAdobe Acrobat PDF
Titre : Robotics, vision and control Type de document : Monographie Auteurs : Peter Corke, Auteur Editeur : Springer International Publishing Année de publication : 2017 Importance : 570 p. Format : 21 x 27 cm ISBN/ISSN/EAN : 978-3-319-54413-7 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes descripteurs IGN] Matlab
[Termes descripteurs IGN] navigation inertielle
[Termes descripteurs IGN] robot mobile
[Termes descripteurs IGN] robotique
[Termes descripteurs IGN] traitement d'image
[Termes descripteurs IGN] vision par ordinateur
[Termes descripteurs IGN] vitesse radialeRésumé : (éditeur) Robotic vision, the combination of robotics and computer vision, involves the application of computer algorithms to data acquired from sensors. The research community has developed a large body of such algorithms but for a newcomer to the field this can be quite daunting. For over 20 years the author has maintained two open-source MATLAB® Toolboxes, one for robotics and one for vision. They provide implementations of many important algorithms and allow users to work with real problems, not just trivial examples. This book makes the fundamental algorithms of robotics, vision and control accessible to all. It weaves together theory, algorithms and examples in a narrative that covers robotics and computer vision separately and together. Using the latest versions of the Toolboxes the author shows how complex problems can be decomposed and solved using just a few simple lines of code. The topics covered are guided by real problems observed by the author over many years as a practitioner of both robotics and computer vision. It is written in an accessible but informative style, easy to read and absorb, and includes over 1000 MATLAB and Simulink® examples and over 400 figures. The book is a real walk through the fundamentals of mobile robots, arm robots. then camera models, image processing, feature extraction and multi-view geometry and finally bringing it all together with an extensive discussion of visual servo systems. This second edition is completely revised, updated and extended with coverage of Lie groups, matrix exponentials and twists; inertial navigation; differential drive robots; lattice planners; pose-graph SLAM and map making; restructured material on arm-robot kinematics and dynamics; series-elastic actuators and operational-space control; Lab color spaces; light field cameras; structured light, bundle adjustment and visual odometry; and photometric visual servoing. Note de contenu : 1- Introduction
2- Representing Position and Orientation
3- Time and Motion
4- Mobile Robot Vehicles
5- Navigation
6- Localization
7- Robot Arm Kinematics
8- Manipulator Velocity
9- Dynamics and Control
10- Light and Color
11- Image Formation
12- Images and Image Processing
13- Image Feature Extraction
14- Using Multiple Images
15- Vision-Based Control
16- Advanced Visual ServoingNuméro de notice : 25794 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Monographie En ligne : https://doi.org/10.1007/978-3-319-54413-7 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95024 Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique / Maxime Derome (2017)
PermalinkIndoor navigation of mobile robots based on visual memory and image-based visual servoing / Suman Raj Bista (2016)
PermalinkLocalisation de véhicule par satellites couplée à la navigation à l'estime et aux données cartographiques / David Bétaille (2014)
PermalinkPanorama de l'intelligence artificielle, ses bases méthodologiques, ses développements, 3. L'intelligence artificielle : frontières et applications / Pierre Marquis (2014)
PermalinkPermalinkRapport annuel 2006 INRIA, Institut National de Recherche en Informatique et en Automatique / I. Bellin (2007)
PermalinkDevelopment of a robotic mobile mapping system by vision-aided inertial navigation / Fadi Atef Bayoud (2006)
PermalinkPermalinkLe traité de la réalité virtuelle, 2. Volume 2, Création des environnements virtuels & applications / P. Fuchs (2003)
PermalinkECAI 2002, 15th European Conference on Artificial Intelligence, July 21-26, Lyon, France : proceedings / Frank Van Harmelen (2002)
Permalink