Descripteur
Termes IGN > informatique > intelligence artificielle > vision par ordinateur
vision par ordinateurVoir aussi |
Documents disponibles dans cette catégorie (168)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Recherche d’images basée sur la saillance visuelle pour l’imagerie urbaine Type de document : Article/Communication Auteurs : Kamel Guissous , Auteur ; Valérie Gouet-Brunet , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2017 Conférence : ORASIS 2017, 16e journées francophones des jeunes chercheurs en vision par ordinateur 12/06/2017 16/06/2017 Colleville-sur-Mer France open access proceedings Importance : 8 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse d'image orientée objet
[Termes IGN] contour
[Termes IGN] détection de régions
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] vision par ordinateur
[Termes IGN] zone saillante 3DRésumé : (auteur) Avec l’augmentation de la taille des bases d’images et de la complexité des descripteurs dans les domaines de la recherche d’images par contenu visuel et de la vision par ordinateur, il est nécessaire de trouver un moyen pour limiter la quantité de données manipulées, tout en conservant leur représentativité. Au lieu d’analyser l’image entière, la sélection des régions qui détiennent l’essence de l’information est une option pertinente pour atteindre cet objectif. Comme la saillance visuelle a pour objectif de sélectionner les zones les plus importantes de l’image pour une tâche donnée, dans cet article, nous proposons d’exploiter des cartes de saillance visuelle pour filtrer les caractéristiques visuelles les plus saillantes de l’image. Une nouvelle approche de saillance visuelle basée sur l’analyse de la distribution locale de l’orientation des contours, en particulier dédiée aux contenus image structurés, comme les images de type streetview de l’environnement urbain, est proposée. Il est évalué pour la recherche d’images par contenu visuel à partir d’un exemple selon trois critères : la qualité de la recherche, le volume des caractéristiques manipulées et le temps de calcul. L’approche proposée peut être exploitée dans diverses applications qui manipulent de grands nombres de caractéristiques visuelles ; ici il est expérimenté dans deux applications : la recherche d’images cross-domain et la localisation de véhicule basée image. Numéro de notice : C2017-032 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans En ligne : https://orasis2017.sciencesconf.org/139245/document Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89296 Documents numériques
en open access
Recherche d’images basée sur la saillance visuelle - postprintAdobe Acrobat PDF Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur / Damien Fourure (2017)
Titre : Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur Type de document : Thèse/HDR Auteurs : Damien Fourure, Auteur ; Alain Trémeau, Directeur de thèse ; Christian Wolf, Directeur de thèse Editeur : Université de Lyon Année de publication : 2017 Autre Editeur : Saint-Etienne : Université Jean-Monnet-Saint-Etienne Importance : 178 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université de Lyon opérée au sein de l’Université Jean Monnet de Saint-Étienne, Spécialité de doctorat : InformatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] architecture de réseau
[Termes IGN] chromatopsie
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] estimation de pose
[Termes IGN] intelligence artificielle
[Termes IGN] Perceptron multicouche
[Termes IGN] segmentation sémantique
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) La vision par ordinateur est un domaine interdisciplinaire étudiant la manière dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d’images ou de vidéos numériques. En intelligence artificielle, et plus précisément en apprentissage automatique, domaine dans lequel se positionne cette thèse, la vision par ordinateur passe par l’extraction de caractéristiques présentes dans les images puis par la généralisation de concepts liés à ces caractéristiques. Ce domaine de recherche est devenu très populaire ces dernières années, notamment grâce aux résultats des réseaux de neurones convolutifs à la base des méthodes dites d’apprentissage profond. Aujourd’hui les réseaux de neurones permettent, entre autres, de reconnaître les différents objets présents dans une image, de générer des images très réalistes ou même de battre les champions au jeu de Go. Leurs performances ne s’arrêtent d’ailleurs pas au domaine de l’image puisqu’ils sont aussi utilisés dans d’autres domaines tels que le traitement du langage naturel (par exemple en traduction automatique) ou la reconnaissance de son. Dans cette thèse, nous étudions les réseaux de neurones convolutifs afin de développer des architectures et des fonctions de coûts spécialisées à des tâches aussi bien de bas niveau (la constance chromatique) que de haut niveau (la segmentation sémantique d’image). Une première contribution s’intéresse à la tâche de constance chromatique. En vision par ordinateur, l’approche principale consiste à estimer la couleur de l’illuminant puis à supprimer son impact sur la couleur perçue des objets. Les expériences que nous avons menées montrent que notre méthode permet d’obtenir des performances compétitives avec l’état de l’art. Néanmoins, notre architecture requiert une grande quantité de données d’entraînement. Afin de corriger en parti ce problème et d’améliorer l’entraînement des réseaux de neurones, nous présentons plusieurs techniques d’augmentation artificielle de données. Nous apportons également deux contributions sur une problématique de haut niveau : la segmentation sémantique d’image. Cette tâche, qui consiste à attribuer une classe sémantique à chacun des pixels d’une image, constitue un défi en vision par ordinateur de par sa complexité. D’une part, elle requiert de nombreux exemples d’entraînement dont les vérités terrains sont coûteuses à obtenir. D’autre part, elle nécessite l’adaptation des réseaux de neurones convolutifs traditionnels afin d’obtenir une prédiction dite dense, c’est-à-dire, une prédiction pour chacun pixel présent dans l’image d’entrée. Pour résoudre la difficulté liée à l’acquisition de données d’entrainements, nous proposons une approche qui exploite simultanément plusieurs bases de données annotées avec différentes étiquettes. Pour cela, nous définissons une fonction de coût sélective. Nous développons aussi une approche dites d’auto-contexte capturant d’avantage les corrélations existantes entre les étiquettes des différentes bases de données. Finalement, nous présentons notre troisième contribution : une nouvelle architecture de réseau de neurones convolutifs appelée GridNet spécialisée pour la segmentation sémantique d’image. Contrairement aux réseaux traditionnels, notre architecture est implémentée sous forme de grille 2D permettant à plusieurs flux interconnectés de fonctionner à différentes résolutions. Afin d’exploiter la totalité des chemins de la grille, nous proposons une technique d’entraînement inspirée du dropout. En outre, nous montrons empiriquement que notre architecture généralise de nombreux réseaux bien connus de l’état de l’art. Nous terminons par une analyse des résultats empiriques obtenus avec notre architecture qui, bien qu’entraînée avec une initialisation aléatoire des poids, révèle de très bonnes performances, dépassant les approches populaires souvent pré-entraînés. Note de contenu : 1- Introduction
2- Les réseaux de neurones convolutifs pour la vision par ordinateur
3- Sous-échantillonnage mixte appliqué à la constance chromatique
4- Segmentation sémantique d’images
5- Une fonction de coût sélective
6- GridNet, une architecture spécialisée pour la segmentation sémantique
7- Conclusion et PerspectivesNuméro de notice : 25838 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Spécialité : Informatique : Lyon : 2017 Organisme de stage : Université Jean Monnet de Saint-Étienne + LIRIS nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02111472/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95192
Titre : Robotics, vision and control Type de document : Monographie Auteurs : Peter Corke, Auteur Editeur : Springer International Publishing Année de publication : 2017 Importance : 570 p. Format : 21 x 27 cm ISBN/ISSN/EAN : 978-3-319-54413-7 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Intelligence artificielle
[Termes IGN] Matlab
[Termes IGN] navigation inertielle
[Termes IGN] robot mobile
[Termes IGN] robotique
[Termes IGN] traitement d'image
[Termes IGN] vision par ordinateur
[Termes IGN] vitesse radialeRésumé : (éditeur) Robotic vision, the combination of robotics and computer vision, involves the application of computer algorithms to data acquired from sensors. The research community has developed a large body of such algorithms but for a newcomer to the field this can be quite daunting. For over 20 years the author has maintained two open-source MATLAB® Toolboxes, one for robotics and one for vision. They provide implementations of many important algorithms and allow users to work with real problems, not just trivial examples. This book makes the fundamental algorithms of robotics, vision and control accessible to all. It weaves together theory, algorithms and examples in a narrative that covers robotics and computer vision separately and together. Using the latest versions of the Toolboxes the author shows how complex problems can be decomposed and solved using just a few simple lines of code. The topics covered are guided by real problems observed by the author over many years as a practitioner of both robotics and computer vision. It is written in an accessible but informative style, easy to read and absorb, and includes over 1000 MATLAB and Simulink® examples and over 400 figures. The book is a real walk through the fundamentals of mobile robots, arm robots. then camera models, image processing, feature extraction and multi-view geometry and finally bringing it all together with an extensive discussion of visual servo systems. This second edition is completely revised, updated and extended with coverage of Lie groups, matrix exponentials and twists; inertial navigation; differential drive robots; lattice planners; pose-graph SLAM and map making; restructured material on arm-robot kinematics and dynamics; series-elastic actuators and operational-space control; Lab color spaces; light field cameras; structured light, bundle adjustment and visual odometry; and photometric visual servoing. Note de contenu : 1- Introduction
2- Representing Position and Orientation
3- Time and Motion
4- Mobile Robot Vehicles
5- Navigation
6- Localization
7- Robot Arm Kinematics
8- Manipulator Velocity
9- Dynamics and Control
10- Light and Color
11- Image Formation
12- Images and Image Processing
13- Image Feature Extraction
14- Using Multiple Images
15- Vision-Based Control
16- Advanced Visual ServoingNuméro de notice : 25794 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Monographie En ligne : https://doi.org/10.1007/978-3-319-54413-7 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95024
Titre : Vision-based detection of aircrafts and UAVs Type de document : Thèse/HDR Auteurs : Artem Rozantsev, Auteur ; Pascal Fua, Directeur de thèse ; Vincent Lepetit, Directeur de thèse Editeur : Lausanne : Ecole Polytechnique Fédérale de Lausanne EPFL Année de publication : 2017 Importance : 117 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée à l'Ecole Polytechnique Fédérale de Lausanne pour l'obtention du grade de Docteur ès SciencesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Télédétection
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] cube espace-temps
[Termes IGN] détection d'objet
[Termes IGN] drone
[Termes IGN] image aérienne
[Termes IGN] objet mobile
[Termes IGN] régression
[Termes IGN] vision par ordinateurRésumé : (auteur) Unmanned Aerial Vehicles are becoming increasingly popular for a broad variety of tasks ranging from aerial imagery to objects delivery. With the expansion of the areas, where drones can be efficiently used, the collision risk with other flying objects increases. Avoiding such collisions would be a relatively easy task, if all the aircrafts in the neighboring airspace could communicate with each other and share their location information. However, it is often the case that either location information is unavailable (e.g. flying in GPS-denied environments) or communication is not possible (e.g. different communication channels or non-cooperative flight scenario). To ensure
flight safety in this kind of situations drones need a way to autonomously detect other objects that are intruding the neighboring airspace. Visual-based collision avoidance is of particular interest as cameras generally consume less power and are more lightweight than active sensor alternatives such as radars and lasers. We have therefore developed a set of increasingly sophisticated algorithms to provide drones with a visual collision avoidance capability. First, we present a novel method for detecting flying objects such as drones and planes that occupy a small part of the camera field of view, possibly move in front of complex backgrounds, and are filmed by a moving camera. In order to be solved this problem requires combining motion and appearance information, as neither of the two alone is capable of providing reliable
enough detections. We therefore propose a machine learning technique that operates on spatiotemporal cubes of image intensities where individual patches are aligned using an object-centric regression-based motion stabilization algorithm. Second, in order to reduce the need to collect a large training dataset and to manual annotate it, we introduce a way to generate realistic synthetic images. Given only a small set of real examples and a coarse 3D model of the object, synthetic data can be generated in arbitrary quantities and further used to supplement real examples for training a detector. The key ingredient of our method is that the synthetically generated images need to be as close as possible to the real ones not in terms of image quality, but according to the features, used by a machine learning algorithm. Third, though the aforementioned approach yields a substantial increase in performance when using Adaboost and DPM detectors, it does not generalize well to Convolutional Neural Networks, which have become the state-of-the-art. This happens because, as we add more and more synthetic data, the CNNs begin to overfit to the synthetic images at the expense of the real ones. We therefore propose a novel deep domain adaptation technique that allows efficiently combining real and synthetic images without overfitting to either of the two. While most of the adaptation techniques aim at learning features that are invariant to the possible difference of the images, coming from different sources (real and synthetic). Unlike those methods, we suggest modeling this difference with a special two-stream architecture. We evaluate our approach on three different
datasets and show its effectiveness for various classification and regression tasks.Note de contenu : Introduction
1- Flying Objects Detection
2- Synthetic Data Generation
3- Domain Adaption for Deep Networks
4- Concluding RemarksNuméro de notice : 25870 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : Thèse de Doctorat : Sciences : Lausanne : Suisse : 2017 En ligne : https://infoscience.epfl.ch/record/227934?ln=fr Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95538 Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique / Maxime Derome (2017)
Titre : Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique Type de document : Thèse/HDR Auteurs : Maxime Derome, Auteur ; Guy Le Besnerais, Directeur de thèse Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2017 Importance : 162 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de doctorat de l'Université Paris-Saclay préparée à l’Université Paris-Sud,
École doctorale n°580 Sciences et technologies de l’information et de la communication (STIC)
Spécialité de doctorat : Mathématiques et informatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] appariement d'images
[Termes IGN] détection d'objet
[Termes IGN] estimation de pose
[Termes IGN] estimation par noyau
[Termes IGN] estimation statistique
[Termes IGN] navigation autonome
[Termes IGN] odomètre
[Termes IGN] propagation d'erreur
[Termes IGN] robot mobile
[Termes IGN] temps réel
[Termes IGN] trajectoire (véhicule non spatial)
[Termes IGN] vision par ordinateur
[Termes IGN] vision stéréoscopiqueIndex. décimale : THESE Thèses et HDR Résumé : (auteur) L’objectif de la thèse est de concevoir un système de perception stéréoscopique embarqué, permettant une navigation robotique autonome en présence d’objets mobiles. Pour pouvoir naviguer en environnement inconnu et en présence d’objets mobiles quelconques, nous avons adopté une approche purement géométrique reposant sur l’estimation de la disparité stéréo, du flot optique et du flot de scène. Pour assurer une couverture maximale du champ visuel, nous avons employé des méthodes d'estimation denses qui traitent chaque pixel de l'image. Enfin, puisque les algorithmes utilisés doivent s’exécuter en embarqué sur un robot, nous nous sommes efforcé de sélectionner ou concevoir des algorithmes rapides, pour nuire au minimum à la réactivité du système. Cette thèse présente plusieurs contributions. Nous avons proposé une nouvelle approche pour l’estimation du flot de scène, en combinant des algorithmes d’odométrie visuelle, d’appariement stéréo et de flot optique. Son implémentation sur GPU permet une estimation du flot de scène à cadence vidéo sur les images du dataset KITTI. Une méthode de détection dense d’objets mobiles a aussi été proposée, en modélisant statistiquement et en propageant toutes les erreurs de mesures. Enfin, nous avons validé expérimentalement sur un petit robot terrestre ces algorithmes de perception, en les couplant à un module de commande prédictive. L’expérience montre que le système de perception proposé est suffisamment rapide pour permettre au robot de détecter un objet mobile et d’adapter à la volée sa trajectoire afin d’éviter une collision. Note de contenu : Introduction
1 - Perception 3D à Partir d'un Banc Stéréoscopique
2 - Estimations Temporelles : Odométrie Stéréo, Flot Optique, Flot de scène
3 - Détection Dense d'Objets Mobiles à Partir d'un Banc Stéréo en déplacement
4 - Programmation sur GPU d'Algorithmes Temps-Réel et Application à la Navigation Autonome en Robotique
ConclusionNuméro de notice : 21575 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE/MATHEMATIQUE Nature : Thèse française Note de thèse : Thèse de doctorat : Mathématiques et informatique : Université Paris-Saclay : 2017 nature-HAL : Thèse DOI : sans En ligne : http://www.theses.fr/2017SACLS156 Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90578 Automatic delineation of built-up area at urban block level from topographic maps / Sebastian Muhs in Computers, Environment and Urban Systems, vol 58 (July 2016)PermalinkAutonomous navigation in complex nonplanar environments based on laser ranging / Philipp Andreas Krüsi (2016)PermalinkDense image matching / Martin Kodde in GIM international [en ligne], vol 30 n° 1 (January 2016)PermalinkIndoor navigation of mobile robots based on visual memory and image-based visual servoing / Suman Raj Bista (2016)PermalinkPhotogrammetric computer vision / Wolfgang Förstner (2016)Permalinkn° 225 - septembre 2015 - Temps, art et cartographie (Bulletin de Cartes & Géomatique) / Jasmine Desclaux-SalachasPermalinkAlgorithms for vision-based path following along previously taught paths / Deon George Sabatta (2015)PermalinkEvaluation de la technologie des caméras 3D (Kinect 2) pour la mesure et la reconstruction d’objets à courte portée / Elise Lachat (2015)PermalinkMétrologie par photogrammétrie aéroportée légère : application au suivi d'évolution de digues / Vincent Tournadre (2015)PermalinkPermalink