Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > analyse d'image numérique > analyse d'image orientée objet
analyse d'image orientée objetVoir aussi |
Documents disponibles dans cette catégorie (229)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deep traffic light detection by overlaying synthetic context on arbitrary natural images / Jean Pablo Vieira de Mello in Computers and graphics, vol 94 n° 1 (February 2021)
[article]
Titre : Deep traffic light detection by overlaying synthetic context on arbitrary natural images Type de document : Article/Communication Auteurs : Jean Pablo Vieira de Mello, Auteur ; Lucas Tabelini, Auteur ; Rodrigo F. Berriel, Auteur Année de publication : 2021 Article en page(s) : pp 76 - 86 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage d'image
[Termes IGN] feu de circulation
[Termes IGN] image à haute résolution
[Termes IGN] navigation autonome
[Termes IGN] signalisation routière
[Termes IGN] trafic routierRésumé : (auteur) Deep neural networks come as an effective solution to many problems associated with autonomous driving. By providing real image samples with traffic context to the network, the model learns to detect and classify elements of interest, such as pedestrians, traffic signs, and traffic lights. However, acquiring and annotating real data can be extremely costly in terms of time and effort. In this context, we propose a method to generate artificial traffic-related training data for deep traffic light detectors. This data is generated using basic non-realistic computer graphics to blend fake traffic scenes on top of arbitrary image backgrounds that are not related to the traffic domain. Thus, a large amount of training data can be generated without annotation efforts. Furthermore, it also tackles the intrinsic data imbalance problem in traffic light datasets, caused mainly by the low amount of samples of the yellow state. Experiments show that it is possible to achieve results comparable to those obtained with real training data from the problem domain, yielding an average mAP and an average F1-score which are each nearly 4 p.p. higher than the respective metrics obtained with a real-world reference model. Numéro de notice : A2021-151 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1016/j.cag.2020.09.012 Date de publication en ligne : 09/10/2020 En ligne : https://doi.org/10.1016/j.cag.2020.09.012 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97027
in Computers and graphics > vol 94 n° 1 (February 2021) . - pp 76 - 86[article]Detection of pictorial map objects with convolutional neural networks / Raimund Schnürer in Cartographic journal (the), vol 58 n° 1 (February 2021)
[article]
Titre : Detection of pictorial map objects with convolutional neural networks Type de document : Article/Communication Auteurs : Raimund Schnürer, Auteur ; René Sieber, Auteur ; Jost Schmid-Lanter, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 50 - 68 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] base de données d'images
[Termes IGN] bibliothèque numérique
[Termes IGN] carte ancienne
[Termes IGN] carte numérique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] données issues des réseaux sociaux
[Termes IGN] objet cartographique
[Termes IGN] pictogrammeRésumé : (auteur) In this work, realistically drawn objects are identified on digital maps by convolutional neural networks. For the first two experiments, 6200 images were retrieved from Pinterest. While alternating image input options, two binary classifiers based on Xception and InceptionResNetV2 were trained to separate maps and pictorial maps. Results showed that the accuracy is 95–97% to distinguish maps from other images, whereas maps with pictorial objects are correctly classified at rates of 87–92%. For a third experiment, bounding boxes of 3200 sailing ships were annotated in historic maps from different digital libraries. Faster R-CNN and RetinaNet were compared to determine the box coordinates, while adjusting anchor scales and examining configurations for small objects. A resulting average precision of 32% was obtained for Faster R-CNN and of 36% for RetinaNet. Research outcomes are relevant for trawling map images on the Internet and for enhancing the advanced search of digital map catalogues. Numéro de notice : A2021-651 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/00087041.2020.1738112 Date de publication en ligne : 11/09/2020 En ligne : https://doi.org/10.1080/00087041.2020.1738112 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98381
in Cartographic journal (the) > vol 58 n° 1 (February 2021) . - pp 50 - 68[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 030-2021011 RAB Revue Centre de documentation En réserve L003 Disponible Semi-supervised joint learning for hand gesture recognition from a single color image / Chi Xu in Sensors, vol 21 n° 3 (February 2021)
[article]
Titre : Semi-supervised joint learning for hand gesture recognition from a single color image Type de document : Article/Communication Auteurs : Chi Xu, Auteur ; Yunkai Jiang, Auteur ; Jun Zhou, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : n° 1007 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] détection d'objet
[Termes IGN] estimation de pose
[Termes IGN] image en couleur
[Termes IGN] jeu de données
[Termes IGN] reconnaissance de gestesRésumé : (auteur) Hand gesture recognition and hand pose estimation are two closely correlated tasks. In this paper, we propose a deep-learning based approach which jointly learns an intermediate level shared feature for these two tasks, so that the hand gesture recognition task can be benefited from the hand pose estimation task. In the training process, a semi-supervised training scheme is designed to solve the problem of lacking proper annotation. Our approach detects the foreground hand, recognizes the hand gesture, and estimates the corresponding 3D hand pose simultaneously. To evaluate the hand gesture recognition performance of the state-of-the-arts, we propose a challenging hand gesture recognition dataset collected in unconstrained environments. Experimental results show that, the gesture recognition accuracy of ours is significantly boosted by leveraging the knowledge learned from the hand pose estimation task. Numéro de notice : A2021-160 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/s21031007 Date de publication en ligne : 02/02/2021 En ligne : https://doi.org/10.3390/s21031007 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97076
in Sensors > vol 21 n° 3 (February 2021) . - n° 1007[article]
Titre : 3D object detection using lidar point clouds and 2D image object detection Type de document : Mémoire Auteurs : Topi Miekkala, Auteur Editeur : Tampere [Finlande] : Tampere University Année de publication : 2021 Importance : 67 p. Format : 21 x 30 cm Note générale : bibliographie
Master of Science Thesis, Automation EngineeringLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données
[Termes IGN] image 2D
[Termes IGN] navigation autonome
[Termes IGN] objet 3D
[Termes IGN] piéton
[Termes IGN] point d'intérêt
[Termes IGN] segmentation
[Termes IGN] semis de points
[Termes IGN] temps réel
[Termes IGN] vision par ordinateurRésumé : (auteur) This master thesis is about the environmental sensing of an automated vehicle, and its ability to recognize objects of interest such as other road users including pedestrians and other vehicles. Automated driving is a popular and growing field of research, and the continuous increase in the demand of self-driving vehicles requires manufacturers to constantly improve the safety and environmental sensing capabilities of their vehicles. Deep learning neural networks and sensor data fusion are significant tools in the development of detection algorithms of automated vehicles. This thesis presents a method combining neural networks and sensor data fusion to implement 3D object detection into a self-driving car. The method uses an onboard camera sensor and a state of the art 2D image object detector YOLO v4, combining its detections with the data of a lidar sensor, which produces dense point clouds of its environment. These point clouds can be used to estimate distances and locations of surrounding targets. Using inter-sensor calibration between the camera and the lidar, the 3D points outputted by the lidar can be projected on a 2D image, therefore allowing the 3D location estimation of 2D objects detected in an image. The thesis first presents the research questions and the theoretical methods used to implement the algorithm. Some background on automated driving is also presented, followed by the specific research environment and vehicle used in this thesis. The thesis also presents the software implementations and vehicle system integration steps needed to implement everything into a self-driving car to achieve a real-time 3D object detection system. The results of this thesis show that using sensor data fusion, such a system can be integrated fully into a self-driving vehicle, and the processing times of the algorithm can be kept at a real-time rate. Note de contenu : 1- Introduction
2- Methods for sensor data and object detection
3- Autonomous driving and environmental sensing
4- Experiments
5- Evaluation
6- ConclusionNuméro de notice : 28594 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Mémoire masters divers En ligne : https://trepo.tuni.fi/handle/10024/132285 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99323 Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images / Théo Mesure (2021)
Titre : Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images : Quelles possibilités d’automatisation ? Type de document : Mémoire Auteurs : Théo Mesure, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2021 Importance : 63 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet pluridisciplinaire, cycle ING2Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse diachronique
[Termes IGN] automatisation
[Termes IGN] calcaire
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification dirigée
[Termes IGN] classification orientée objet
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] espèce végétale
[Termes IGN] géoréférencement indirect
[Termes IGN] image aérienne
[Termes IGN] Moselle (57)
[Termes IGN] Orfeo Tool Box
[Termes IGN] pelouse
[Termes IGN] protection de la biodiversitéIndex. décimale : PROJET Mémoires : Rapports de projet - stage des ingénieurs de 2e année Résumé : (Auteur) L’analyse fine et régulière des pelouses calcaires est un enjeu majeur dans le cadre des missions de gestion et de suivi scientifique du Conservatoire d’Espaces Naturels de Lorraine. Les pelouses sont des milieux semi-naturels, soumis à des dynamiques d’embroussaillement fortes et rapides si elles ne sont pas gérées régulièrement. A l’heure actuelle, le suivi de cette dynamique au Conservatoire se fait par analyse diachronique des photos aériennes mises à disposition. Cette analyse est complétée par une cartographie de terrain. Réalisée à la main, cette méthode est pour l’heure assez chronophage. Les travaux effectués au cours de ce stage se positionnent donc dans la continuité de ces études. Au vu des moyens technologiques actuels, le Conservatoire s’interroge sur la possibilité d’automatiser les cartographies d’occupation du sol, afin d’évaluer l’embroussaillement sur ses différents sites. Pour répondre à cette problématique, deux méthodes de classification supervisée ont été développées. Elles suivent le même principe et ne différent que par les données qu’on leur fournie. La première traite des images disposant de canal proche-infrarouge, tandis que la deuxième méthode se concentre elle sur les images ne disposant que du spectre visible. Pour procéder à la classification, les images sont segmentées grâce à l’algorithme de ligne de partage des eaux. On extrait aussi un certain nombre d’informations, directes ou dérivées, de ces images. Les attributs calculés ici, ont été déterminés pour fournir les meilleurs résultats sur la détection des pelouses calcaires. Enfin les segments créés sont donnés au classifieur RandomForest, afin qu’il les ordonne selon un ensemble de classes définies au préalable. Avec les méthodes développées, le classifieur parvient à trouver entre 80% et 90% de vrai positifs pour le type d’arbuste ou de pelouse, selon les années et les données en entrée. Des pistes d’amélioration ont aussi été explorées, telles que l’ajout de données externes ou le lissage de carte. Le deuxième objectif de ce stage était de pouvoir transmettre les méthodes de classification développées au plus grand nombre. Pour cela, des manuels utilisateurs ont été écrits, détaillant chacune des étapes nécessaires. Ces manuels donnent aussi les clefs de compréhension nécessaires à l’analyse des résultats et des attributs produits. A l’issu de ce stage, les perspectives sont nombreuses. Une telle méthodologie offre la possibilité d’un suivi plus régulier et détaillé des sites du Conservatoire. L’utilisation d’une méthode de classification orientée-objet, permet de prendre en compte le travail des experts sur le terrain, ainsi que d’intégrer plus facilement ces données au classifieur. Un travail sur les classes est aussi envisageable : en dehors du bâti, une simplification des classes de végétation est possible, et permettrait de faciliter le travail sur les images anciennes. Pour les images actuelles, un travail sur la nomenclature pourrait être utile pour améliorer le niveau de détail de la carte. En s’appliquant par exemple à différencier arbustes bas, pelouse non-gérée et pelouse non-gérée mitée (i.e avec un début d’embroussaillement). Enfin la faible configuration machine requise, permet d’imaginer des utilisations par un nombre plus grand d’acteurs. Note de contenu : Introduction
1. Contexte et présentation du stage
1.1 Présentation de la structure
1.2 Enjeux et objectifs
1.3 Présentation des sites
1.4 Déroulement et organisation du stage
1.5 Données à disposition
2. Recherches effectuées et principe de la méthode
2.1 Recherche des outils
2.2 Principe de fonctionnement
3. Description et création des attributs et des segments
3.1 Attributs spectraux
3.2 Attributs de texture
3.3 Attributs géométriques
3.4 Création des segments
3.5 Création de statistiques
4. Classifieur utilisé
4.1 SVM et RandomForest
4.2 Arbre de décision
4.3 Construction et fonctionnement du RandomForest
4.4 Jeu d’entraînement, jeu de validation
5. Résultats
5.1 Classes retenues
5.2 Cartes d’occupation du sol, images récentes
5.3 Cartes d’occupation du sol, images anciennes
5.4 Evaluation détaillée du classifieur
5.5 Statistiques d’occupation du sol
6. Limites et améliorations
6.1 Limites de la méthode
6.2 Limites de la nomenclature
6.3 Limites sur le panchromatique
6.4 Limites sur le RVB ancien
6.5 Limites sur l’évaluation du classifieur
6.6 Limites sur le géoréférencement
6.7 Améliorations possibles
7. Mise à disposition pour les utilisateurs du CENL
7.1 Outils utilisés pour automatiser
7.2 Rédaction et contenu des manuels
7.3 Limites
ConclusionNuméro de notice : 26620 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/FORET/IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : Conservatoire des Espaces Naturels de Lorraine CENL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98584 Documents numériques
peut être téléchargé
Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images - pdf auteurAdobe Acrobat PDF Assessment of combining convolutional neural networks and object based image analysis to land cover classification using Sentinel 2 satellite imagery (Tenes region, Algeria) / N. Zaabar (2021)PermalinkAutomatic object extraction from airborne laser scanning point clouds for digital base map production / Elyta Widyaningrum (2021)PermalinkPermalinkBuilding extraction from Lidar data using statistical methods / Haval Abdul-Jabbar Sadeq in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 1 (January 2021)PermalinkCombining deep learning and mathematical morphology for historical map segmentation / Yizi Chen (2021)PermalinkConnecting images through time and sources: Introducing low-data, heterogeneous instance retrieval / Dimitri Gominski (2021)PermalinkPermalinkDescription et recherche d’image généralisables pour l’interconnexion et l’analyse multi-source / Dimitri Gominski (2021)PermalinkDétection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)PermalinkPermalinkExtraction of street pole-like objects based on plane filtering from mobile LiDAR data / Jingming Tu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkFlood mapping from radar remote sensing using automated image classification techniques / Lisa Landuyt (2021)PermalinkPermalinkPermalinkPermalinkPermalinkMask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors / Emilio Guirado in Sensors, vol 21 n° 1 (January 2021)PermalinkPermalinkPermalinkObject detection using component-graphs and ConvNets with application to astronomical images / Thanh Xuan Nguyen (2021)Permalink