Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > analyse d'image numérique > analyse d'image orientée objet > détection d'objet
détection d'objetVoir aussi |
Documents disponibles dans cette catégorie (128)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Object recognition algorithm based on optimized nonlinear activation function-global convolutional neural network / Feng-Ping An in The Visual Computer, vol 38 n° 2 (February 2022)
[article]
Titre : Object recognition algorithm based on optimized nonlinear activation function-global convolutional neural network Type de document : Article/Communication Auteurs : Feng-Ping An, Auteur ; Jun-e Liu, Auteur ; Lei Bai, Auteur Année de publication : 2022 Article en page(s) : pp 541 - 553 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] détection d'objet
[Termes IGN] programmation non linéaire
[Termes IGN] réseau neuronal convolutifRésumé : (auteur) Traditional object recognition algorithms cannot meet the requirements of object recognition accuracy in the actual warehousing and logistics field. In recent years, the rapid development of the deep learning theory has provided a technical approach for solving the above problems, and a number of object recognition algorithms has been proposed based on deep learning, which have been promoted and applied. However, deep learning has the following problems in the application process of object recognition: First, the nonlinear modeling ability of the activation function in the deep learning model is poor; second, the deep learning model has a large number of repeated pooling operations during which information is lost. In view of these shortcomings, this paper proposes multiple-parameter exponential linear units with uniform and learnable parameter forms and introduces two learned parameters in the exponential linear unit (ELU), enabling it to represent piecewise linear and exponential nonlinear functions. Therefore, the ELU has good nonlinear modeling capabilities. At the same time, to improve the problem of losing information in the large number of repeated pooling operations, this paper proposes a new global convolutional neural network structure. This network structure makes full use of the local and global information of different layer feature maps in the network. It can reduce the problem of losing feature information in the large number of pooling operations. Based on the above ideas, this paper suggests an object recognition algorithm based on the optimized nonlinear activation function-global convolutional neural network. Experiments were carried out on the CIFAR100 dataset and the ImageNet dataset using the object recognition algorithm proposed in this paper. The results show that the object recognition method suggested in this paper not only has a better recognition accuracy than traditional machine learning and other deep learning models but also has a good stability and robustness. Numéro de notice : A2022-147 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s00371-020-02033-x Date de publication en ligne : 03/01/2022 En ligne : https://doi.org/10.1007/s00371-020-02033-x Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100041
in The Visual Computer > vol 38 n° 2 (February 2022) . - pp 541 - 553[article]Automatic extraction of damaged houses by earthquake based on improved YOLOv5: A case study in Yangbi / Yafei Jing in Remote sensing, vol 14 n° 2 (January-2 2022)
[article]
Titre : Automatic extraction of damaged houses by earthquake based on improved YOLOv5: A case study in Yangbi Type de document : Article/Communication Auteurs : Yafei Jing, Auteur ; Yuhuan Ren, Auteur ; Yalan Liu, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 382 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] apprentissage profond
[Termes IGN] détection d'objet
[Termes IGN] détection de cible
[Termes IGN] détection du bâti
[Termes IGN] dommage matériel
[Termes IGN] extraction automatique
[Termes IGN] image captée par drone
[Termes IGN] orthoimage
[Termes IGN] séisme
[Termes IGN] Yunnan (Chine)Résumé : (auteur) Efficiently and automatically acquiring information on earthquake damage through remote sensing has posed great challenges because the classical methods of detecting houses damaged by destructive earthquakes are often both time consuming and low in accuracy. A series of deep-learning-based techniques have been developed and recent studies have demonstrated their high intelligence for automatic target extraction for natural and remote sensing images. For the detection of small artificial targets, current studies show that You Only Look Once (YOLO) has a good performance in aerial and Unmanned Aerial Vehicle (UAV) images. However, less work has been conducted on the extraction of damaged houses. In this study, we propose a YOLOv5s-ViT-BiFPN-based neural network for the detection of rural houses. Specifically, to enhance the feature information of damaged houses from the global information of the feature map, we introduce the Vision Transformer into the feature extraction network. Furthermore, regarding the scale differences for damaged houses in UAV images due to the changes in flying height, we apply the Bi-Directional Feature Pyramid Network (BiFPN) for multi-scale feature fusion to aggregate features with different resolutions and test the model. We took the 2021 Yangbi earthquake with a surface wave magnitude (Ms) of 6.4 in Yunan, China, as an example; the results show that the proposed model presents a better performance, with the average precision (AP) being increased by 9.31% and 1.23% compared to YOLOv3 and YOLOv5s, respectively, and a detection speed of 80 FPS, which is 2.96 times faster than YOLOv3. In addition, the transferability test for five other areas showed that the average accuracy was 91.23% and the total processing time was 4 min, while 100 min were needed for professional visual interpreters. The experimental results demonstrate that the YOLOv5s-ViT-BiFPN model can automatically detect damaged rural houses due to destructive earthquakes in UAV images with a good performance in terms of accuracy and timeliness, as well as being robust and transferable. Numéro de notice : A2022-104 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs14020382 Date de publication en ligne : 14/01/2022 En ligne : https://doi.org/10.3390/rs14020382 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99577
in Remote sensing > vol 14 n° 2 (January-2 2022) . - n° 382[article]
Titre : Deep learning architectures for onboard satellite image analysis Type de document : Thèse/HDR Auteurs : Gaétan Bahl, Auteur ; Florent Lafarge, Directeur de thèse Editeur : Nice : Université Côte d'Azur Année de publication : 2022 Importance : 120 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de Doctorat de l'Université Côte d’Azur, Spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] contour
[Termes IGN] détection d'objet
[Termes IGN] extraction du réseau routier
[Termes IGN] forêt
[Termes IGN] image satellite
[Termes IGN] nuage
[Termes IGN] régression
[Termes IGN] réseau neuronal convolutif
[Termes IGN] réseau neuronal de graphes
[Termes IGN] réseau neuronal récurrent
[Termes IGN] segmentation sémantiqueIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) Les progrès des satellites d'observation de la Terre à haute résolution et la réduction des temps de revisite introduite par la création de constellations de satellites ont conduit à la création quotidienne de grandes quantités d'images (des centaines de Teraoctets par jour). Simultanément, la popularisation des techniques de Deep Learning a permis le développement d'architectures capables d'extraire le contenu sémantique des images. Bien que ces algorithmes nécessitent généralement l'utilisation de matériel puissant, des accélérateurs d'inférence IA de faible puissance ont récemment été développés et ont le potentiel d'être utilisés dans les prochaines générations de satellites, ouvrant ainsi la possibilité d'une analyse embarquée des images satellite. En extrayant les informations intéressantes des images satellite directement à bord, il est possible de réduire considérablement l'utilisation de la bande passante, du stockage et de la mémoire. Les applications actuelles et futures, telles que la réponse aux catastrophes, l'agriculture de précision et la surveillance du climat, bénéficieraient d'une latence de traitement plus faible, voire d'alertes en temps réel. Dans cette thèse, notre objectif est double : D'une part, nous concevons des architectures de Deep Learning efficaces, capables de fonctionner sur des périphériques de faible puissance, tels que des satellites ou des drones, tout en conservant une précision suffisante. D'autre part, nous concevons nos algorithmes en gardant à l'esprit l'importance d'avoir une sortie compacte qui peut être efficacement calculée, stockée, transmise au sol ou à d'autres satellites dans une constellation. Tout d'abord, en utilisant des convolutions séparables en profondeur et des réseaux neuronaux récurrents convolutionnels, nous concevons des réseaux neuronaux de segmentation sémantique efficaces avec un faible nombre de paramètres et une faible utilisation de la mémoire. Nous appliquons ces architectures à la segmentation des nuages et des forêts dans les images satellites. Nous concevons également une architecture spécifique pour la segmentation des nuages sur le FPGA d'OPS-SAT, un satellite lancé par l'ESA en 2019, et réalisons des expériences à bord à distance. Deuxièmement, nous développons une architecture de segmentation d'instance pour la régression de contours lisses basée sur une représentation à coefficients de Fourier, qui permet de stocker et de transmettre efficacement les formes des objets détectés. Nous évaluons la performance de notre méthode sur une variété de dispositifs informatiques à faible puissance. Enfin, nous proposons une architecture d'extraction de graphes routiers basée sur une combinaison de Fully Convolutional Networks et de Graph Neural Networks. Nous montrons que notre méthode est nettement plus rapide que les méthodes concurrentes, tout en conservant une bonne précision. Note de contenu : 1. Introduction
1.1 Context and motivation
1.2 Methods and Challenges
1.3 Contributions and outline
2. On-board image segmentation with compact networks
2.1 Introduction
2.2 Related works
2.3 Proposed architectures
2.4 Experiments on cloud segmentation
2.5 Experiments on forest segmentation
2.6 Conclusion
3. Recurrent convolutional networks for semantic segmentation
3.1 Introduction
3.2 Method
3.3 Experiments
3.4 Conclusion and future works
4. Regression of compact object contours
4.1 Introduction
4.2 Related Work
4.3 Method
4.4 Experiments
4.5 Conclusion
5. Road graph extraction
5.1 Introduction
5.2 Related Works
5.3 Method
5.4 Experiments
5.5 Limitations
5.6 Other uses of our method
5.7 Conclusion
6. Conclusion and Perspectives
6.1 Summary
6.2 Limitations and perspectives
6.3 Publications
6.4 Carbon Impact StatementNuméro de notice : 26912 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Côte d'Azur : 2022 Organisme de stage : Inria Sophia-Antipolis Méditerranée nature-HAL : Thèse DOI : sans Date de publication en ligne : 27/09/2022 En ligne : https://tel.hal.science/tel-03789667v2 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101955 Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles / Zhujun Xu (2022)
Titre : Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles Type de document : Thèse/HDR Auteurs : Zhujun Xu, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Directeur de thèse Editeur : Toulouse : Université de Toulouse Année de publication : 2022 Importance : 136 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, spécialité Informatique et TélécommunicationsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] architecture de réseau
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage de données
[Termes IGN] objet 3D
[Termes IGN] segmentation d'image
[Termes IGN] véhicule automobile
[Termes IGN] vidéo
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The objective of this thesis is to develop deep learning based 2D and 3D object detection and tracking methods on monocular video and apply them to the context of autonomous vehicles. Actually, when directly using still image detectors to process a video stream, the accuracy suffers from sampled image quality problems. Moreover, generating 3D annotations is time-consuming and expensive due to the data fusion and large numbers of frames. We therefore take advantage of the temporal information in videos such as the object consistency, to improve the performance. The methods should not introduce too much extra computational burden, since the autonomous vehicle demands a real-time performance.Multiple methods can be involved in different steps, for example, data preparation, network architecture and post-processing. First, we propose a post-processing method called heatmap propagation based on a one-stage detector CenterNet for video object detection. Our method propagates the previous reliable long-term detection in the form of heatmap to the upcoming frame. Then, to distinguish different objects of the same class, we propose a frame-to-frame network architecture for video instance segmentation by using the instance sequence queries. The tracking of instances is achieved without extra post-processing for data association. Finally, we propose a semi-supervised learning method to generate 3D annotations for 2D video object tracking dataset. This helps to enrich the training process for 3D object detection. Each of the three methods can be individually applied to leverage image detectors to video applications. We also propose two complete network structures to solve 2D and 3D object detection and tracking on monocular video. Note de contenu : 1- Introduction
2- Video object detection avec la heatmap propagation (propagation de carte de chaleur)
3- Video instance segmentation with instance sequence queries
4- Semi-supervised learning of monocular 3D object detection with 2D video tracking annotations
5- Conclusions and perspectivesNuméro de notice : 24072 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2022 DOI : sans En ligne : https://www.theses.fr/2022ESAE0019 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102136
Titre : Deep learning based vehicle detection in aerial imagery Type de document : Monographie Auteurs : Lars Wilko Sommer, Éditeur scientifique Editeur : Karlsruhe [Allemagne] : KIT Scientific Publishing Année de publication : 2022 Importance : 276 p. Format : 15 x 21 cm ISBN/ISSN/EAN : 978-3-7315-1113-7 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] ancre
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] filtre
[Termes IGN] image aérienne
[Termes IGN] véhiculeRésumé : (éditeur) This book proposes a novel deep learning based detection method, focusing on vehicle detection in aerial imagery recorded in top view. The base detection framework is extended by two novel components to improve the detection accuracy by enhancing the contextual and semantical content of the employed feature representation. To reduce the inference time, a lightweight CNN architecture is proposed as base architecture and a novel module that restricts the search area is introduced. Note de contenu : 1- Introduction
2- Related work
3- Concept
4- Experimental setup
5- Base framework
6- Integration of contextual knowledge
7- Runtime optimization
8- Evaluation
9- Conclusions and outlookNuméro de notice : 28685 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Recueil / ouvrage collectif DOI : 10.5445/KSP/1000135415 En ligne : https://doi.org/10.5445/KSP/1000135415 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100015 PermalinkDetection of windthrown tree stems on UAV-orthomosaics using U-Net convolutional networks / Stefan Reder in Remote sensing, vol 14 n° 1 (January-1 2022)PermalinkPermalinkExploring data fusion for multi-object detection for intelligent transportation systems using deep learning / Amira Mimouna (2022)PermalinkGénération d’un jeu de données d’entraînement et mise en oeuvre d’une architecture de détection par deep learning des numéros de parcelles sur les plans du cadastre Napoléonien / Tiecoumba Ibrahim Tamela (2022)PermalinkHistograms of oriented mosaic gradients for snapshot spectral image description / Lulu Chen in ISPRS Journal of photogrammetry and remote sensing, vol 183 (January 2022)PermalinkMLMT-CNN for object detection and segmentation in multi-layer and multi-spectral images / Majedaldein Almahasneh in Machine Vision and Applications, vol 33 n° 1 (January 2022)PermalinkPermalinkUse of multi-temporal and multi-sensor data for continental water body extraction in the context of the SWOT mission / Nicolas Gasnier (2022)PermalinkParticle swarm optimization based water index (PSOWI) for mapping the water extents from satellite images / Mohammad Hossein Gamshadzaei in Geocarto international, vol 36 n° 20 ([01/12/2021])PermalinkReal-time web map construction based on multiple cameras and GIS / Xingguo Zhang in ISPRS International journal of geo-information, vol 10 n° 12 (December 2021)PermalinkUtility-pole detection based on interwoven column generation from terrestrial mobile Laser scanner data / Siamak Talebi Nahr in Photogrammetric record, Vol 36 n° 176 (December 2021)PermalinkPose estimation and 3D reconstruction of vehicles from stereo-images using a subcategory-aware shape prior / Maximilian Alexander Coenen in ISPRS Journal of photogrammetry and remote sensing, Vol 181 (November 2021)PermalinkUrban land-use analysis using proximate sensing imagery: a survey / Zhinan Qiao in International journal of geographical information science IJGIS, vol 35 n° 11 (November 2021)PermalinkSTC-Det: A slender target detector combining shadow and target information in optical satellite images / Zhaoyang Huang in Remote sensing, vol 13 n° 20 (October-2 2021)PermalinkAn internal-external optimized convolutional neural network for arbitrary orientated object detection from optical remote sensing images / Sihang Zhang in Geo-spatial Information Science, vol 24 n° 4 (October 2021)PermalinkComNet: combinational neural network for object detection in UAV-borne thermal images / Minglei Li in IEEE Transactions on geoscience and remote sensing, vol 59 n° 8 (August 2021)PermalinkCNN-based RGB-D salient object detection: Learn, select, and fuse / Hao Chen in International journal of computer vision, vol 129 n° 7 (July 2021)PermalinkTrajectory and image-based detection and identification of UAV / Yicheng Liu in The Visual Computer, vol 37 n° 7 (July 2021)PermalinkPolSAR ship detection based on neighborhood polarimetric covariance matrix / Tao Liu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 6 (June 2021)Permalink