Descripteur
Documents disponibles dans cette catégorie (28)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles / Zhujun Xu (2022)
Titre : Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles Type de document : Thèse/HDR Auteurs : Zhujun Xu, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Directeur de thèse Editeur : Toulouse : Université de Toulouse Année de publication : 2022 Importance : 136 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, spécialité Informatique et TélécommunicationsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] architecture de réseau
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage de données
[Termes IGN] objet 3D
[Termes IGN] segmentation d'image
[Termes IGN] véhicule automobile
[Termes IGN] vidéo
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The objective of this thesis is to develop deep learning based 2D and 3D object detection and tracking methods on monocular video and apply them to the context of autonomous vehicles. Actually, when directly using still image detectors to process a video stream, the accuracy suffers from sampled image quality problems. Moreover, generating 3D annotations is time-consuming and expensive due to the data fusion and large numbers of frames. We therefore take advantage of the temporal information in videos such as the object consistency, to improve the performance. The methods should not introduce too much extra computational burden, since the autonomous vehicle demands a real-time performance.Multiple methods can be involved in different steps, for example, data preparation, network architecture and post-processing. First, we propose a post-processing method called heatmap propagation based on a one-stage detector CenterNet for video object detection. Our method propagates the previous reliable long-term detection in the form of heatmap to the upcoming frame. Then, to distinguish different objects of the same class, we propose a frame-to-frame network architecture for video instance segmentation by using the instance sequence queries. The tracking of instances is achieved without extra post-processing for data association. Finally, we propose a semi-supervised learning method to generate 3D annotations for 2D video object tracking dataset. This helps to enrich the training process for 3D object detection. Each of the three methods can be individually applied to leverage image detectors to video applications. We also propose two complete network structures to solve 2D and 3D object detection and tracking on monocular video. Note de contenu : 1- Introduction
2- Video object detection avec la heatmap propagation (propagation de carte de chaleur)
3- Video instance segmentation with instance sequence queries
4- Semi-supervised learning of monocular 3D object detection with 2D video tracking annotations
5- Conclusions and perspectivesNuméro de notice : 24072 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2022 DOI : sans En ligne : https://www.theses.fr/2022ESAE0019 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102136 Multiple cues-based active contours for target contour tracking under sophisticated background / Peng Lv in The Visual Computer, vol 33 n°9 (September 2017)
[article]
Titre : Multiple cues-based active contours for target contour tracking under sophisticated background Type de document : Article/Communication Auteurs : Peng Lv, Auteur ; Qingjie Zhao, Auteur ; Yanming Chen, Auteur ; Liujun Zhao, Auteur Année de publication : 2017 Article en page(s) : pp 1103 - 1119 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] couleur (variable spectrale)
[Termes IGN] détection de contours
[Termes IGN] séquence d'images
[Termes IGN] texture d'image
[Termes IGN] traçage
[Termes IGN] vidéo numériqueRésumé : (auteur) In this paper, we propose a novel target contour tracking method under sophisticated background using the multiple cues-based active contour model. To locate the target position, a contour-based mean-shift tracker is designed which combines both color and texture information. To reduce the adverse impact of sophisticated background and also accelerate the curve motion, we propose a two-layer-based target appearance model that combines both discriminative pre-learned-based global layer and voting-based local layer. The proposed appearance model is able to extract rough target region from the complex background, which provides important target region information for our active contour model. We subsequently introduce a dynamical shape model to provide prior target shape information for more stable segmentation. To obtain accurate target boundaries, we design a new multiple cues-based active contour model which integrates with target edge, discriminative region, and shape information. The experimental results on 30 video sequences demonstrate that the proposed method outperforms other competitive contour tracking methods under various tracking environment. Numéro de notice : A2017-406 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00371-016-1268-2 En ligne : https://doi.org/10.1007/s00371-016-1268-2 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=86286
in The Visual Computer > vol 33 n°9 (September 2017) . - pp 1103 - 1119[article]Cartographie et interprétation de l'environnement par drone / Martial Sanfourche in Revue Française de Photogrammétrie et de Télédétection, n° 213 - 214 (janvier - avril 2017)
[article]
Titre : Cartographie et interprétation de l'environnement par drone Type de document : Article/Communication Auteurs : Martial Sanfourche, Auteur ; Bertrand Le Saux, Auteur ; Aurélien Plyer, Auteur ; Guy Le Besnerais, Auteur Année de publication : 2017 Article en page(s) : pp 55 - 62 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] drone
[Termes IGN] géopositionnement
[Termes IGN] image aérienne
[Termes IGN] information sémantique
[Termes IGN] modélisation géométrique de prise de vue
[Termes IGN] objet mobile
[Termes IGN] sémantisation
[Termes IGN] système de numérisation mobile
[Termes IGN] vidéo numériqueRésumé : (auteur) Nous présentons dans cet article le système de cartographie géométrique et d'interprétation sémantique de l'environnement pour des applications drone développé à l'ONERA/DTIM. Une cartographie précise en 3D de l'environnement survolé par le drone est réalisée au moyen des données vidéo et Lidar acquises en vol. Notre système comprend ensuite un module pour la cartographie sémantique interactive et la détection d'objets génériques dans le modèle global. Enfin nous proposons des fonctionnalités de détection et pistage des objets mobiles et des évènements sur vidéo, qui permettent de localiser les évènements spécifiques sur la carte, et ainsi avoir une vue globale de la situation. Numéro de notice : A2017-047 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Article DOI : 10.52638/rfpt.2017.199 Date de publication en ligne : 26/04/2017 En ligne : https://doi.org/10.52638/rfpt.2017.199 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=84225
in Revue Française de Photogrammétrie et de Télédétection > n° 213 - 214 (janvier - avril 2017) . - pp 55 - 62[article]Deck and cable dynamic testing of a single-span bridge using radar interferometry and videometry measurements / George Piniotis in Journal of applied geodesy, vol 10 n° 1 (March 2016)
[article]
Titre : Deck and cable dynamic testing of a single-span bridge using radar interferometry and videometry measurements Type de document : Article/Communication Auteurs : George Piniotis, Auteur ; Vassilis Gikas, Auteur ; Thanassis Mpimis, Auteur ; Harris Perakis, Auteur Année de publication : 2016 Article en page(s) : pp 87 - 94 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Topographie
[Termes IGN] appariement d'images
[Termes IGN] auscultation d'ouvrage
[Termes IGN] interféromètrie par radar à antenne synthétique
[Termes IGN] pont
[Termes IGN] séquence d'images
[Termes IGN] vibration
[Termes IGN] vidéo numériqueRésumé : (auteur) This paper presents the dynamic testing of a roadway, single-span, cable-stayed bridge for a sequence of static load and ambient vibration monitoring scenarios. Deck movements were captured along both sideways of the bridge using a Digital Image Correlation (DIC) and a Ground-based Microwave Interfererometer (GBMI) system. Cable vibrations were measured at a single point location on each of the six cables using the GBMI technique.
Dynamic testing involves three types of analyses; firstly, vibration analysis and modal parameter estimation (i. e., natural frequencies and modal shapes) of the deck using the combined DIC and GBMI measurements. Secondly, dynamic testing of the cables is performed through vibration analysis and experimental computation of their tension forces. Thirdly, the mechanism of cable-deck dynamic interaction is studied through their Power Spectra Density (PSD) and the Short Time Fourier Transform (STFT) analyses. Thereby, the global (deck and cable) and local (either deck or cable) bridge modes are identified, serving a concrete benchmark of the current state of the bridge for studying the evolution of its structural performance in the future. The level of synergy and complementarity between the GBMI and DIC techniques for bridge monitoring is also examined and assessed.Numéro de notice : A2016-556 Affiliation des auteurs : non IGN Thématique : IMAGERIE/POSITIONNEMENT Nature : Article DOI : 10.1515/jag-2015-0030 En ligne : http://dx.doi.org/10.1515/jag-2015-0030 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=81711
in Journal of applied geodesy > vol 10 n° 1 (March 2016) . - pp 87 - 94[article]Microwave unmixing with video segmentation for inferring broadleaf and needleleaf brightness temperatures and abundances from mixed forest observations / Lingjia Gu in IEEE Transactions on geoscience and remote sensing, vol 54 n° 1 (January 2016)
[article]
Titre : Microwave unmixing with video segmentation for inferring broadleaf and needleleaf brightness temperatures and abundances from mixed forest observations Type de document : Article/Communication Auteurs : Lingjia Gu, Auteur ; Kai Zhao, Auteur ; Bormin Huang, Auteur Année de publication : 2016 Article en page(s) : pp 279 - 286 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] aiguille
[Termes IGN] densité de la végétation
[Termes IGN] feuille (végétation)
[Termes IGN] peuplement forestier
[Termes IGN] peuplement mélangé
[Termes IGN] segmentation d'image
[Termes IGN] traitement d'image
[Termes IGN] vidéo numériqueRésumé : (Auteur) Passive microwave sensors have better capability of penetrating forest layers to obtain more information from forest canopy and ground surface. For forest management, it is useful to study passive microwave signals from forests. Passive microwave sensors can detect signals from needleleaf, broadleaf, and mixed forests. The observed brightness temperature of a mixed forest can be approximated by a linear combination of the needleleaf and broadleaf brightness temperatures weighted by their respective abundances. For a mixed forest observed by an N-band microwave radiometer with horizontal and vertical polarizations, there are 2 N observed brightness temperatures. It is desirable to infer 4 N + 2 unknowns: 2 N broadleaf brightness temperatures, 2 N needleleaf brightness temperatures, 1 broadleaf abundance, and 1 needleleaf abundance. This is a challenging underdetermined problem. In this paper, we devise a novel method that combines microwave unmixing with video segmentation for inferring broadleaf and needleleaf brightness temperatures and abundances from mixed forests. We propose an improved Otsu method for video segmentation to infer broadleaf and needleleaf abundances. The brightness temperatures of needleleaf and broadleaf trees can then be solved by the nonnegative least squares solution. For our mixed forest unmixing problem, it turns out that the ordinary least squares solution yields the desired positive brightness temperatures. The experimental results demonstrate that the proposed method is able to unmix broadleaf and needleleaf brightness temperatures and abundances well. The absolute differences between the reconstructed and observed brightness temperatures of the mixed forest are well within 1 K. Numéro de notice : A2016-069 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2015.2455151 En ligne : http://dx.doi.org/10.1109/TGRS.2015.2455151 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=79831
in IEEE Transactions on geoscience and remote sensing > vol 54 n° 1 (January 2016) . - pp 279 - 286[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 065-2016011 SL Revue Centre de documentation Revues en salle Disponible Spatio-temporal traffic video data archiving and retrieval system / Hang Yue in Geoinformatica, vol 20 n° 1 (January - March 2016)PermalinkLarge-scale geo-tagged video indexing and queries / He Ma in Geoinformatica, vol 18 n° 4 (October 2014)PermalinkThe Bulger case : A spatial story / Les Roberts in Cartographic journal (the), vol 51 n° 2 (May 2014)PermalinkPermalinkCréation de cartes animées en vidéo haute définition / B. Saglio (2011)PermalinkA new standard for analyzing geospatial intelligence, Geo-fused video / W. Smith in Geoinformatics, vol 14 n° 1 (01/01/2011)PermalinkAutomatic detection and tracking of pedestrians from a moving stereo rig / Konrad Schindler in ISPRS Journal of photogrammetry and remote sensing, vol 65 n° 6 (November - December 2010)PermalinkGIS-augmented video surveillance / A. Milosavljevic in International journal of geographical information science IJGIS, vol 24 n° 9 (september 2010)PermalinkThe power of full motion vidéo: fusing with other intelligent data / L. Wood in Geoinformatics, vol 13 n° 2 (01/03/2010)PermalinkTraitement de l'image et de la vidéo / Rachid Belaroussi (2010)Permalink