Descripteur
Documents disponibles dans cette catégorie (29)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Réalisation de tutoriels à destination des partenaires et utilisateurs de l’espace collaboratif de l’IGN - Proposition d’évolution du modèle de la BDUni sur le thème des transports en commun / Cécile Tardy (2023)
Titre : Réalisation de tutoriels à destination des partenaires et utilisateurs de l’espace collaboratif de l’IGN - Proposition d’évolution du modèle de la BDUni sur le thème des transports en commun Type de document : Mémoire Auteurs : Cécile Tardy, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2023 Importance : 63 p. Format : 21 x 30 cm Note générale : bibliographie
Rapport de stage de la Licence Pro 2 Géomètre - GéomaticienLangues : Français (fre) Descripteur : [Termes IGN] base de données
[Termes IGN] espace partagé de travail en ligne
[Termes IGN] Institut national de l'information géographique et forestière (France)
[Termes IGN] urbanisme
[Termes IGN] vidéoIndex. décimale : LPGE Mémoires de Licence professionnelle géomatique et environnement Résumé : Ce stage s’est déroulé au sein de la Direction Territoriale Centre-Est, dirigée par Stéphane CANALIS.
Deux sujets m’ont été proposés. Bien qu’assez différents, ils entrent tous les deux dans le contexte de l’ouverture des données de l’IGN vers l’extérieur avec le souci de favoriser le partenariat pour leur mise à jour.
Un premier sujet proposé par Sébastien BUSSE, ingénieur référent stratégie collaborative, consiste à réaliser des tutoriels vidéo à destination des utilisateurs et contributeurs de l’Espace Collaboratif de l’IGN. Cet espace est un espace ouvert au public et aux partenaires pour la consultation des données, mais aussi plus récemment pour la collecte et la mise à jour des données par les utilisateurs. De nouvelles fonctions sont ainsi régulièrement mises en place pour faciliter le partenariat. Il est donc important de présenter le potentiel de l’Espace collaboratif lors des rencontres entre l’IGN et ses partenaires (Conseils Départementaux, Services Départementaux d’Incendie et de Secours, etc…).
Les tutoriels ont pour but de présenter l’interface, les différents modes de collecte des données, les outils de saisie mais aussi la gestion des groupes de contributeurs et certains paramétrages proposés pour adapter l’interface et les outils aux « besoins métier ». Pour réaliser ces tutoriels, il était nécessaire de se familiariser avec l’espace collaboratif et son potentiel pour les présenter de manière claire et concise. Il a fallu aussi prendre en main les logiciels de capture vidéo et son, ainsi que des logiciels de montage. Le travail réalisé propose 6 vidéos montées et sous-titrées qui ont été jugées satisfaisantes et utiles par les personnes en charge du collaboratif.
Un deuxième sujet de travail a été proposé par Marie CHALMEL, ingénieure d’étude référente chargée de produit BDUni. Il consiste en une recherche sur les données externes concernant les arrêts de bus (hors temps réel et hors lignes de desserte), pour proposer des préconisations d’évolution du modèle de la BDUni sur le thème des aménagements liés aux transports en commun.
Ce travail a consisté dans un premier temps en une recherche sur les formats et les contenus des données existant à l’extérieur. Les deux principaux formats de données sont le format GTFS, le plus largement utilisé, et le format NetEx, imposé par les directives européennes. Les champs existants et leur contenu ont été listés. Nous nous sommes intéressés plus particulièrement aux informations obligatoires et à celles qui étaient le plus fréquemment renseignées. Le travail réalisé apporte des propositions de redéfinition de certains termes présents dans la BDUni. Il paraît nécessaire en effet de mettre en cohérence les termes utilisés pour les autres moyens de transport avec les nouveaux champs proposés concernant les arrêts de bus. Il est proposé également d’intégrer certaines données d’accessibilité pour les personnes à mobilité réduite, rendues obligatoires par les directives européennes et le code des transports.Note de contenu : 1. Avant-propos: présentation de la Direction Territoriale Centre-Est
2. Introduction
3. Réalisation de tutoriels pour l'utilisation de l'Espace Collaboratif de l'IGN
4. Évolution du modèle de la BDUni sur le thème des aménagements liés aux transports en commun
5. ConclusionNuméro de notice : 24199 Affiliation des auteurs : IGN (2020- ) Thématique : URBANISME Nature : Mémoire de fin d'études IT Organisme de stage : IGN - Direction Territoriale Centre-Est (Lyon) Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103772 Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles / Zhujun Xu (2022)
Titre : Deep learning based 2D and 3D object detection and tracking on monocular video in the context of autonomous vehicles Type de document : Thèse/HDR Auteurs : Zhujun Xu, Auteur ; Eric Chaumette, Directeur de thèse ; Damien Vivet, Directeur de thèse Editeur : Toulouse : Université de Toulouse Année de publication : 2022 Importance : 136 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, spécialité Informatique et TélécommunicationsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] architecture de réseau
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage de données
[Termes IGN] objet 3D
[Termes IGN] segmentation d'image
[Termes IGN] véhicule automobile
[Termes IGN] vidéo
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The objective of this thesis is to develop deep learning based 2D and 3D object detection and tracking methods on monocular video and apply them to the context of autonomous vehicles. Actually, when directly using still image detectors to process a video stream, the accuracy suffers from sampled image quality problems. Moreover, generating 3D annotations is time-consuming and expensive due to the data fusion and large numbers of frames. We therefore take advantage of the temporal information in videos such as the object consistency, to improve the performance. The methods should not introduce too much extra computational burden, since the autonomous vehicle demands a real-time performance.Multiple methods can be involved in different steps, for example, data preparation, network architecture and post-processing. First, we propose a post-processing method called heatmap propagation based on a one-stage detector CenterNet for video object detection. Our method propagates the previous reliable long-term detection in the form of heatmap to the upcoming frame. Then, to distinguish different objects of the same class, we propose a frame-to-frame network architecture for video instance segmentation by using the instance sequence queries. The tracking of instances is achieved without extra post-processing for data association. Finally, we propose a semi-supervised learning method to generate 3D annotations for 2D video object tracking dataset. This helps to enrich the training process for 3D object detection. Each of the three methods can be individually applied to leverage image detectors to video applications. We also propose two complete network structures to solve 2D and 3D object detection and tracking on monocular video. Note de contenu : 1- Introduction
2- Video object detection avec la heatmap propagation (propagation de carte de chaleur)
3- Video instance segmentation with instance sequence queries
4- Semi-supervised learning of monocular 3D object detection with 2D video tracking annotations
5- Conclusions and perspectivesNuméro de notice : 24072 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique et Télécommunications : Toulouse : 2022 DOI : sans En ligne : https://www.theses.fr/2022ESAE0019 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102136 Multiple cues-based active contours for target contour tracking under sophisticated background / Peng Lv in The Visual Computer, vol 33 n°9 (September 2017)
[article]
Titre : Multiple cues-based active contours for target contour tracking under sophisticated background Type de document : Article/Communication Auteurs : Peng Lv, Auteur ; Qingjie Zhao, Auteur ; Yanming Chen, Auteur ; Liujun Zhao, Auteur Année de publication : 2017 Article en page(s) : pp 1103 - 1119 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] couleur (variable spectrale)
[Termes IGN] détection de contours
[Termes IGN] séquence d'images
[Termes IGN] texture d'image
[Termes IGN] traçage
[Termes IGN] vidéo numériqueRésumé : (auteur) In this paper, we propose a novel target contour tracking method under sophisticated background using the multiple cues-based active contour model. To locate the target position, a contour-based mean-shift tracker is designed which combines both color and texture information. To reduce the adverse impact of sophisticated background and also accelerate the curve motion, we propose a two-layer-based target appearance model that combines both discriminative pre-learned-based global layer and voting-based local layer. The proposed appearance model is able to extract rough target region from the complex background, which provides important target region information for our active contour model. We subsequently introduce a dynamical shape model to provide prior target shape information for more stable segmentation. To obtain accurate target boundaries, we design a new multiple cues-based active contour model which integrates with target edge, discriminative region, and shape information. The experimental results on 30 video sequences demonstrate that the proposed method outperforms other competitive contour tracking methods under various tracking environment. Numéro de notice : A2017-406 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s00371-016-1268-2 En ligne : https://doi.org/10.1007/s00371-016-1268-2 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=86286
in The Visual Computer > vol 33 n°9 (September 2017) . - pp 1103 - 1119[article]Cartographie et interprétation de l'environnement par drone / Martial Sanfourche in Revue Française de Photogrammétrie et de Télédétection, n° 213 - 214 (janvier - avril 2017)
[article]
Titre : Cartographie et interprétation de l'environnement par drone Type de document : Article/Communication Auteurs : Martial Sanfourche, Auteur ; Bertrand Le Saux, Auteur ; Aurélien Plyer, Auteur ; Guy Le Besnerais, Auteur Année de publication : 2017 Article en page(s) : pp 55 - 62 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] drone
[Termes IGN] géopositionnement
[Termes IGN] image aérienne
[Termes IGN] information sémantique
[Termes IGN] modélisation géométrique de prise de vue
[Termes IGN] objet mobile
[Termes IGN] sémantisation
[Termes IGN] système de numérisation mobile
[Termes IGN] vidéo numériqueRésumé : (auteur) Nous présentons dans cet article le système de cartographie géométrique et d'interprétation sémantique de l'environnement pour des applications drone développé à l'ONERA/DTIM. Une cartographie précise en 3D de l'environnement survolé par le drone est réalisée au moyen des données vidéo et Lidar acquises en vol. Notre système comprend ensuite un module pour la cartographie sémantique interactive et la détection d'objets génériques dans le modèle global. Enfin nous proposons des fonctionnalités de détection et pistage des objets mobiles et des évènements sur vidéo, qui permettent de localiser les évènements spécifiques sur la carte, et ainsi avoir une vue globale de la situation. Numéro de notice : A2017-047 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Article DOI : 10.52638/rfpt.2017.199 Date de publication en ligne : 26/04/2017 En ligne : https://doi.org/10.52638/rfpt.2017.199 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=84225
in Revue Française de Photogrammétrie et de Télédétection > n° 213 - 214 (janvier - avril 2017) . - pp 55 - 62[article]Deck and cable dynamic testing of a single-span bridge using radar interferometry and videometry measurements / George Piniotis in Journal of applied geodesy, vol 10 n° 1 (March 2016)
[article]
Titre : Deck and cable dynamic testing of a single-span bridge using radar interferometry and videometry measurements Type de document : Article/Communication Auteurs : George Piniotis, Auteur ; Vassilis Gikas, Auteur ; Thanassis Mpimis, Auteur ; Harris Perakis, Auteur Année de publication : 2016 Article en page(s) : pp 87 - 94 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Topographie
[Termes IGN] appariement d'images
[Termes IGN] auscultation d'ouvrage
[Termes IGN] interféromètrie par radar à antenne synthétique
[Termes IGN] pont
[Termes IGN] séquence d'images
[Termes IGN] vibration
[Termes IGN] vidéo numériqueRésumé : (auteur) This paper presents the dynamic testing of a roadway, single-span, cable-stayed bridge for a sequence of static load and ambient vibration monitoring scenarios. Deck movements were captured along both sideways of the bridge using a Digital Image Correlation (DIC) and a Ground-based Microwave Interfererometer (GBMI) system. Cable vibrations were measured at a single point location on each of the six cables using the GBMI technique.
Dynamic testing involves three types of analyses; firstly, vibration analysis and modal parameter estimation (i. e., natural frequencies and modal shapes) of the deck using the combined DIC and GBMI measurements. Secondly, dynamic testing of the cables is performed through vibration analysis and experimental computation of their tension forces. Thirdly, the mechanism of cable-deck dynamic interaction is studied through their Power Spectra Density (PSD) and the Short Time Fourier Transform (STFT) analyses. Thereby, the global (deck and cable) and local (either deck or cable) bridge modes are identified, serving a concrete benchmark of the current state of the bridge for studying the evolution of its structural performance in the future. The level of synergy and complementarity between the GBMI and DIC techniques for bridge monitoring is also examined and assessed.Numéro de notice : A2016-556 Affiliation des auteurs : non IGN Thématique : IMAGERIE/POSITIONNEMENT Nature : Article DOI : 10.1515/jag-2015-0030 En ligne : http://dx.doi.org/10.1515/jag-2015-0030 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=81711
in Journal of applied geodesy > vol 10 n° 1 (March 2016) . - pp 87 - 94[article]Microwave unmixing with video segmentation for inferring broadleaf and needleleaf brightness temperatures and abundances from mixed forest observations / Lingjia Gu in IEEE Transactions on geoscience and remote sensing, vol 54 n° 1 (January 2016)PermalinkSpatio-temporal traffic video data archiving and retrieval system / Hang Yue in Geoinformatica, vol 20 n° 1 (January - March 2016)PermalinkLarge-scale geo-tagged video indexing and queries / He Ma in Geoinformatica, vol 18 n° 4 (October 2014)PermalinkThe Bulger case : A spatial story / Les Roberts in Cartographic journal (the), vol 51 n° 2 (May 2014)PermalinkPermalinkCréation de cartes animées en vidéo haute définition / B. Saglio (2011)PermalinkA new standard for analyzing geospatial intelligence, Geo-fused video / W. Smith in Geoinformatics, vol 14 n° 1 (01/01/2011)PermalinkAutomatic detection and tracking of pedestrians from a moving stereo rig / Konrad Schindler in ISPRS Journal of photogrammetry and remote sensing, vol 65 n° 6 (November - December 2010)PermalinkGIS-augmented video surveillance / A. Milosavljevic in International journal of geographical information science IJGIS, vol 24 n° 9 (september 2010)PermalinkThe power of full motion vidéo: fusing with other intelligent data / L. Wood in Geoinformatics, vol 13 n° 2 (01/03/2010)Permalink