Descripteur
Documents disponibles dans cette catégorie (106)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Perception de scène par un système multi-capteurs, application à la navigation dans des environnements d'intérieur structuré / Marwa Chakroun (2021)
Titre : Perception de scène par un système multi-capteurs, application à la navigation dans des environnements d'intérieur structuré Type de document : Thèse/HDR Auteurs : Marwa Chakroun, Auteur ; Basel Solaiman, Directeur de thèse Editeur : Institut Mines-Télécom Atlantique IMT Atlantique Année de publication : 2021 Importance : 194 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Ecole Nationale Supérieure des Mines-Telecom Atlantique Bretagne Pays de la Loire, Spécialité : Signal, Image, VisionLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse de scène 3D
[Termes IGN] analyse discriminante
[Termes IGN] attribut
[Termes IGN] classification par Perceptron multicouche
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] détection d'objet
[Termes IGN] données multicapteurs
[Termes IGN] données multisources
[Termes IGN] image panoramique
[Termes IGN] personne non-voyante
[Termes IGN] recalage de données localisées
[Termes IGN] saillance
[Termes IGN] scène intérieure
[Termes IGN] théorie des possibilitésIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Cette thèse s’inscrit dans le cadre de la navigation perceptuelle. Notre objectif est d’étudier et de concevoir un système d’interprétation d’une scène d’environnement intérieur, observée par un système multi-capteurs réunissant un capteur ultrason et une caméra RVB. Le système proposé peut être employé pour équiper un dispositif intelligent d’assistance aux non voyants, ou encore un robot opérant dans des espaces meublés. Dans un système d’interprétation de scène, les acquisitions faites par les capteurs, présentent des restrictions du monde réel et se trouvent affectées d’imperfections, qu’il convient de prendre en compte au lieu de les ignorer. Leur prise en compte dans notre système d’interprétation a été effectuée par l’emploi de la théorie des possibilités lors de la modélisation des données acquises. Les modèles adoptés sont des distributions de possibilités. L’analyse et l’interprétation de la scène acquise s’est en suite basée sur ces connaissances possibilistes. Le système d’aide à la navigation proposé dans ce travail, présente une description de la scène environnante selon un modèle simpliste, partageant le champ intercepté par les capteurs en trois zones majeures, à savoir : face, gauche et droite. Il fournit à l’utilisateur des informations concernant la distance qui le sépare des objets détectés, la rigidité matérielle de ces objets, ainsi que leur positionnement dans la scène (objet à gauche, objet en face, objet à droite). Les performances du système d’interprétation proposé sont évaluées en utilisant le prototype "NA_System", développé par l’équipe "Cybernics team" du laboratoire "CEM_Lab" de l’École nationale d’ingénieurs de Sfax (ENIS). Les résultats obtenus sont encourageants et montrent l’efficacité de la théorie des possibilités comme cadre de représentation de données acquises de différents capteurs. La stratégie d’interprétation de scène proposée s’est montrée efficace pour intégrer les informations issues de multiples sources de connaissances. Dans la chaine de traitement de données adoptées pour l’analyse et l’interprétation de la scène, de nouvelles approches ont été proposées, notamment pour la sélection d’attributs, la détection d’objets saillants, la classification, la fusion et le recalage de données issues de deux sources. Note de contenu : 1- Cadre applicatif et théorique de l’étude
2- Développement d’outils de traitement possibilistes des données acquises pour la conception du système de navigation
3- Interprétation de scène basée sur un capteur ultrason
4- Interprétation de scène basée sur une caméra monoculaire RVB
5-Perception de scène par un système multi-capteurs, application à l’aide de navigation des déficitaires visuels
6- Conclusions et perspectivesNuméro de notice : 28687 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Signal, Image, Vision : Ecole nationale supérieure Mines-Télécom Atlantique : 2021 Organisme de stage : ITI - CEM Lab DOI : sans En ligne : https://hal.science/tel-03519333 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100052 A graph convolutional network model for evaluating potential congestion spots based on local urban built environments / Kun Qin in Transactions in GIS, Vol 24 n° 5 (October 2020)
[article]
Titre : A graph convolutional network model for evaluating potential congestion spots based on local urban built environments Type de document : Article/Communication Auteurs : Kun Qin, Auteur ; Yuanquan Xu, Auteur ; Chaogui Kang, Auteur ; Mei-Po Kwan, Auteur Année de publication : 2020 Article en page(s) : pp 1382-1401 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Analyse spatiale
[Termes IGN] analyse spatio-temporelle
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection du bâti
[Termes IGN] données GPS
[Termes IGN] graphe
[Termes IGN] image Streetview
[Termes IGN] planification urbaine
[Termes IGN] point d'intérêt
[Termes IGN] taxi
[Termes IGN] trafic routier
[Termes IGN] Wuhan (Chine)
[Termes IGN] zone urbaine denseRésumé : (Auteur) Automatically identifying potential congestion spots in cities has significant practical implications for efficient urban development and management. It requires the ability to examine the relationships between urban built environment features and traffic congestion situations. This article presents a novel and effective approach for achieving the task based on a machine‐learning technique and publicly available street‐view imagery and point‐of‐interest (POI) data. The proposed multiple‐graph‐based convolutional network architecture can: (a) extract essential urban built environment features from street‐view imagery and neighboring POIs; (b) model the spatial dependencies between traffic congestion on road networks via graph convolution; and (c) evaluate the risk level of road intersections to emerging congestion situations based on local built environment features. We apply the model to Wuhan in China, and predict the potential congestion spots across the city. The results confirm that the model prediction is highly consistent (about 85.5%) when compared to the ground‐truth data based on traffic indices derived from a big taxi GPS trajectory dataset. This research enhances the understanding of traffic congestion situations under various geographic, societal, and economic contexts based on easily accessible road, street‐view, and POI datasets at large spatiotemporal scales. Numéro de notice : A2020-702 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/tgis.12641 Date de publication en ligne : 04/06/2020 En ligne : https://doi.org/10.1111/tgis.12641 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96225
in Transactions in GIS > Vol 24 n° 5 (October 2020) . - pp 1382-1401[article]Local color and morphological image feature based vegetation identification and its application to human environment street view vegetation mapping, or how green is our county? / Istvan G. Lauko in Geo-spatial Information Science, vol 23 n° 3 (September 2020)
[article]
Titre : Local color and morphological image feature based vegetation identification and its application to human environment street view vegetation mapping, or how green is our county? Type de document : Article/Communication Auteurs : Istvan G. Lauko, Auteur ; Adam Honts, Auteur ; Jacob Beihoff, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 222 - 236 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] carte de la végétation
[Termes IGN] cartographie urbaine
[Termes IGN] couleur (variable spectrale)
[Termes IGN] densité de la végétation
[Termes IGN] extraction de la végétation
[Termes IGN] gestion urbaine
[Termes IGN] image panoramique
[Termes IGN] image Streetview
[Termes IGN] indicateur environnemental
[Termes IGN] indice de végétation
[Termes IGN] Milwaukee
[Termes IGN] paysage urbain
[Termes IGN] rayonnement proche infrarougeRésumé : (auteur) Measuring the amount of vegetation in a given area on a large scale has long been accomplished using satellite and aerial imaging systems. These methods have been very reliable in measuring vegetation coverage accurately at the top of the canopy, but their capabilities are limited when it comes to identifying green vegetation located beneath the canopy cover. Measuring the amount of urban and suburban vegetation along a street network that is partially beneath the canopy has recently been introduced with the use of Google Street View (GSV) images, made accessible by the Google Street View Image API. Analyzing green vegetation through the use of GSV images can provide a comprehensive representation of the amount of green vegetation found within geographical regions of higher population density, and it facilitates an analysis performed at the street-level. In this paper we propose a fine-tuned color based image filtering and segmentation technique and we use it to define and map an urban green environment index. We deployed this image processing method and, using GSV images as a high-resolution GIS data source, we computed and mapped the green index of Milwaukee County, a 3,082 km2 urban/suburban county in Wisconsin. This approach generates a high-resolution street-level vegetation estimate that may prove valuable in urban planning and management, as well as for researchers investigating the correlation between environmental factors and human health outcomes. Numéro de notice : A2020-563 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10095020.2020.1805367 Date de publication en ligne : 24/08/2020 En ligne : https://doi.org/10.1080/10095020.2020.1805367 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95880
in Geo-spatial Information Science > vol 23 n° 3 (September 2020) . - pp 222 - 236[article]Leveraging photogrammetric mesh models for aerial-ground feature point matching toward integrated 3D reconstruction / Qing Zhu in ISPRS Journal of photogrammetry and remote sensing, vol 166 (August 2020)
[article]
Titre : Leveraging photogrammetric mesh models for aerial-ground feature point matching toward integrated 3D reconstruction Type de document : Article/Communication Auteurs : Qing Zhu, Auteur ; Zhendong Wang, Auteur ; Han Hu, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 26 - 40 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] appariement d'images
[Termes IGN] appariement de points
[Termes IGN] éclairage
[Termes IGN] image aérienne
[Termes IGN] image terrestre
[Termes IGN] maillage
[Termes IGN] milieu urbain
[Termes IGN] modèle stéréoscopique
[Termes IGN] séparateur à vaste marge
[Termes IGN] valeur aberranteRésumé : (auteur) Integration of aerial and ground images has been proved as an efficient approach to enhance the surface reconstruction in urban environments. However, as the first step, the feature point matching between aerial and ground images is remarkably difficult, due to the large differences in viewpoint and illumination conditions. Previous studies based on geometry-aware image rectification have alleviated this problem, but the performance and convenience of this strategy are still limited by several flaws, e.g. quadratic image pairs, segregated extraction of descriptors and occlusions. To address these problems, we propose a novel approach: leveraging photogrammetric mesh models for aerial-ground image matching. The methods have linear time complexity with regard to the number of images. It explicitly handles low overlap using multi-view images. The proposed methods can be directly injected into off-the-shelf structure-from-motion (SFM) and multi-view stereo (MVS) solutions. First, aerial and ground images are reconstructed separately and initially co-registered through weak georeferencing data. Second, aerial models are rendered to the initial ground views, in which color, depth and normal images are obtained. Then, feature matching between synthesized and ground images are conducted through descriptor searching and geometry-constrained outlier removal. Finally, oriented 3D patches are formulated using the synthesized depth and normal images and the correspondences are propagated to the aerial views through patch-based matching. Experimental evaluations using five datasets reveal satisfactory performance of the proposed methods in aerial-ground image matching, which succeeds in all of the ten challenging pairs compared to only three for the second best. In addition, incorporation of existing SFM and MVS solutions enables more complete reconstruction results, with better internal stability. Numéro de notice : A2020-351 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2020.05.024 Date de publication en ligne : 10/06/2020 En ligne : https://doi.org/10.1016/j.isprsjprs.2020.05.024 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95234
in ISPRS Journal of photogrammetry and remote sensing > vol 166 (August 2020) . - pp 26 - 40[article]Exemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2020081 RAB Revue Centre de documentation En réserve L003 Disponible 081-2020083 DEP-RECP Revue LASTIG Dépôt en unité Exclu du prêt 081-2020082 DEP-RECF Revue Nancy Dépôt en unité Exclu du prêt Fine-grained landuse characterization using ground-based pictures: a deep learning solution based on globally available data / Shivangi Srivastava in International journal of geographical information science IJGIS, vol 34 n° 6 (June 2020)
[article]
Titre : Fine-grained landuse characterization using ground-based pictures: a deep learning solution based on globally available data Type de document : Article/Communication Auteurs : Shivangi Srivastava, Auteur ; John E. Vargas-Muñoz, Auteur ; Sylvain Lobry, Auteur ; Devis Tuia, Auteur Année de publication : 2020 Article en page(s) : pp 1117 - 1136 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Analyse spatiale
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] base de données urbaines
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] données localisées des bénévoles
[Termes IGN] données localisées libres
[Termes IGN] Ile-de-France
[Termes IGN] image Streetview
[Termes IGN] image terrestre
[Termes IGN] information géographique
[Termes IGN] méthode heuristique
[Termes IGN] OpenStreetMap
[Termes IGN] réseau socialRésumé : (auteur) We study the problem of landuse characterization at the urban-object level using deep learning algorithms. Traditionally, this task is performed by surveys or manual photo interpretation, which are expensive and difficult to update regularly. We seek to characterize usages at the single object level and to differentiate classes such as educational institutes, hospitals and religious places by visual cues contained in side-view pictures from Google Street View (GSV). These pictures provide geo-referenced information not only about the material composition of the objects but also about their actual usage, which otherwise is difficult to capture using other classical sources of data such as aerial imagery. Since the GSV database is regularly updated, this allows to consequently update the landuse maps, at lower costs than those of authoritative surveys. Because every urban-object is imaged from a number of viewpoints with street-level pictures, we propose a deep-learning based architecture that accepts arbitrary number of GSV pictures to predict the fine-grained landuse classes at the object level. These classes are taken from OpenStreetMap. A quantitative evaluation of the area of Île-de-France, France shows that our model outperforms other deep learning-based methods, making it a suitable alternative to manual landuse characterization. Numéro de notice : A2020-269 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/13658816.2018.1542698 Date de publication en ligne : 18/11/2018 En ligne : https://doi.org/10.1080/13658816.2018.1542698 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95041
in International journal of geographical information science IJGIS > vol 34 n° 6 (June 2020) . - pp 1117 - 1136[article]Geocoding of trees from street addresses and street-level images / Daniel Laumer in ISPRS Journal of photogrammetry and remote sensing, vol 162 (April 2020)PermalinkStreet-Frontage-Net: urban image classification using deep convolutional neural networks / Stephen Law in International journal of geographical information science IJGIS, vol 34 n° 4 (April 2020)PermalinkCartographie sémantique hybride de scènes urbaines à partir de données image et Lidar / Mohamed Boussaha (2020)PermalinkPermalinkSemiautomatically register MMS LiDAR points and panoramic image sequence using road lamp and lane / Ningning Zhu in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 11 (November 2019)PermalinkDetecting and mapping traffic signs from Google Street View images using deep learning and GIS / Andrew Campbell in Computers, Environment and Urban Systems, vol 77 (september 2019)PermalinkThe utility of terrestrial photogrammetry for assessment of tree volume and taper in boreal mixedwood forests / Christopher Mulverhill in Annals of Forest Science, Vol 76 n° 3 (September 2019)PermalinkAutomatisation du traitement de données "mobile mapping" : extraction d'éléments linéaires et ponctuels / Loïc Elsholz in XYZ, n° 159 (juin 2019)PermalinkCo‐registration of panoramic mobile mapping images and oblique aerial images / Phillipp Jende in Photogrammetric record, vol 34 n° 166 (June 2019)PermalinkDeep mapping gentrification in a large Canadian city using deep learning and Google Street View / Lazar Ilic in Plos one, vol 14 n° 3 (March 2019)Permalink