Descripteur



Etendre la recherche sur niveau(x) vers le bas
Local color and morphological image feature based vegetation identification and its application to human environment street view vegetation mapping, or how green is our county? / Istvan G. Lauko in Geo-spatial Information Science, vol 23 n° 3 (September 2020)
![]()
[article]
Titre : Local color and morphological image feature based vegetation identification and its application to human environment street view vegetation mapping, or how green is our county? Type de document : Article/Communication Auteurs : Istvan G. Lauko, Auteur ; Adam Honts, Auteur ; Jacob Beihoff, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 222 - 236 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes descripteurs IGN] carte de la végétation
[Termes descripteurs IGN] cartographie urbaine
[Termes descripteurs IGN] couleur (variable spectrale)
[Termes descripteurs IGN] densité de la végétation
[Termes descripteurs IGN] extraction de la végétation
[Termes descripteurs IGN] gestion urbaine
[Termes descripteurs IGN] image panoramique
[Termes descripteurs IGN] image Streetview
[Termes descripteurs IGN] indicateur environnemental
[Termes descripteurs IGN] indice de végétation
[Termes descripteurs IGN] Milwaukee
[Termes descripteurs IGN] paysage urbain
[Termes descripteurs IGN] rayonnement proche infrarougeRésumé : (auteur) Measuring the amount of vegetation in a given area on a large scale has long been accomplished using satellite and aerial imaging systems. These methods have been very reliable in measuring vegetation coverage accurately at the top of the canopy, but their capabilities are limited when it comes to identifying green vegetation located beneath the canopy cover. Measuring the amount of urban and suburban vegetation along a street network that is partially beneath the canopy has recently been introduced with the use of Google Street View (GSV) images, made accessible by the Google Street View Image API. Analyzing green vegetation through the use of GSV images can provide a comprehensive representation of the amount of green vegetation found within geographical regions of higher population density, and it facilitates an analysis performed at the street-level. In this paper we propose a fine-tuned color based image filtering and segmentation technique and we use it to define and map an urban green environment index. We deployed this image processing method and, using GSV images as a high-resolution GIS data source, we computed and mapped the green index of Milwaukee County, a 3,082 km2 urban/suburban county in Wisconsin. This approach generates a high-resolution street-level vegetation estimate that may prove valuable in urban planning and management, as well as for researchers investigating the correlation between environmental factors and human health outcomes. Numéro de notice : A2020-563 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10095020.2020.1805367 date de publication en ligne : 24/08/2020 En ligne : https://doi.org/10.1080/10095020.2020.1805367 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95880
in Geo-spatial Information Science > vol 23 n° 3 (September 2020) . - pp 222 - 236[article]Geocoding of trees from street addresses and street-level images / Daniel Laumer in ISPRS Journal of photogrammetry and remote sensing, vol 162 (April 2020)
![]()
[article]
Titre : Geocoding of trees from street addresses and street-level images Type de document : Article/Communication Auteurs : Daniel Laumer, Auteur ; Nico Lang, Auteur ; Natalie Van Doorn, Auteur Année de publication : 2020 Article en page(s) : pp 125 - 136 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes descripteurs IGN] analyse des correspondances
[Termes descripteurs IGN] apprentissage profond
[Termes descripteurs IGN] arbre urbain
[Termes descripteurs IGN] Californie (Etats-Unis)
[Termes descripteurs IGN] classification par réseau neuronal convolutif
[Termes descripteurs IGN] détection d'arbres
[Termes descripteurs IGN] détection d'objet
[Termes descripteurs IGN] géocodage par adresse postale
[Termes descripteurs IGN] image panoramique
[Termes descripteurs IGN] image Streetview
[Termes descripteurs IGN] inventaire
[Termes descripteurs IGN] service écosystémique
[Termes descripteurs IGN] zone urbaineRésumé : (auteur) We introduce an approach for updating older tree inventories with geographic coordinates using street-level panorama images and a global optimization framework for tree instance matching. Geolocations of trees in inventories until the early 2000s where recorded using street addresses whereas newer inventories use GPS. Our method retrofits older inventories with geographic coordinates to allow connecting them with newer inventories to facilitate long-term studies on tree mortality etc. What makes this problem challenging is the different number of trees per street address, the heterogeneous appearance of different tree instances in the images, ambiguous tree positions if viewed from multiple images and occlusions. To solve this assignment problem, we (i) detect trees in Google street-view panoramas using deep learning, (ii) combine multi-view detections per tree into a single representation, (iii) and match detected trees with given trees per street address with a global optimization approach. Experiments for trees in 5 cities in California, USA, show that we are able to assign geographic coordinates to 38% of the street trees, which is a good starting point for long-term studies on the ecosystem services value of street trees at large scale. Numéro de notice : A2020-124 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2020.02.001 date de publication en ligne : 21/02/2020 En ligne : https://doi.org/10.1016/j.isprsjprs.2020.02.001 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94749
in ISPRS Journal of photogrammetry and remote sensing > vol 162 (April 2020) . - pp 125 - 136[article]
Titre : Mise en place d’une visionneuse de photographies immersives dans QGIS Type de document : Mémoire Auteurs : Thibault Petiet, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2020 Importance : 45 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet pluridisciplinaire, cycle ING2Langues : Français (fre) Descripteur : [Termes descripteurs IGN] acquisition d'images
[Termes descripteurs IGN] analyse des besoins
[Termes descripteurs IGN] chambre panoramique
[Termes descripteurs IGN] image panoramique
[Termes descripteurs IGN] Lyon
[Termes descripteurs IGN] plan corps de rue simplifié
[Termes descripteurs IGN] Python (langage de programmation)
[Termes descripteurs IGN] QGIS
[Termes descripteurs IGN] système d'information géographique
[Termes descripteurs IGN] visualisation de données
[Termes descripteurs IGN] vue immersive
[Vedettes matières IGN] GéovisualisationIndex. décimale : PROJET Rapports de projet - stage des ingénieurs de 2e année Résumé : (Auteur) Immergis est un bureau d’étude au service des gestionnaires de voiries et de réseaux de transports et d’énergies. Immergis a reçu la mission, par la métropole de Lyon, de participer à la réalisation de leur Plan de Corps de Rue Simplifié (PCRS). Il s’agit d’un plan unique structuré et normalisé représentant l’espace public. Il comporte majoritairement la voirie et les affleurants (plaques d’égouts, télécommunications, bouches à clés). Afin d’acquérir ces données, Immergis a à sa disposition un véhicule, muni d’une caméra prenant des photographies en 360°. Ils visualisent ensuite ces images afin d’ajouter les affleurants et la voirie via le logiciel QGIS. L’objectif de mon stage était donc de créer un outil capable de visualiser les images 360° via ce logiciel, à la manière de Street View sur Google Maps. L’outil développé permet donc, à partir d’une couche de points, de visualiser les images. Sur la carte de QGIS, l’indication de la position de l’image et de la direction de la vue permet de mieux localiser les objets dans l’image. Des boutons à l’intérieur de l’image permettent de naviguer d’une image à une autre et la couleur permet de distinguer les jours de relevés. Le plugin permet aussi de visionner des images normales et de télécharger l’image. A terme, cet outil sera utilisé dans une grande majorité des projets d’Immergis, incluant la visualisation d’images mais il a aussi vocation à être repris dans le cadre du développement d’un logiciel pour la gestion de voirie. Note de contenu :
Introduction
1. Contexte du stage
1.1 L’entreprise
1.2 Le PCRS
1.3 Étude du besoin
2. Étude de l’existant
2.1 Google Street View
2.2 Marzipano
2.3 PanoViewer
2.4 Equirectangular Viewer
3. Technique
3.1 Corrections et compréhension du code
3.2 Déroulement de l’utilisation
3.3 Améliorations effectuées, choix et difficultés rencontrées
3.4 Architecture du plugin
4. Perspectives
4.1 Améliorer le plugin en lui-même
4.2 Création d’une API et un outil Web
ConclusionNuméro de notice : 26386 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : IMMERGIS Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96002 Documents numériques
peut être téléchargé
Mise en place d’une visionneuse de photographies immersives dans QGIS - pdf auteurAdobe Acrobat PDFSemiautomatically register MMS LiDAR points and panoramic image sequence using road lamp and lane / Ningning Zhu in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 11 (November 2019)
![]()
[article]
Titre : Semiautomatically register MMS LiDAR points and panoramic image sequence using road lamp and lane Type de document : Article/Communication Auteurs : Ningning Zhu, Auteur ; Yonghong Jia, Auteur ; Xia Huang, Auteur Année de publication : 2019 Article en page(s) : pp 829 - 840 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes descripteurs IGN] appariement de points
[Termes descripteurs IGN] données lidar
[Termes descripteurs IGN] données localisées 3D
[Termes descripteurs IGN] éclairage public
[Termes descripteurs IGN] extraction de points
[Termes descripteurs IGN] image panoramique
[Termes descripteurs IGN] mobilier urbain
[Termes descripteurs IGN] semis de points
[Termes descripteurs IGN] séquence d'images
[Termes descripteurs IGN] transformation linéaire directeRésumé : (Auteur) We propose using the feature points of road lamp and lane to register mobile mapping system (MMS) LiDAR points and panoramic image sequence. Road lamp and lane are the common objects on roads; the spatial distributions are regular, and thus our registration method has wide applicability and high precision. First, the road lamp and lane were extracted from the LiDAR points by horizontal grid and reflectance intensity and then by optimizing the endpoints as the feature points of road lamp and lane. Second, the feature points were projected onto the panoramic image by initial parameters and then by extracting corresponding feature points near the projection location. Third, the direct linear transformation method was used to solve the registration model and eliminate mismatching feature points. In the experiments, we compare the accuracy of our registration method with other registration methods by a sequence of panoramic images. The results show that our registration method is effective; the registration accuracy of our method is less than 10 pixels and averaged 5.84 pixels in all 31 panoramic images (4000 × 8000 pixels), which is much less than that of the 56.24 pixels obtained by the original registration method. Numéro de notice : A2019-525 Affiliation des auteurs : non IGN Thématique : IMAGERIE/POSITIONNEMENT Nature : Article DOI : 10.14358/PERS.85.11.829 date de publication en ligne : 01/11/2019 En ligne : https://doi.org/10.14358/PERS.85.11.829 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94062
in Photogrammetric Engineering & Remote Sensing, PERS > vol 85 n° 11 (November 2019) . - pp 829 - 840[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 105-2019111 SL Revue Centre de documentation Indéterminé Disponible Co‐registration of panoramic mobile mapping images and oblique aerial images / Phillipp Jende in Photogrammetric record, vol 34 n° 166 (June 2019)
![]()
[article]
Titre : Co‐registration of panoramic mobile mapping images and oblique aerial images Type de document : Article/Communication Auteurs : Phillipp Jende, Auteur ; Francesco Nex, Auteur ; M. George Vosselman, Auteur ; Markus Gerke, Auteur Année de publication : 2019 Article en page(s) : pp 148 - 173 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes descripteurs IGN] façade
[Termes descripteurs IGN] image aérienne oblique
[Termes descripteurs IGN] image panoramique
[Termes descripteurs IGN] image terrestre
[Termes descripteurs IGN] point d'appui
[Termes descripteurs IGN] semis de points clairsemés
[Termes descripteurs IGN] superposition d'imagesRésumé : (Auteur) Mobile mapping relies on satellite‐based positioning, which suffers from line‐of‐sight and multipath issues. As an alternative, this paper presents a fully automatic approach for the co‐registration of mobile mapping and oblique aerial images to introduce highly accurate and reliable ground control for mobile mapping data adjustment. An oblique view of a scene introduces similarities as well as challenges regarding co‐registration with mobile mapping images, which is supported by mutual planes in both datasets. Façade planes from a sparse point cloud are used as projection surfaces for the mobile mapping and aerial datasets, overcoming large perspective differences between them to simplify the registration. The performance of the procedure indicates an inlier rate of around 80%. Numéro de notice : A2019-245 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1111/phor.12276 date de publication en ligne : 29/04/2019 En ligne : https://doi.org/10.1111/phor.12276 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92956
in Photogrammetric record > vol 34 n° 166 (June 2019) . - pp 148 - 173[article]Advancement of close range photogrammetry with a portable panoramic image mapping system (PPIMS) / Yung-Chuan Chen in Photogrammetric record, vol 33 n° 162 (June 2018)
PermalinkOn a novel 360° panoramic stereo mobile mapping system / Stefan Blaser in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 6 (juin 2018)
PermalinkRectified feature matching for spherical panoramic images / Tzu-Yi Chuang in Photogrammetric Engineering & Remote Sensing, PERS, vol 84 n° 1 (January 2018)
PermalinkPermalinkAn effective spherical panoramic LoD model for a mobile street view service / Xianxiong Liu in Transactions in GIS, vol 21 n° 5 (October 2017)
PermalinkVisibility widgets for unveiling occluded data in 3D terrain visualization / Martin Röhlig in Journal of Visual Languages and Computing, vol inconnu ([01/10/2017])
PermalinkBundle adjustment of spherical images acquired with a portable panoramic image mapping system (PPIMS) / Yi-Hsing Tseng in Photogrammetric Engineering & Remote Sensing, PERS, vol 82 n° 12 (December 2016)
PermalinkMethod for orthorectification of terrestrial radar maps / Marion Jaud in ISPRS Journal of photogrammetry and remote sensing, vol 97 (November 2014)
PermalinkSimultaneous registration of gnomonic projections and central perspectives / Luigi Barazzetti in Photogrammetric record, vol 29 n° 147 (September - November 2014)
PermalinkDevelopment of a new stereo-panorama system based on off-the-shelf stereo cameras / Amir Shahrokh Amini in Photogrammetric record, vol 29 n° 146 (June - August 2014)
PermalinkSemi-automated registration of close-range hyperspectral scans using oriented digital camera imagery and a 3D model / Alessandra A. Sima in Photogrammetric record, vol 29 n° 145 (March - May 2014)
PermalinkLa topographie au service de la gendarmerie nationale : fixation de l'état des lieux dans un contexte criminalistique (concept et moyen) / Hervé Daudigny in XYZ, n° 138 (mars - mai 2014)
PermalinkChallenges in adapting example-based texture synthesis for panoramic map creation: a case study / Helen Jenny in Cartography and Geographic Information Science, vol 40 n° 4 (September 2013)
PermalinkPhotogrammetric processing of spherical panoramas / Gabrielle Fangi in Photogrammetric record, vol 28 n° 143 (September - November 2013)
PermalinkA 3D geospatial registration service for street level co-visualization of 2D vector maps / Quoc Dinh Nguyen (2013)
PermalinkModeling and Simulation in Engineering, ch. 1. Image-laser fusion for in situ 3D modeling of complex environments: A 4D panoramic-driven approach / Daniela Craciun (2012)
PermalinkIntegration of panoramic hyperspectral imaging with terrestrial lidar data / T. Kurz in Photogrammetric record, vol 26 n° 134 (June - August 2011)
PermalinkCalibration de caméra par acquisition de type panoramique / Bertrand Cannelle in Revue Française de Photogrammétrie et de Télédétection, n° 194 (Mai 2011)
PermalinkPermalinkA semantic and language-based representation of an environmental scene / J.M. Le Yaouanc in Geoinformatica, vol 14 n° 3 (July 2010)
PermalinkMatching terrestrial images captured by a nomad system to images of a reference database for pose estimation purpose / Arnaud Le Bris (2010)
PermalinkBundle adjustment and pose estimation of images of a multiframe panoramic camera / Bertrand Cannelle (01/07/2009)
PermalinkFace blurring for privacy in street-level geoviewers combining face, body and skin detectors / Alexandre Devaux (20/05/2009)
PermalinkCyclomedia's large scale visualisations: creating up-to-date panoramic spherical imagery / E. Van Rees in Geoinformatics, vol 12 n° 2 (01/03/2009)
PermalinkPermalinkEstimation automatique de l'orientation relative : une approche directe basée sur la résolution de systèmes polynomiaux multivariables / Mahzad Kalantari in Revue Française de Photogrammétrie et de Télédétection, n° 189 (Mars 2008)
PermalinkAutomatic pyramidal intensity-based laser scan matcher for 3D modeling of large scale unstructured environments / Daniela Craciun (2008)
Permalink