Publications du LaSTIG
Les publications antérieures au LaSTIG sont celles des laboratoires qui ont formé le LaSTIG : COGIT, LOEMI et MATIS, à l'exception du LAREG - Vous pouvez affiner la recherche au sein des références
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
![Imprimer...](./images/print.gif)
iTowns, le nouveau moteur de visualisation 3D de données géospatiales du Géoportail / Mirela Konini in Responsabilité et environnement, n° 94 (Avril 2019)
![]()
![]()
[article]
Titre : iTowns, le nouveau moteur de visualisation 3D de données géospatiales du Géoportail Type de document : Article/Communication Auteurs : Mirela Konini , Auteur ; Alexandre Devaux
, Auteur ; Mathieu Brédif
, Auteur
Année de publication : 2019 Projets : ITowns / Paparoditis, Nicolas Article en page(s) : pp 14 - 18 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Géomatique web
[Termes IGN] application web
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] données massives
[Termes IGN] géoportail
[Termes IGN] iTowns
[Termes IGN] modèle numérique de terrain
[Termes IGN] plateforme collaborative
[Termes IGN] simulation
[Termes IGN] urbanisme
[Termes IGN] visite virtuelle
[Termes IGN] visualisation 3DRésumé : (auteur) La visualisation est un mode privilégié de l’interaction des utilisateurs avec l’information géographique, et sa représentation efficace est d’autant plus importante que les données sont massives et hétérogènes et que les utilisateurs et les usages sont variés. Au-delà de la visualisation de données 2D sur un écran ou une carte papier, la visualisation de données 3D pose de nouveaux défis et nécessite des outils appropriés : volume des données, multiplicité des formats, stylisation et gestion des parties visibles, modes d’interaction et de navigation ... iTowns est une plateforme technologique de l’IGN qui permet de visualiser des données géographiques 3D via le Web et propose des fonctions d’interaction avancées dans un environnement métrologique. Initialement développé par les laboratoires de recherche de l’IGN comme un outil de visualisation de données images et LiDAR issues de la cartographie mobile (c’est-à-dire acquises au moyen d’un véhicule équipé de capteurs), iTowns a évolué et permet aujourd’hui de naviguer de façon immersive au sein d’un très grand volume de données 3D, et ce dans toute la gamme d’échelles, depuis l’espace jusqu’au sol. Des interfaces sont également disponibles pour la manipulation de ces données. Désormais moteur de visualisation 3D du Géoportail (1), iTowns s’enrichit continuellement de nouvelles fonctionnalités : en sus de la visualisation en 3D du territoire pour le grand public, il permet de développer des applications Web à usage professionnel pour covisualiser différents types de données, les annoter, procéder à des analyses, des mesures ... Numéro de notice : A2019-101 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtSansCL DOI : 10.3917/re1.094.0014 Date de publication en ligne : 12/04/2019 En ligne : https://doi.org/10.3917/re1.094.0014 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92405
in Responsabilité et environnement > n° 94 (Avril 2019) . - pp 14 - 18[article]Documents numériques
en open access
iTowns... - pdf editeurAdobe Acrobat PDFJoint analysis of SAR and optical satellite images time series for grassland event detection / Anatol Garioud (2019)
Titre : Joint analysis of SAR and optical satellite images time series for grassland event detection Type de document : Article/Communication Auteurs : Anatol Garioud , Auteur ; Silvia Valero, Auteur ; Sébastien Giordano
, Auteur ; Clément Mallet
, Auteur
Editeur : Leibniz : Leibniz Institute of Ecological Urban and Regional Development Année de publication : 2019 Conférence : ILUS 2019, 3rd International land use symposium, Land use changes: Trends and projections 04/12/2019 06/12/2019 Paris France programme sans actes Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] analyse d'image orientée objet
[Termes IGN] classification par réseau neuronal
[Termes IGN] cohérence des données
[Termes IGN] détection d'événement
[Termes IGN] détection de changement
[Termes IGN] image optique
[Termes IGN] image radar moirée
[Termes IGN] image Sentinel-MSI
[Termes IGN] image Sentinel-SAR
[Termes IGN] Mâcon
[Termes IGN] prairie
[Termes IGN] puits de carboneRésumé : (auteur) Throughout Europe, grasslands are a major component of the landscape comprising 40% of agricultural land. Permanent Grassland (PM) means land used to grow herbaceous forage crops naturally (self-seeded) or through cultivation (sown) and that has not been included in the crop rotation of the holding for five years or more. PM are major ecosystems associated with high biodiversity which provide a wide range of ecosystem services (e.g. carbon sequestration, water quality, flood and erosion control). Grasslands have an important carbon storage capacity which is valuable for climate protection. Different studies have demonstrated that grassland managements such as grazing or mowing can cause significant effects on carbon storage in soils. Identifying and mapping grassland management practices over time can thus have important impact on climate studies. Remote sensing allows a synoptic and regular monitoring through systematic acquisitions of Earth Observation imagery. The emergence of free and easily Sentinel's satellite data provided by the European Copernicus program, offers new possibilities for grassland monitoring. Sentinel-1 (51) and Sentinel-2 (52) missions acquire radar and optical satellite image time series at high temporal resolution and fine spatial resolution. They fully match the requirements both for yearly and real-time monitoring. In this work, we target to jointly exploit both data sources to dynamically detect mowing events (MowEve) on permanent grasslands. Thematic related analysis of the datasets will highlight strengths and weaknesses of both optical and radar imagery. (i) 52 appears efficient for MowEve detection, with significant variations in the vegetation status that can be easily detected in the spectral signal extracted from the time series of images. But the temporal revisit of 52 although nominally 5 days is often reduced even by half due to the frequent cloud cover (ii) SAR images acquisitions being independent of illumination conditions or cloud cover allows for systematic acquisitions and revisit rate of 6 days. Data consistency makes S1 data essential during fast phenomena such as MowEve. Yet, radar data appears very sensitive to soil moisture, precipitations and geometrical properties making interpretation of their time series more challenging. MowEve detection being weakly supervised, the proposed methodology relies on applying traditional change detection strategies on a low-level fused 51 and S2 data representation. Recurrent Neural Networks will be trained to derive yearly or real-time synthetic 52 vegetation indices from both 52 and S1 observations. Furthermore, through attention mechanisms, our proposed RNN architecture will be able to take into account external data (climate, clouds, topography, etc.) so as to dynamically weight at parcel-level the contribution of optical and radar images. Such method will contribute to obtain dense temporal optical profiles without missing data and compatible with MowEve detection. An experimental evaluation will be carried out on a test site covering an area of 110x110 Km in France (Macon region). Object-oriented analysis will be presented based on permanent grasslands derived from the Land Parcel Identification System. The proposed approach will be compared with traditional MowEve methods essentially based on thresholding independently the different modalities. Numéro de notice : C2019-067 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComSansActesPubliés-Unpublished DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97022 A learning approach to evaluate the quality of 3D city models / Oussama Ennafii in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 12 (December 2019)
![]()
![]()
[article]
Titre : A learning approach to evaluate the quality of 3D city models Type de document : Article/Communication Auteurs : Oussama Ennafii , Auteur ; Arnaud Le Bris
, Auteur ; Florent Lafarge, Auteur ; Clément Mallet
, Auteur
Année de publication : 2019 Projets : 1-Pas de projet / Paparoditis, Nicolas Article en page(s) : pp 865 - 878 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] Bâti-3D
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] détection d'erreur
[Termes IGN] données localisées
[Termes IGN] France (administrative)
[Termes IGN] image à très haute résolution
[Termes IGN] modèle 3D de l'espace urbain
[Termes IGN] modèle d'erreur
[Termes IGN] modèle numérique de surface
[Termes IGN] qualité des données
[Termes IGN] taxinomieRésumé : (Auteur) The automatic generation of three-dimensional (3D) building models from geospatial data is now a standard procedure. An abundance of literature covers the last two decades, and several solutions are now available. However, urban areas are very complex environments. Inevitably, practitioners still have to visually assess, at a city-scale, the correctness of these models and detect frequent reconstruction errors. Such a process relies on experts and is highly time-consuming, with approximately two hours/km 2 per expert. This work proposes an approach for automatically evaluating the quality of 3D building models. Potential errors are compiled in a novel hierarchical and versatile taxonomy. This allows, for the first time, to disentangle fidelity and modeling errors, whatever the level of details of the modeled buildings. The quality of models is predicted using the geometric properties of buildings and, when available, Very High Resolution images and Digital Surface Models. A baseline of handcrafted, yet generic, features is fed into a Random Forest classifier. Both multiclass and multilabel cases are considered: due to the interdependence between classes of errors, it is possible to retrieve all errors at the same time while simply predicting correct and erroneous buildings. The proposed framework was tested on three distinct urban areas in France with more than 3000 buildings. 80%–99% F-score values are attained for the most frequent errors. For scalability purposes, the impact of the urban area composition on the error prediction was also studied, in terms of transferability, generalization, and representativeness of the classifiers. It showed the necessity of multimodal remote sensing data and mixing training samples from various cities to ensure a stability of the detection ratios, even with very limited training set sizes. Numéro de notice : A2019-569 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE/POSITIONNEMENT Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.14358/PERS.85.12.865 Date de publication en ligne : 01/12/2019 En ligne : https://doi.org/10.14358/PERS.85.12.865 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94440
in Photogrammetric Engineering & Remote Sensing, PERS > vol 85 n° 12 (December 2019) . - pp 865 - 878[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 105-2019121 SL Revue Centre de documentation Revues en salle Disponible Documents numériques
peut être téléchargé
A learning approach to evaluate the quality of 3D city models - preprint HALAdobe Acrobat PDF
Titre : Learning scene geometry for visual localization in challenging conditions Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Valérie Gouet-Brunet
, Auteur ; Cédric Demonceaux, Auteur
Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2019 Projets : PLaTINUM / Gouet-Brunet, Valérie Conférence : ICRA 2019, International Conference on Robotics and Automation 20/05/2019 24/05/2019 Montréal Québec - Canada Proceedings IEEE Importance : pp 9094 - 9100 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image orientée objet
[Termes IGN] analyse visuelle
[Termes IGN] appariement d'images
[Termes IGN] carte de profondeur
[Termes IGN] descripteur
[Termes IGN] géométrie de l'image
[Termes IGN] image RVB
[Termes IGN] localisation basée vision
[Termes IGN] précision de localisation
[Termes IGN] prise de vue nocturne
[Termes IGN] robotique
[Termes IGN] scène urbaine
[Termes IGN] variation diurne
[Termes IGN] variation saisonnière
[Termes IGN] vision par ordinateurRésumé : (auteur) We propose a new approach for outdoor large scale image based localization that can deal with challenging scenarios like cross-season, cross-weather, day/night and longterm localization. The key component of our method is a new learned global image descriptor, that can effectively benefit from scene geometry information during training. At test time, our system is capable of inferring the depth map related to the query image and use it to increase localization accuracy. We are able to increase recall@1 performances by 2.15% on cross-weather and long-term localization scenario and by 4.24% points on a challenging winter/summer localization sequence versus state-of-the-art methods. Our method can also use weakly annotated data to localize night images across a reference dataset of daytime images. Numéro de notice : C2019-002 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICRA.2019.8794221 Date de publication en ligne : 12/08/2019 En ligne : http://doi.org/10.1109/ICRA.2019.8794221 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93774 Documents numériques
en open access
Learning scene geometry... - pdf auteurAdobe Acrobat PDFLettre : Existe-t-il des relations formelles entre coefficients de diffusion radar et facteurs de réflectance en optique ? / Jean-Paul Rudant in Revue Française de Photogrammétrie et de Télédétection, n° 219-220 (juin - octobre 2019)
![]()
[article]
Titre : Lettre : Existe-t-il des relations formelles entre coefficients de diffusion radar et facteurs de réflectance en optique ? Type de document : Article/Communication Auteurs : Jean-Paul Rudant , Auteur ; Pierre-Louis Frison
, Auteur
Année de publication : 2019 Projets : 1-Pas de projet / Gouet-Brunet, Valérie Article en page(s) : pp 29 - 31 Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] albedo
[Termes IGN] coefficient de rétrodiffusion
[Termes IGN] correction radiométrique
[Termes IGN] distribution du coefficient de réflexion bidirectionnelle BRDF
[Termes IGN] réflectance directionnelle
[Termes IGN] télédétection en hyperfréquenceRésumé : (auteur) En liaison avec l'article des mêmes auteurs dans le même numéro : Télédétection Radar, de l'image d'intensité initiale au choix du mode de calibration des coefficients de diffusion )B°, o°,y°. Numéro de notice : A2019-345 Affiliation des auteurs : UPEM-LASTIG (2016-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : 10.52638/rfpt.2019.461 En ligne : https://doi.org/10.52638/rfpt.2019.461 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=93382
in Revue Française de Photogrammétrie et de Télédétection > n° 219-220 (juin - octobre 2019) . - pp 29 - 31[article]LU-Net, An efficient network for 3D LiDAR point cloud semantic segmentation based on end-to-end-learned 3D features and U-Net / Pierre Biasutti (2019)
PermalinkMacroalgues intertidales : Apport de la télédétection hyperspectrale pour le suivi sectoriel dans le cadre de la DCE/DCSMM / Arnaud Le Bris (2019)
PermalinkManual of digital Earth, ch. 7. Geospatial information visualization and extended reality displays / Arzu Çöltekin (2019)
PermalinkPermalinkMéthodes d'apprentissage statistique pour la détection de la signalisation routière à partir de véhicules traceurs / Yann Méneroux (2019)
PermalinkMise en oeuvre d'outils open source pour le suivi opérationnel de l'occupation des sols et de la déforestation à partir des données Sentinel radar optique : études de cas en Guyane et au Togo / Cédric Lardeux in Revue Française de Photogrammétrie et de Télédétection, n° 219-220 (juin - octobre 2019)
PermalinkUn modèle de transcription pour identifier et analyser les objets de référence et les relations spatiales utilisées pour se localiser en montagne / Mattia Bunel in Cartes & Géomatique, n° 241-242 (décembre 2019)
PermalinkMonitoring suspended particle matter using GOCI satellite data after the Tohoku (Japan) tsunami in 2011 / Audrey Minghelli in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol 12 n° 2 (February 2019)
PermalinkPermalinkMultimodal scene understanding: algorithms, applications and deep learning, ch. 11. Decision fusion of remote-sensing data for land cover classification / Arnaud Le Bris (2019)
Permalink