Descripteur
Documents disponibles dans cette catégorie (104)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Integration of remote sensing and GIS to extract plantation rows from a drone-based image point cloud digital surface model / Nadeem Fareed in ISPRS International journal of geo-information, vol 9 n° 3 (March 2020)
[article]
Titre : Integration of remote sensing and GIS to extract plantation rows from a drone-based image point cloud digital surface model Type de document : Article/Communication Auteurs : Nadeem Fareed, Auteur ; Khushbakht Rehman, Auteur Année de publication : 2020 Article en page(s) : 26 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] agriculture de précision
[Termes IGN] données GNSS
[Termes IGN] données lidar
[Termes IGN] extraction automatique
[Termes IGN] extraction de la végétation
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] image à très haute résolution
[Termes IGN] image captée par drone
[Termes IGN] image RVB
[Termes IGN] modèle dynamique
[Termes IGN] modèle numérique de surface
[Termes IGN] semis de points
[Termes IGN] structure-from-motion
[Termes IGN] système d'information géographique
[Termes IGN] télédétectionRésumé : (auteur) Automated feature extraction from drone-based image point clouds (DIPC) is of paramount importance in precision agriculture (PA). PA is blessed with mechanized row seedlings to attain maximum yield and best management practices. Therefore, automated plantation rows extraction is essential in crop harvesting, pest management, and plant grow-rate predictions. Most of the existing research is consists on red, green, and blue (RGB) image-based solutions to extract plantation rows with the minimal background noise of test study sites. DIPC-based DSM row extraction solutions have not been tested frequently. In this research work, an automated method is designed to extract plantation row from DIPC-based DSM. The chosen plantation compartments have three different levels of background noise in UAVs images, therefore, methodology was tested under different background noises. The extraction results were quantified in terms of completeness, correctness, quality, and F1-score values. The case study revealed the potential of DIPC-based solution to extraction the plantation rows with an F1-score value of 0.94 for a plantation compartment with minimal background noises, 0.91 value for a highly noised compartment, and 0.85 for a compartment where DIPC was compromised. The evaluation suggests that DSM-based solutions are robust as compared to RGB image-based solutions to extract plantation-rows. Additionally, DSM-based solutions can be further extended to assess the plantation rows surface deformation caused by humans and machines and state-of-the-art is redefined. Numéro de notice : A2020-260 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/ijgi9030151 Date de publication en ligne : 06/03/2020 En ligne : https://doi.org/10.3390/ijgi9030151 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95020
in ISPRS International journal of geo-information > vol 9 n° 3 (March 2020) . - 26 p.[article]Plant survival monitoring with UAVs and multispectral data in difficult access afforested areas / Maria Luz Gil-Docampo in Geocarto international, vol 35 n° 2 ([01/02/2020])
[article]
Titre : Plant survival monitoring with UAVs and multispectral data in difficult access afforested areas Type de document : Article/Communication Auteurs : Maria Luz Gil-Docampo, Auteur ; Juan Ortiz-Sanz, Auteur ; S. Martínez-Rodríguez, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : pp 128 - 140 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] aire protégée
[Termes IGN] analyse de survie
[Termes IGN] analyse en composantes principales
[Termes IGN] climat aride
[Termes IGN] image captée par drone
[Termes IGN] image multibande
[Termes IGN] image proche infrarouge
[Termes IGN] image RVB
[Termes IGN] indice de végétation
[Termes IGN] mortalité
[Termes IGN] reboisement
[Termes IGN] ressources en eau
[Termes IGN] surveillance de la végétation
[Termes IGN] télédétection aérienneRésumé : (Auteur) Water supply devices enable afforestation in dry climates and on poor lands with generally high success rates. Previous survival analyses have been based on the direct observation of each individual plant in the field, which entails considerable effort and costs. This study provides a low-cost method to discriminate between live and dead plants in afforestation that can efficiently replace traditional field inspections through the use of unmanned aerial vehicles (UAVs) equipped with RGB and NIR sensors. The method combines the use of a conventional camera with an identical camera modified to record the NIR channel. Survival analysis was performed with digital image processing techniques based on calculated indices associated with plant vigour and PCA-based decorrelation. The method yielded results with high global accuracy rates (∼96.2%) with a minimum percentage of doubtful plants, even in young plantations (seedlings Numéro de notice : A2020-035 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10106049.2018.1508312 Date de publication en ligne : 02/10/2018 En ligne : https://doi.org/10.1080/10106049.2018.1508312 Format de la ressource électronique : URL Article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94517
in Geocarto international > vol 35 n° 2 [01/02/2020] . - pp 128 - 140[article]Analyse automatique du couvert végétal pour la gestion du risque végétation en milieu ferroviaire à partir d'imagerie aérienne / Hélène Rouillon (2020)
Titre : Analyse automatique du couvert végétal pour la gestion du risque végétation en milieu ferroviaire à partir d'imagerie aérienne Type de document : Mémoire Auteurs : Hélène Rouillon, Auteur Editeur : Strasbourg : Institut National des Sciences Appliquées INSA Strasbourg Année de publication : 2020 Importance : 93 p. Format : 21 x 30 cm Note générale : bibliographie
Mémoire de fin d'études d'Ingénieur INSA, spécialité TopographieLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image orientée objet
[Termes IGN] carte de la végétation
[Termes IGN] classification orientée objet
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] couvert végétal
[Termes IGN] extraction de la végétation
[Termes IGN] image aérienne
[Termes IGN] image captée par drone
[Termes IGN] image RVB
[Termes IGN] Normalized Difference Vegetation Index
[Termes IGN] orthophotographie
[Termes IGN] réseau ferroviaire
[Termes IGN] segmentation d'image
[Termes IGN] système d'information géographiqueIndex. décimale : INSAS Mémoires d'ingénieur de l'INSA Strasbourg - Topographie, ex ENSAIS Résumé : (auteur) La végétation et les risques qu’elle peut comporter pour les infrastructures ferroviaires et leurs usagers constituent un enjeu majeur pour SNCF Réseau. Aujourd’hui, l’entreprise ferroviaire souhaite connaître et maîtriser ce risque végétation. L’objet de ce PFE est l’analyse automatique du couvert végétal en milieu ferroviaire à partir d’imagerie aérienne RGB acquise par drone, hélicoptère ou avion. Pour répondre à cette problématique, un réseau de neurones destiné à la segmentation sémantique des images est mis en œuvre. En effet, une fois bien entraînés, les réseaux de neurones, par leur capacité d’apprentissage, sont en mesure de classifier efficacement toute nouvelle image. Trois classes ont été définies en fonction des risques que pouvaient présenter la végétation : « arbres », « reste de la végétation » et « non-végétation ». Une chaîne de traitement complète des données a été proposée permettant, sur la base de ces images, une cartographie SIG de la végétation. Cette connaissance, aisément déployable sur des lignes entières, doit permettre au mainteneur de cibler les zones prioritaires et d’optimiser ses plans d’élagages. Note de contenu : Introduction
1- Etude préalable au développement de la solution
2- Le réseau de neurones SegNet pour le traitement d’images d’observation de la Terre et la base de données
3- Optimisation du traitement des données
ConclusionNuméro de notice : 28529 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire ingénieur INSAS Organisme de stage : Altametris DOI : sans En ligne : http://eprints2.insa-strasbourg.fr/4133/ Format de la ressource électronique : url Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97346 Application of machine learning techniques for evidential 3D perception, in the context of autonomous driving / Edouard Capellier (2020)
Titre : Application of machine learning techniques for evidential 3D perception, in the context of autonomous driving Type de document : Thèse/HDR Auteurs : Edouard Capellier, Auteur ; Véronique Berge-Cherfaoui, Directeur de thèse ; Franck Davoine, Directeur de thèse Editeur : Compiègne : Université de Technologie de Compiègne UTC Année de publication : 2020 Importance : 123 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée pour l'obtention du grade de Docteur de l'UTC, Robotique et Sciences et Technologies de l'Information et des SystèmesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] carte routière
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] image RVB
[Termes IGN] intelligence artificielle
[Termes IGN] navigation autonome
[Termes IGN] segmentation sémantique
[Termes IGN] théorie de Dempster-Shafer
[Termes IGN] vision par ordinateur
[Termes IGN] visualisation 3DIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The perception task is paramount for self-driving vehicles. Being able to extract accurate and significant information from sensor inputs is mandatory, so as to ensure a safe operation. The recent progresses of machine-learning techniques revolutionize the way perception modules, for autonomous driving, are being developed and evaluated, while allowing to vastly overpass previous state-of-the-art results in practically all the perception-related tasks. Therefore, efficient and accurate ways to model the knowledge that is used by a self-driving vehicle is mandatory. Indeed, self-awareness, and appropriate modeling of the doubts, are desirable properties for such system. In this work, we assumed that the evidence theory was an efficient way to finely model the information extracted from deep neural networks. Based on those intuitions, we developed three perception modules that rely on machine learning, and the evidence theory. Those modules were tested on real-life data. First, we proposed an asynchronous evidential occupancy grid mapping algorithm, that fused semantic segmentation results obtained from RGB images, and LIDAR scans. Its asynchronous nature makes it particularly efficient to handle sensor failures. The semantic information is used to define decay rates at the cell level, and handle potentially moving object. Then, we proposed an evidential classifier of LIDAR objects. This system is trained to distinguish between vehicles and vulnerable road users, that are detected via a clustering algorithm. The classifier can be reinterpreted as performing a fusion of simple evidential mass functions. Moreover, a simple statistical filtering scheme can be used to filter outputs of the classifier that are incoherent with regards to the training set, so as to allow the classifier to work in open world, and reject other types of objects. Finally, we investigated the possibility to perform road detection in LIDAR scans, from deep neural networks. We proposed two architectures that are inspired by recent state-of-the-art LIDAR processing systems. A training dataset was acquired and labeled in a semi-automatic fashion from road maps. A set of fused neural networks reaches satisfactory results, which allowed us to use them in an evidential road mapping and object detection algorithm, that manages to run at 10 Hz Note de contenu : 1- Introduction
2- Machine learning for perception in autonomous driving
3- The evidence theory, and its applications in autonomous driving
4- A synchronous evidential grid mapping from RGB images and LIDAR scans
5- Evidential LIDAR object classification
6- Road detection in LIDAR scans
7- Application of RoadSeg:evidential road surface mapping
8- ConclusionNuméro de notice : 25895 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Robotique et Sciences et Technologies de l'Information et des Systèmes : UTC : 2020 Organisme de stage : Laboratoire Heudiasyc nature-HAL : Thèse DOI : sans En ligne : https://hal.science/tel-02897810v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96013 Regional-scale forest mapping over fragmented landscapes using global forest products and Landsat time series classification / Viktor Myroniuk in Remote sensing, vol 12 n° 1 (January 2020)
[article]
Titre : Regional-scale forest mapping over fragmented landscapes using global forest products and Landsat time series classification Type de document : Article/Communication Auteurs : Viktor Myroniuk, Auteur ; Mykola Kutia, Auteur ; Arbi J. Sarkissian, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : 24 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] bande infrarouge
[Termes IGN] carte forestière
[Termes IGN] changement climatique
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] Google Earth Engine
[Termes IGN] image ALOS-PALSAR
[Termes IGN] image Landsat
[Termes IGN] image proche infrarouge
[Termes IGN] image RVB
[Termes IGN] image satellite
[Termes IGN] Normalized Difference Vegetation Index
[Termes IGN] plaine
[Termes IGN] série temporelle
[Termes IGN] surveillance forestière
[Termes IGN] UkraineRésumé : (auteur) Satellite imagery of 25–30 m spatial resolution has been recognized as an effective tool for monitoring the spatial and temporal dynamics of forest cover at different scales. However, the precise mapping of forest cover over fragmented landscapes is complicated and requires special consideration. We have evaluated the performance of four global forest products of 25–30 m spatial resolution within three flatland subregions of Ukraine that have different forest cover patterns. We have explored the relationship between tree cover extracted from the global forest change (GFC) and relative stocking density of forest stands and justified the use of a 40% tree cover threshold for mapping forest in flatland Ukraine. In contrast, the canopy cover threshold for the analogous product Landsat tree cover continuous fields (LTCCF) is found to be 25%. Analysis of the global forest products, including discrete forest masks Global PALSAR-2/PALSAR Forest/Non-Forest Map (JAXA FNF) and GlobeLand30, has revealed a major misclassification of forested areas under severe fragmentation patterns of landscapes. The study also examined the effectiveness of forest mapping over fragmented landscapes using dense time series of Landsat images. We collected 1548 scenes of Landsat 8 Operational Land Imager (OLI) for the period 2014–2016 and composited them into cloudless mosaics for the following four seasons: yearly, summer, autumn, and April–October. The classification of images was performed in Google Earth Engine (GEE) Application Programming Interface (API) using random forest (RF) classifier. As a result, 30 m spatial resolution forest mask for flatland of Ukraine was created. The user’s and producer’s accuracy were estimated to be 0.910 ± 0.015 and 0.880 ± 0.018, respectively. The total forest area for the flatland Ukraine is 9440.5 ± 239.4 thousand hectares, which is 3% higher than official data. In general, we conclude that the Landsat-derived forest mask performs well over fragmented landscapes if forest cover of the territory is higher than 10–15% Numéro de notice : A2020-225 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article DOI : 10.3390/rs12010187 Date de publication en ligne : 05/01/2020 En ligne : https://doi.org/10.3390/rs12010187 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94940
in Remote sensing > vol 12 n° 1 (January 2020) . - 24 p.[article]Combining thermal imaging with photogrammetry of an active volcano using UAV: an example from Stromboli, Italy / Zoë E. Wakeford in Photogrammetric record, vol 34 n° 168 (December 2019)PermalinkEstimating pasture biomass and canopy height in brazilian savanna using UAV photogrammetry / Juliana Batistoti in Remote sensing, Vol 11 n° 20 (October-2 2019)PermalinkAutomatic canola mapping using time series of Sentinel 2 images / Davoud Ashourloo in ISPRS Journal of photogrammetry and remote sensing, vol 156 (October 2019)PermalinkUnmanned aerial vehicles (UAVs) for monitoring macroalgal biodiversity: comparison of RGB and multispectral imaging sensors for biodiversity assessments / Leigh Tait in Remote sensing, vol 11 n° 19 (October-1 2019)PermalinkDevelopment and evaluation of a deep learning model for real-time ground vehicle semantic segmentation from UAV-based thermal infrared imagery / Mehdi Khoshboresh Masouleh in ISPRS Journal of photogrammetry and remote sensing, vol 155 (September 2019)PermalinkEnhanced 3D mapping with an RGB-D sensor via integration of depth measurements and image sequences / Bo Wu in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 9 (September 2019)PermalinkImproving public data for building segmentation from Convolutional Neural Networks (CNNs) for fused airborne lidar and image data using active contours / David Griffiths in ISPRS Journal of photogrammetry and remote sensing, vol 154 (August 2019)PermalinkSemantic façade segmentation from airborne oblique images / Yaping Lin in Photogrammetric Engineering & Remote Sensing, PERS, vol 85 n° 6 (June 2019)PermalinkFusion of thermal imagery with point clouds for building façade thermal attribute mapping / Dong Lin in ISPRS Journal of photogrammetry and remote sensing, vol 151 (May 2019)PermalinkAlbedo estimation for real-time 3D reconstruction using RGB-D and IR data / Patrick Stotko in ISPRS Journal of photogrammetry and remote sensing, vol 150 (April 2019)PermalinkComplete 3D scene parsing from an RGBD image / Chuhang Zou in International journal of computer vision, vol 127 n° 2 (February 2019)PermalinkPermalinkEstimation de profondeur à partir d'images monoculaires par apprentissage profond / Michel Moukari (2019)PermalinkPermalinkPermalinkPermalinkAutomatic building rooftop extraction from aerial images via hierarchical RGB-D priors / Shibiao Xu in IEEE Transactions on geoscience and remote sensing, vol 56 n° 12 (December 2018)PermalinkDepth-based hand pose estimation : Methods, data, and challenges / James Steven Supančič in International journal of computer vision, vol 126 n° 11 (November 2018)PermalinkConfigurable 3D scene synthesis and 2D image rendering with per-pixel ground truth using stochastic grammars / Chenfanfu Jiang in International journal of computer vision, vol 126 n° 9 (September 2018)PermalinkDetecting newly grown tree leaves from unmanned-aerial-vehicle images using hyperspectral target detection techniques / Chinsu Lin in ISPRS Journal of photogrammetry and remote sensing, vol 142 (August 2018)Permalink