Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > analyse d'image numérique > analyse d'image orientée objet
analyse d'image orientée objetVoir aussi |
Documents disponibles dans cette catégorie (294)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deep traffic light detection by overlaying synthetic context on arbitrary natural images / Jean Pablo Vieira de Mello in Computers and graphics, vol 94 n° 1 (February 2021)
[article]
Titre : Deep traffic light detection by overlaying synthetic context on arbitrary natural images Type de document : Article/Communication Auteurs : Jean Pablo Vieira de Mello, Auteur ; Lucas Tabelini, Auteur ; Rodrigo F. Berriel, Auteur Année de publication : 2021 Article en page(s) : pp 76 - 86 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image orientée objet
[Termes IGN] apprentissage profond
[Termes IGN] détection d'objet
[Termes IGN] échantillonnage d'image
[Termes IGN] feu de circulation
[Termes IGN] image à haute résolution
[Termes IGN] navigation autonome
[Termes IGN] signalisation routière
[Termes IGN] trafic routierRésumé : (auteur) Deep neural networks come as an effective solution to many problems associated with autonomous driving. By providing real image samples with traffic context to the network, the model learns to detect and classify elements of interest, such as pedestrians, traffic signs, and traffic lights. However, acquiring and annotating real data can be extremely costly in terms of time and effort. In this context, we propose a method to generate artificial traffic-related training data for deep traffic light detectors. This data is generated using basic non-realistic computer graphics to blend fake traffic scenes on top of arbitrary image backgrounds that are not related to the traffic domain. Thus, a large amount of training data can be generated without annotation efforts. Furthermore, it also tackles the intrinsic data imbalance problem in traffic light datasets, caused mainly by the low amount of samples of the yellow state. Experiments show that it is possible to achieve results comparable to those obtained with real training data from the problem domain, yielding an average mAP and an average F1-score which are each nearly 4 p.p. higher than the respective metrics obtained with a real-world reference model. Numéro de notice : A2021-151 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1016/j.cag.2020.09.012 Date de publication en ligne : 09/10/2020 En ligne : https://doi.org/10.1016/j.cag.2020.09.012 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97027
in Computers and graphics > vol 94 n° 1 (February 2021) . - pp 76 - 86[article]Detection of pictorial map objects with convolutional neural networks / Raimund Schnürer in Cartographic journal (the), vol 58 n° 1 (February 2021)
[article]
Titre : Detection of pictorial map objects with convolutional neural networks Type de document : Article/Communication Auteurs : Raimund Schnürer, Auteur ; René Sieber, Auteur ; Jost Schmid-Lanter, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 50 - 68 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] base de données d'images
[Termes IGN] bibliothèque numérique
[Termes IGN] carte ancienne
[Termes IGN] carte numérique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] détection d'objet
[Termes IGN] données issues des réseaux sociaux
[Termes IGN] objet cartographique
[Termes IGN] pictogrammeRésumé : (auteur) In this work, realistically drawn objects are identified on digital maps by convolutional neural networks. For the first two experiments, 6200 images were retrieved from Pinterest. While alternating image input options, two binary classifiers based on Xception and InceptionResNetV2 were trained to separate maps and pictorial maps. Results showed that the accuracy is 95–97% to distinguish maps from other images, whereas maps with pictorial objects are correctly classified at rates of 87–92%. For a third experiment, bounding boxes of 3200 sailing ships were annotated in historic maps from different digital libraries. Faster R-CNN and RetinaNet were compared to determine the box coordinates, while adjusting anchor scales and examining configurations for small objects. A resulting average precision of 32% was obtained for Faster R-CNN and of 36% for RetinaNet. Research outcomes are relevant for trawling map images on the Internet and for enhancing the advanced search of digital map catalogues. Numéro de notice : A2021-651 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/00087041.2020.1738112 Date de publication en ligne : 11/09/2020 En ligne : https://doi.org/10.1080/00087041.2020.1738112 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98381
in Cartographic journal (the) > vol 58 n° 1 (February 2021) . - pp 50 - 68[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 030-2021011 RAB Revue Centre de documentation En réserve L003 Disponible Semi-supervised joint learning for hand gesture recognition from a single color image / Chi Xu in Sensors, vol 21 n° 3 (February 2021)
[article]
Titre : Semi-supervised joint learning for hand gesture recognition from a single color image Type de document : Article/Communication Auteurs : Chi Xu, Auteur ; Yunkai Jiang, Auteur ; Jun Zhou, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : n° 1007 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] apprentissage semi-dirigé
[Termes IGN] détection d'objet
[Termes IGN] estimation de pose
[Termes IGN] image en couleur
[Termes IGN] jeu de données
[Termes IGN] reconnaissance de gestesRésumé : (auteur) Hand gesture recognition and hand pose estimation are two closely correlated tasks. In this paper, we propose a deep-learning based approach which jointly learns an intermediate level shared feature for these two tasks, so that the hand gesture recognition task can be benefited from the hand pose estimation task. In the training process, a semi-supervised training scheme is designed to solve the problem of lacking proper annotation. Our approach detects the foreground hand, recognizes the hand gesture, and estimates the corresponding 3D hand pose simultaneously. To evaluate the hand gesture recognition performance of the state-of-the-arts, we propose a challenging hand gesture recognition dataset collected in unconstrained environments. Experimental results show that, the gesture recognition accuracy of ours is significantly boosted by leveraging the knowledge learned from the hand pose estimation task. Numéro de notice : A2021-160 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/s21031007 Date de publication en ligne : 02/02/2021 En ligne : https://doi.org/10.3390/s21031007 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97076
in Sensors > vol 21 n° 3 (February 2021) . - n° 1007[article]
Titre : 3D object detection using lidar point clouds and 2D image object detection Type de document : Mémoire Auteurs : Topi Miekkala, Auteur Editeur : Tampere [Finlande] : Tampere University Année de publication : 2021 Importance : 67 p. Format : 21 x 30 cm Note générale : bibliographie
Master of Science Thesis, Automation EngineeringLangues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] apprentissage profond
[Termes IGN] détection d'objet
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données
[Termes IGN] image 2D
[Termes IGN] navigation autonome
[Termes IGN] objet 3D
[Termes IGN] piéton
[Termes IGN] point d'intérêt
[Termes IGN] segmentation
[Termes IGN] semis de points
[Termes IGN] temps réel
[Termes IGN] vision par ordinateurRésumé : (auteur) This master thesis is about the environmental sensing of an automated vehicle, and its ability to recognize objects of interest such as other road users including pedestrians and other vehicles. Automated driving is a popular and growing field of research, and the continuous increase in the demand of self-driving vehicles requires manufacturers to constantly improve the safety and environmental sensing capabilities of their vehicles. Deep learning neural networks and sensor data fusion are significant tools in the development of detection algorithms of automated vehicles. This thesis presents a method combining neural networks and sensor data fusion to implement 3D object detection into a self-driving car. The method uses an onboard camera sensor and a state of the art 2D image object detector YOLO v4, combining its detections with the data of a lidar sensor, which produces dense point clouds of its environment. These point clouds can be used to estimate distances and locations of surrounding targets. Using inter-sensor calibration between the camera and the lidar, the 3D points outputted by the lidar can be projected on a 2D image, therefore allowing the 3D location estimation of 2D objects detected in an image. The thesis first presents the research questions and the theoretical methods used to implement the algorithm. Some background on automated driving is also presented, followed by the specific research environment and vehicle used in this thesis. The thesis also presents the software implementations and vehicle system integration steps needed to implement everything into a self-driving car to achieve a real-time 3D object detection system. The results of this thesis show that using sensor data fusion, such a system can be integrated fully into a self-driving vehicle, and the processing times of the algorithm can be kept at a real-time rate. Note de contenu : 1- Introduction
2- Methods for sensor data and object detection
3- Autonomous driving and environmental sensing
4- Experiments
5- Evaluation
6- ConclusionNuméro de notice : 28594 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Mémoire masters divers En ligne : https://trepo.tuni.fi/handle/10024/132285 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99323 Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images / Théo Mesure (2021)
Titre : Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images : Quelles possibilités d’automatisation ? Type de document : Mémoire Auteurs : Théo Mesure, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2021 Importance : 63 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet pluridisciplinaire, cycle ING2Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse diachronique
[Termes IGN] automatisation
[Termes IGN] calcaire
[Termes IGN] carte d'occupation du sol
[Termes IGN] classification dirigée
[Termes IGN] classification orientée objet
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] espèce végétale
[Termes IGN] géoréférencement indirect
[Termes IGN] image aérienne
[Termes IGN] Moselle (57)
[Termes IGN] Orfeo Tool Box
[Termes IGN] pelouse
[Termes IGN] protection de la biodiversitéIndex. décimale : PROJET Mémoires : Rapports de projet - stage des ingénieurs de 2e année Résumé : (Auteur) L’analyse fine et régulière des pelouses calcaires est un enjeu majeur dans le cadre des missions de gestion et de suivi scientifique du Conservatoire d’Espaces Naturels de Lorraine. Les pelouses sont des milieux semi-naturels, soumis à des dynamiques d’embroussaillement fortes et rapides si elles ne sont pas gérées régulièrement. A l’heure actuelle, le suivi de cette dynamique au Conservatoire se fait par analyse diachronique des photos aériennes mises à disposition. Cette analyse est complétée par une cartographie de terrain. Réalisée à la main, cette méthode est pour l’heure assez chronophage. Les travaux effectués au cours de ce stage se positionnent donc dans la continuité de ces études. Au vu des moyens technologiques actuels, le Conservatoire s’interroge sur la possibilité d’automatiser les cartographies d’occupation du sol, afin d’évaluer l’embroussaillement sur ses différents sites. Pour répondre à cette problématique, deux méthodes de classification supervisée ont été développées. Elles suivent le même principe et ne différent que par les données qu’on leur fournie. La première traite des images disposant de canal proche-infrarouge, tandis que la deuxième méthode se concentre elle sur les images ne disposant que du spectre visible. Pour procéder à la classification, les images sont segmentées grâce à l’algorithme de ligne de partage des eaux. On extrait aussi un certain nombre d’informations, directes ou dérivées, de ces images. Les attributs calculés ici, ont été déterminés pour fournir les meilleurs résultats sur la détection des pelouses calcaires. Enfin les segments créés sont donnés au classifieur RandomForest, afin qu’il les ordonne selon un ensemble de classes définies au préalable. Avec les méthodes développées, le classifieur parvient à trouver entre 80% et 90% de vrai positifs pour le type d’arbuste ou de pelouse, selon les années et les données en entrée. Des pistes d’amélioration ont aussi été explorées, telles que l’ajout de données externes ou le lissage de carte. Le deuxième objectif de ce stage était de pouvoir transmettre les méthodes de classification développées au plus grand nombre. Pour cela, des manuels utilisateurs ont été écrits, détaillant chacune des étapes nécessaires. Ces manuels donnent aussi les clefs de compréhension nécessaires à l’analyse des résultats et des attributs produits. A l’issu de ce stage, les perspectives sont nombreuses. Une telle méthodologie offre la possibilité d’un suivi plus régulier et détaillé des sites du Conservatoire. L’utilisation d’une méthode de classification orientée-objet, permet de prendre en compte le travail des experts sur le terrain, ainsi que d’intégrer plus facilement ces données au classifieur. Un travail sur les classes est aussi envisageable : en dehors du bâti, une simplification des classes de végétation est possible, et permettrait de faciliter le travail sur les images anciennes. Pour les images actuelles, un travail sur la nomenclature pourrait être utile pour améliorer le niveau de détail de la carte. En s’appliquant par exemple à différencier arbustes bas, pelouse non-gérée et pelouse non-gérée mitée (i.e avec un début d’embroussaillement). Enfin la faible configuration machine requise, permet d’imaginer des utilisations par un nombre plus grand d’acteurs. Note de contenu : Introduction
1. Contexte et présentation du stage
1.1 Présentation de la structure
1.2 Enjeux et objectifs
1.3 Présentation des sites
1.4 Déroulement et organisation du stage
1.5 Données à disposition
2. Recherches effectuées et principe de la méthode
2.1 Recherche des outils
2.2 Principe de fonctionnement
3. Description et création des attributs et des segments
3.1 Attributs spectraux
3.2 Attributs de texture
3.3 Attributs géométriques
3.4 Création des segments
3.5 Création de statistiques
4. Classifieur utilisé
4.1 SVM et RandomForest
4.2 Arbre de décision
4.3 Construction et fonctionnement du RandomForest
4.4 Jeu d’entraînement, jeu de validation
5. Résultats
5.1 Classes retenues
5.2 Cartes d’occupation du sol, images récentes
5.3 Cartes d’occupation du sol, images anciennes
5.4 Evaluation détaillée du classifieur
5.5 Statistiques d’occupation du sol
6. Limites et améliorations
6.1 Limites de la méthode
6.2 Limites de la nomenclature
6.3 Limites sur le panchromatique
6.4 Limites sur le RVB ancien
6.5 Limites sur l’évaluation du classifieur
6.6 Limites sur le géoréférencement
6.7 Améliorations possibles
7. Mise à disposition pour les utilisateurs du CENL
7.1 Outils utilisés pour automatiser
7.2 Rédaction et contenu des manuels
7.3 Limites
ConclusionNuméro de notice : 26620 Affiliation des auteurs : non IGN Thématique : BIODIVERSITE/FORET/IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : Conservatoire des Espaces Naturels de Lorraine CENL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98584 Documents numériques
peut être téléchargé
Analyse de la dynamique d’embroussaillement des pelouses calcaires par traitement d’images - pdf auteurAdobe Acrobat PDF Assessment of combining convolutional neural networks and object based image analysis to land cover classification using Sentinel 2 satellite imagery (Tenes region, Algeria) / N. Zaabar (2021)PermalinkAutomatic object extraction from airborne laser scanning point clouds for digital base map production / Elyta Widyaningrum (2021)PermalinkPermalinkBuilding extraction from Lidar data using statistical methods / Haval Abdul-Jabbar Sadeq in Photogrammetric Engineering & Remote Sensing, PERS, vol 87 n° 1 (January 2021)PermalinkCombining deep learning and mathematical morphology for historical map segmentation / Yizi Chen (2021)PermalinkConnecting images through time and sources: Introducing low-data, heterogeneous instance retrieval / Dimitri Gominski (2021)PermalinkPermalinkDescription et recherche d’image généralisables pour l’interconnexion et l’analyse multi-source / Dimitri Gominski (2021)PermalinkDétection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)PermalinkPermalinkExtraction of street pole-like objects based on plane filtering from mobile LiDAR data / Jingming Tu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkFlood mapping from radar remote sensing using automated image classification techniques / Lisa Landuyt (2021)PermalinkPermalinkPermalinkPermalinkPermalinkMask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors / Emilio Guirado in Sensors, vol 21 n° 1 (January 2021)PermalinkPermalinkPermalinkObject detection using component-graphs and ConvNets with application to astronomical images / Thanh Xuan Nguyen (2021)PermalinkPerception de scène par un système multi-capteurs, application à la navigation dans des environnements d'intérieur structuré / Marwa Chakroun (2021)PermalinkPermalinkStudy of an integrated pre-processing architecture for smart-imaging-systems, in the context of lowpower computer vision and embedded object detection / Luis Cubero Montealegre (2021)PermalinkSuivi des vignes par télédétection de proximité : le deep learning au service de l’agriculture de précision / Sami Beniaouf (2021)PermalinkSUMAC'21: Proceedings of the 3rd Workshop on Structuring and Understanding of Multimedia heritAge Contents / Valérie Gouet-Brunet (2021)PermalinkTélédétection et intégration de connaissances via la modélisation spatiale pour une cartographie plus cohérente des systèmes agricoles complexes / Arthur Crespin-Boucaud (2021)PermalinkPermalinkUnderwater object detection and reconstruction based on active single-pixel imaging and super-resolution convolutional neural network / Mengdi Li in Sensors, vol 21 n° 1 (January 2021)PermalinkUnifying remote sensing image retrieval and classification with robust fine-tuning / Dimitri Gominski (2021)PermalinkUrban construction waste with VHR remote sensing using multi-feature analysis and a hierarchical segmentation method / Qiang Chen in Remote sensing, vol 13 n° 1 (January-1 2021)PermalinkUnderstanding the role of individual units in a deep neural network / David Bau in Proceedings of the National Academy of Sciences of the United States of America PNAS, vol 117 n° 48 (1 December 2020)PermalinkUnsupervised deep joint segmentation of multitemporal high-resolution images / Sudipan Saha in IEEE Transactions on geoscience and remote sensing, Vol 58 n° 12 (December 2020)PermalinkBayesian transfer learning for object detection in optical remote sensing images / Changsheng Zhou in IEEE Transactions on geoscience and remote sensing, vol 58 n° 11 (November 2020)PermalinkBretagne, la végétation cartographiée / Marielle Mayo in Géomètre, n° 2185 (novembre 2020)PermalinkBuilding change detection using a shape context similarity model for LiDAR data / Xuzhe Lyu in ISPRS International journal of geo-information, vol 9 n° 11 (November 2020)PermalinkUrban tree species identification and carbon stock mapping for urban green planning and management / MD Abdul Choudhury in Forests, vol 11 n°11 (November 2020)PermalinkObject-based classification of mixed forest types in Mongolia / E. Nyamjargal in Geocarto international, vol 35 n° 14 ([15/10/2020])PermalinkApplication of convolutional and recurrent neural networks for buried threat detection using ground penetrating radar data / Mahdi Moalla in IEEE Transactions on geoscience and remote sensing, vol 58 n° 10 (October 2020)PermalinkExploring multiscale object-based convolutional neural network (multi-OCNN) for remote sensing image classification at high spatial resolution / Vitor Martins in ISPRS Journal of photogrammetry and remote sensing, vol 168 (October 2020)PermalinkMapping wetland using the object-based stacked generalization method based on multi-temporal optical and SAR data / Yaotong Cai in International journal of applied Earth observation and geoinformation, vol 92 (October 2020)PermalinkApplication of UAV photogrammetry with LiDAR data to facilitate the estimation of tree locations and DBH values for high-value timber species in Northern Japanese mixed-wood forests / Kyaw Thu Moe in Remote sensing, vol 12 n° 17 (September-1 2020)PermalinkComparison of tree-based classification algorithms in mapping burned forest areas / Dilek Kucuk Matci in Geodetski vestnik, vol 64 n° 3 (September - November 2020)PermalinkCSVM architectures for pixel-wise object detection in high-resolution remote sensing images / Youyou Li in IEEE Transactions on geoscience and remote sensing, vol 58 n° 9 (September 2020)PermalinkDetecting classic Maya settlements with Lidar-derived relief visualizations / Amy E. Thompson in Remote sensing, vol 12 n° 17 (September-1 2020)PermalinkEvaluation of crop mapping on fragmented and complex slope farmlands through random forest and object-oriented analysis using unmanned aerial vehicles / Re-Yang Lee in Geocarto international, vol 35 n° 12 ([01/09/2020])PermalinkHeliport detection using artificial neural networks / Emre Baseski in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 9 (September 2020)PermalinkShip detection in SAR images via local contrast of Fisher vectors / Xueqian Wang in IEEE Transactions on geoscience and remote sensing, vol 58 n° 9 (September 2020)PermalinkVehicle detection of multi-source remote sensing data using active fine-tuning network / Xin Wu in ISPRS Journal of photogrammetry and remote sensing, vol 167 (September 2020)PermalinkSemCity Toulouse: a benchmark for building instance segmentation in satellite images / Ribana Roscher in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol V-5-2020 (August 2020)PermalinkEnsemble learning for hyperspectral image classification using tangent collaborative representation / Hongjun Su in IEEE Transactions on geoscience and remote sensing, vol 58 n° 6 (June 2020)PermalinkFine-grained landuse characterization using ground-based pictures: a deep learning solution based on globally available data / Shivangi Srivastava in International journal of geographical information science IJGIS, vol 34 n° 6 (June 2020)PermalinkGeoNat v1.0: A dataset for natural feature mapping with artificial intelligence and supervised learning / Samantha T. Arundel in Transactions in GIS, Vol 24 n° 3 (June 2020)PermalinkIndoor positioning using PnP problem on mobile phone images / Hana Kubickova in ISPRS International journal of geo-information, vol 9 n° 6 (June 2020)PermalinkObject-based automatic multi-index built-up areas extraction method for WorldView-2 satellite imagery / Zhenhui Sun in Geocarto international, Vol 35 n° 8 ([01/06/2020])PermalinkPhotogrammetric determination of 3D crack opening vectors from 3D displacement fields / Frank Liebold in ISPRS Journal of photogrammetry and remote sensing, vol 164 (June 2020)PermalinkTraffic signal detection from in-vehicle GPS speed profiles using functional data analysis and machine learning / Yann Méneroux in International Journal of Data Science and Analytics JDSA, vol 10 n° 1 (June 2020)PermalinkAutomatic extraction of road intersection points from USGS historical map series using deep convolutional neural networks / Mahmoud Saeedimoghaddam in International journal of geographical information science IJGIS, vol 34 n° 5 (May 2020)PermalinkDiscrimination of different sea ice types from CryoSat-2 satellite data using an Object-based Random Forest (ORF) / Su Shu in Marine geodesy, Vol 43 n° 3 (May 2020)PermalinkMapping urban grey and green structures for liveable cities using a 3D enhanced OBIA approach and vital statistics / E. Banzhaf in Geocarto international, vol 35 n° 6 ([01/05/2020])PermalinkModeling strawberry biomass and leaf area using object-based analysis of high-resolution images / Zhen Guan in ISPRS Journal of photogrammetry and remote sensing, vol 163 (May 2020)PermalinkAutomated terrain feature identification from remote sensing imagery: a deep learning approach / Wenwen Li in International journal of geographical information science IJGIS, vol 34 n° 4 (April 2020)PermalinkGeocoding of trees from street addresses and street-level images / Daniel Laumer in ISPRS Journal of photogrammetry and remote sensing, vol 162 (April 2020)PermalinkAssessment of salt marsh change on Assateague Island National Seashore between 1962 and 2016 / Anthony Campbell in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 3 (March 2020)PermalinkClassification and segmentation of mining area objects in large-scale spares Lidar point cloud using a novel rotated density network / Yueguan Yan in ISPRS International journal of geo-information, vol 9 n° 3 (March 2020)PermalinkHeuristic sample learning for complex urban scenes: Application to urban functional-zone mapping with VHR images and POI data / Xiuyuan Zhang in ISPRS Journal of photogrammetry and remote sensing, vol 161 (March 2020)PermalinkThe application of bidirectional reflectance distribution function data to recognize the spatial heterogeneity of mixed pixels in vegetation remote sensing: a simulation study / Yanan Yan in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 3 (March 2020)Permalink3D iterative spatiotemporal filtering for classification of multitemporal satellite data sets / Hessah Albanwan in Photogrammetric Engineering & Remote Sensing, PERS, vol 86 n° 1 (January 2020)PermalinkAnalyse automatique du couvert végétal pour la gestion du risque végétation en milieu ferroviaire à partir d'imagerie aérienne / Hélène Rouillon (2020)PermalinkAnalyse, structuration et sémantisation des images aériennes [diaporama] / Valérie Gouet-Brunet (2020)PermalinkApplication of machine learning techniques for evidential 3D perception, in the context of autonomous driving / Edouard Capellier (2020)PermalinkPermalinkCattle detection and counting in UAV images based on convolutional neural networks / Wen Shao in International Journal of Remote Sensing IJRS, vol 41 n° 1 (01 - 08 janvier 2020)PermalinkClassification of poplar trees with object-based ensemble learning algorithms using Sentinel-2A imagery / H. Tombul in Journal of geodetic science, vol 10 n° 1 (January 2020)PermalinkContext-aware convolutional neural network for object detection in VHR remote sensing imagery / Yiping Gong in IEEE Transactions on geoscience and remote sensing, vol 58 n° 1 (January 2020)PermalinkPermalinkPermalinkDétection et vectorisation automatiqued’objets linéaires dans des nuages de points de voirie / Etienne Barçon (2020)PermalinkPermalinkIdentification of alpine glaciers in the central Himalayas using fully polarimetric L-Band SAR data / Guo-Hui Yao in IEEE Transactions on geoscience and remote sensing, vol 58 n° 1 (January 2020)PermalinkImage processing applications in object detection and graph matching: from Matlab development to GPU framework / Beibei Cui (2020)PermalinkPermalinkPermalinkRecherche multimodale d'images aériennes multi-date à l'aide d'un réseau siamois / Margarita Khokhlova (2020)PermalinkReconnaissance automatique d’objets pour le jumeau numérique ferroviaire à partir d’imagerie aérienne / Valentin Desbiolles (2020)PermalinkPermalinkPermalinkSatellite image time series classification with pixel-set encoders and temporal self-attention / Vivien Sainte Fare Garnot (2020)PermalinkSimulation d’éclairements des surfaces ombrées en zone urbaine par transfert radiatif 3D (modèle DART) / Yulu Xi (2020)PermalinkSUMAC'20 : Proceedings of the 2nd Workshop on Structuring and Understanding of Multimedia heritAge Contents / Valérie Gouet-Brunet (2020)PermalinkPermalinkShip identification and characterization in Sentinel-1 SAR images with multi-task deep learning / Clément Dechesne in Remote sensing, Vol 11 n° 24 (December-2 2019)PermalinkHalf a percent of labels is enough: efficient animal detection in UAV imagery using deep CNNs and active learning / Benjamin Kellenberger in IEEE Transactions on geoscience and remote sensing, vol 57 n° 12 (December 2019)PermalinkA two-scale approach for estimating forest aboveground biomass with optical remote sensing images in a subtropical forest of Nepal / Upama A. Koju in Journal of Forestry Research, vol 30 n° 6 (December 2019)PermalinkSig-NMS-based faster R-CNN combining transfer learning for small target detection in VHR optical remote sensing imagery / Ruchan Dong in IEEE Transactions on geoscience and remote sensing, vol 57 n° 11 (November 2019)PermalinkOptimal segmentation of high spatial resolution images for the classification of buildings using random forests / James Bialas in International journal of applied Earth observation and geoinformation, vol 82 (October 2019)Permalink