Descripteur
Documents disponibles dans cette catégorie (890)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deep convolutional neural networks for scene understanding and motion planning for self-driving vehicles / Abdelhak Loukkal (2021)
Titre : Deep convolutional neural networks for scene understanding and motion planning for self-driving vehicles Type de document : Thèse/HDR Auteurs : Abdelhak Loukkal, Auteur ; Yves Grandvalet, Directeur de thèse Editeur : Compiègne : Université de Technologie de Compiègne UTC Année de publication : 2021 Importance : 129 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse présentée pour l’obtention du grade de Docteur de l’UTC, spécialité InformatiqueLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] compréhension de l'image
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fusion de données multisource
[Termes IGN] navigation autonome
[Termes IGN] reconnaissance de formes
[Termes IGN] réseau neuronal profond
[Termes IGN] segmentation sémantique
[Termes IGN] système de navigation
[Termes IGN] véhicule automobile
[Termes IGN] vision monoculaire
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) During this thesis, some perception approaches for self-driving vehicles were developed using de convolutional neural networks applied to monocular camera images and High-Definition map (HD-ma rasterized images. We focused on camera-only solutions instead of leveraging sensor fusion with rang sensors because cameras are the most cost-effective and discrete sensors. The objective was also to show th camera-based approaches can perform at par with LiDAR-based solutions on certain 3D vision tasks. Rea world data was used for training and evaluation of the developed approaches but simulation was als leveraged when annotated data was lacking or for safety reasons when evaluating driving capabilities. Cameras provide visual information in a projective space where the perspective effect does not preserve th distances homogeneity. Scene understanding tasks such as semantic segmentation are then often operated i the camera-view space and then projected to 3D using a precise depth sensor such as a LiDAR. Having thi scene understanding in the 3D space is useful because the vehicles evolve in the 3D world and the navigatio algorithms reason in this space. Our focus was then to leverage the geometric knowledge about the camer parameters and its position in the 3D world to develop an approach that allows scene understanding in the 3D space using only a monocular image as input. Neural networks have also proven to be useful for more than just perception and are more and more used fo the navigation and planning tasks that build on the perception outputs. Being able to output 3D scen understanding information from a monocular camera has also allowed us to explore the possibility of havin an end-to-end holistic neural network that takes a camera image as input, extracts intermediate semantic information in the 3D space and then lans the vehicle's trajectory. Note de contenu : 1. Introduction
1.1 General context
1.2 Framework and objectives
1.3 Organization and contributions of the thesis
2. Background and related work
2.1 Introduction
2.2 Autonomous driving perception datasets
2.3 Autonomous driving simulators
2.4 Semantic segmentation with CNNs
2.5 Monocular depth estimation with CNNs
2.6 Driving with imitation learning
2.7 Conclusion
3. Semantic segmentation using cartographic and depth maps
3.1 Introduction
3.2 Synthetic dataset
3.3 Proposed methods
3.4 Experiments
3.5 Conclusion
4. Disparity weighted loss for semantic segmentation
4.1 Introduction
4.2 Disparity weighting for semantic segmentation
4.3 Experiments
4.4 Conclusion
5. FlatMobileNet: Bird-Eye-View semantic masks from a monoc?ular camera
5.1 Introduction
5.2 Theoretical framework
5.3 FlatMobile network: footprint segmentation
5.4 Conclusion
6. Driving among flatmobiles
6.1 Introduction
6.2 Encoder-decoder LSTM for trajectory planning
6.3 Experimental evaluation
6.4 Conclusion
7. Conclusion
7.1 Contributions
7.2 PerspectivesNuméro de notice : 26769 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Informatique : Compiègne : 2021 Organisme de stage : Heuristique et Diagnostic des Systèmes Complexes HeuDiaSyC nature-HAL : Thèse DOI : sans Date de publication en ligne : 25/10/2021 En ligne : https://tel.hal.science/tel-03402541/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99871
Titre : Deep-learning for 3D reconstruction Type de document : Thèse/HDR Auteurs : Fabio Tosi, Auteur Editeur : Bologne [Italie] : Université de Bologne Année de publication : 2021 Format : 21 x 30 cm Note générale : bibliographie
PhD Thesis in Computer Science and EngineeringLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] apprentissage profond
[Termes IGN] carte de confiance
[Termes IGN] compréhension de l'image
[Termes IGN] profondeur
[Termes IGN] reconstruction 3D
[Termes IGN] réseau antagoniste génératif
[Termes IGN] vision stéréoscopiqueRésumé : (auteur) Depth perception is paramount for many computer vision applications such as autonomous driving and augmented reality. Despite active sensors (e.g., LiDAR, Time-of-Flight, struc- tured light) are quite diffused, they have severe shortcomings that could be potentially addressed by image-based sensors. Concerning this latter category, deep learning has enabled ground-breaking results in tackling well-known issues affecting the accuracy of systems inferring depth from a single or multiple images in specific circumstances (e.g., low textured regions, depth discontinuities, etc.), but also introduced additional concerns about the domain shift occurring between training and target environments and the need of proper ground truth depth labels to be used as the training signals in network learning. Moreover, despite the copious literature concerning confidence estimation for depth from a stereo setup, inferring depth uncertainty when dealing with deep networks is still a major challenge and almost unexplored research area, especially when dealing with a monocular setup. Finally, computational complexity is another crucial aspect to be considered when targeting most practical applications and hence is desirable not only to infer reliable depth data but do so in real-time and with low power requirements even on standard embedded devices or smartphones. Therefore, focusing on stereo and monocular setups, this thesis tackles major issues affecting methodologies to infer depth from images and aims at developing accurate and efficient frameworks for accurate 3D reconstruction on challenging environments. Note de contenu : Introduction
1- Related work
2- Datasets
3- Evaluation protocols
4- Confidence measures in a machine learning world
5- Efficient confidence measures for embedded stereo
6- Even more confident predictions with deep machine-learning
7- Beyond local reasoning for stereo confidence estimation with deep learning
8- Good cues to learn from scratch a confidence measure for passive depth sensors
9- Confidence estimation for ToF and stereo sensors and its application to depth data fusion
10- Learning confidence measures in the wild
11- Self-adapting confidence estimation for stereo
12- Leveraging confident points for accurate depth refinement on embedded systems
13- SMD-Nets: Stereo Mixture Density Networks
14- Real-time self-adaptive deep stereo
15- Guided stereo matching
16- Reversing the cycle: self-supervised deep stereo through enhanced monocular distillation
17- Learning end-to-end scene flow by distilling single tasks knowledge
18- Learning monocular depth estimation with unsupervised trinocular assumptions
19- Geometry meets semantics for semi-supervised monocular depth estimation
20- Generative Adversarial Networks for unsupervised monocular depth prediction
21- Learning monocular depth estimation infusing traditional stereo knowled
22- Towards real-time unsupervised monocular depth estimation on CPU
23- Enabling energy-efficient unsupervised monocular depth estimation on ARMv7-based platforms
24- Distilled semantics for comprehensive scene understanding from videos
25- On the uncertainty of self-supervised monocular depth estimation
ConclusionNuméro de notice : 28596 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse étrangère Note de thèse : Thèse de Doctorat : Computer Science and Engineering : Bologne : 2021 DOI : 10.48676/unibo/amsdottorato/9816 En ligne : http://amsdottorato.unibo.it/9816/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99325 Deep learning for wildfire progression monitoring using SAR and optical satellite image time series / Puzhao Zhang (2021)
Titre : Deep learning for wildfire progression monitoring using SAR and optical satellite image time series Type de document : Thèse/HDR Auteurs : Puzhao Zhang, Auteur Editeur : Stockholm : Royal Institute of Technology Année de publication : 2021 Importance : 100 p. Format : 21 x 30 cm ISBN/ISSN/EAN : 978-91-7873-935-6 Note générale : bibliographie
Doctoral Thesis in GeoinformaticsLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] Alberta (Canada)
[Termes IGN] apprentissage profond
[Termes IGN] bande C
[Termes IGN] Californie (Etats-Unis)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] Colombie-Britannique (Canada)
[Termes IGN] détection de changement
[Termes IGN] gestion des risques
[Termes IGN] image radar moirée
[Termes IGN] image Sentinel-SAR
[Termes IGN] incendie de forêt
[Termes IGN] série temporelle
[Termes IGN] surveillance forestière
[Termes IGN] Sydney (Nouvelle-Galles du Sud)
[Termes IGN] zone sinistréeRésumé : (auteur) Wildfires have coexisted with human societies for more than 350 million years, always playing an important role in affecting the Earth's surface and climate. Across the globe, wildfires are becoming larger, more frequent, and longer-duration, and tend to be more destructive both in lives lost and economic costs, because of climate change and human activities. To reduce the damages from such destructive wildfires, it is critical to track wildfire progressions in near real-time, or even real-time. Satellite remote sensing enables cost-effective, accurate, and timely monitoring on the wildfire progressions over vast geographic areas. The free availability of global coverage Landsat-8 and Sentinel-1/2 data opens the new era for global land surface monitoring, providing an opportunity to analyze wildfire impacts around the globe. The advances in both cloud computing and deep learning empower the automatic interpretation of spatio-temporal remote sensing big data on a large scale. The overall objective of this thesis is to investigate the potential of modern medium resolution earth observation data, especially Sentinel-1 C-Band synthetic aperture radar (SAR) data, in wildfire monitoring and develop operational and effective approaches for real-world applications. This thesis systematically analyzes the physical basis of earth observation data for wildfire applications, and critically reviews the available wildfire burned area mapping methods in terms of satellite data, such as SAR, optical, and SAR-Optical fusion. Taking into account its great power in learning useful representations, deep learning is adopted as the main tool to extract wildfire-induced changes from SAR and optical image time series. On a regional scale, this thesis has conducted the following four fundamental studies that may have the potential to further pave the way for achieving larger scale or even global wildfire monitoring applications. To avoid manual selection of temporal indices and to highlight wildfire-induced changes in burned areas, we proposed an implicit radar convolutional burn index (RCBI), with which we assessed the roles of Sentinel-1 C-Band SAR intensity and phase in SAR-based burned area mapping. The experimental results show that RCBI is more effective than the conventional log-ratio differencing approach in detecting burned areas. Though VV intensity itself may perform poorly, the accuracy can be significantly improved when phase information is integrated using Interferometric SAR (InSAR). On the other hand, VV intensity also shows the potential to improve VH intensity-based detection results with RCBI. By exploiting VH and VV intensity together, the proposed RCBI achieved an overall mapping accuracy of 94.68% and 94.17% on the 2017 Thomas Fire and the 2018 Carr Fire. For the scenario of near real-time application, we investigated and demonstrated the potential Sentinel-1 SAR time series for wildfire progression monitoring with Convolutional Neural Networks (CNN). In this study, the available pre-fire SAR time series were exploited to compute temporal average and standard deviation for characterizing SAR backscatter behaviors over time and highlighting the changes with kMap. Trained with binarized kMap time series in a progression-wise manner, CNN showed good capability in detecting wildfire burned areas and capturing temporal progressions as demonstrated on three large and impactful wildfires with various topographic conditions. Compared to the pseudo masks (binarized kMap), CNN-based framework brought an 0.18 improvement in F1 score on the 2018 Camp Fire, and 0.23 on the 2019 Chuckegg Creek Fire. The experimental results demonstrated that spaceborne SAR time series with deep learning can play a significant role for near real-time wildfire monitoring when the data becomes available at daily and hourly intervals. For continuous wildfire progression mapping, we proposed a novel framework of learning U-Net without forgetting in a near real-time manner. By imposing a temporal consistency restriction on the network response, Learning without Forgetting (LwF) allows the U-Net to learn new capabilities for better handling with newly incoming data, and simultaneously keep its existing capabilities learned before. Unlike the continuous joint training (CJT) with all available historical data, LwF makes U-Net learning not dependent on the historical training data any more. To improve the quality of SAR-based pseudo progression masks, we accumulated the burned areas detected by optical data acquired prior to SAR observations. The experimental results demonstrated that LwF has the potential to match CJT in terms of the agreement between SAR-based results and optical-based ground truth, achieving a F1 score of 0.8423 on the Sydney Fire (2019-2020) and 0.7807 on the Chuckegg Creek Fire (2019). We also found that the SAR cross-polarization ratio (VH/VV) can be very useful in highlighting burned areas when VH and VV have diverse temporal change behaviors. SAR-based change detection often suffers from the variability of the surrounding background noise, we proposed a Total Variation (TV)-regularized U-Net model to relieve the influence of SAR-based noisy masks. Considering the small size of labeled wildfire data, transfer learning was adopted to fine-tune U-Net from pre-trained weights based on the past wildfire data. We quantified the effects of TV regularization on increasing the connectivity of SAR-based areas, and found that TV-regularized U-Net can significantly increase the burned area mapping accuracy, bringing an improvement of 0.0338 in F1 score and 0.0386 in IoU score on the validation set. With TV regularization, U-Net trained with noisy SAR masks achieved the highest F1 (0.6904) and IoU (0.5295), while U-Net trained with optical reference mask achieved the highest F1 (0.7529) and IoU (0.6054) score without TV regularization. When applied on wildfire progression mapping, TV-regularized U-Net also worked significantly better than vanilla U-Net with the supervision of noisy SAR-based masks, visually comparable to optical mask-based results. On the regional scale, we demonstrated the effectiveness of deep learning on SAR-based and SAR-optical fusion based wildfire progression mapping. To scale up deep learning models and make them globally applicable, large-scale globally distributed data is needed. Considering the scarcity of labelled data in the field of remote sensing, weakly/self-supervised learning will be our main research directions to go in the near future. Note de contenu : 1- Introduction
2- Literature review
3- Study areas and data
4- Metodology
5- Results and discussionNuméro de notice : 28309 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Thèse étrangère Note de thèse : PhD Thesis : Geomatics : RTK Stockholm : 2021 DOI : sans En ligne : http://kth.diva-portal.org/smash/record.jsf?pid=diva2%3A1557429 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98130 Description et recherche d’image généralisables pour l’interconnexion et l’analyse multi-source / Dimitri Gominski (2021)
Titre : Description et recherche d’image généralisables pour l’interconnexion et l’analyse multi-source Type de document : Thèse/HDR Auteurs : Dimitri Gominski , Auteur ; Valérie Gouet-Brunet , Directeur de thèse ; Liming Chen, Directeur de thèse Editeur : Champs-sur-Marne [France] : Université Gustave Eiffel Année de publication : 2021 Autre Editeur : Lyon : Ecole Centrale de Lyon Projets : Alegoria / Gouet-Brunet, Valérie Note générale : bibliographie
thèse soutenue le 9 nov. 2021, à l'Université Gustave Eiffel, dans le cadre de l'École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication, en partenariat avec LaSTIG - Laboratoire en Sciences et Technologies de l'Information Géographique (laboratoire).Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] appariement d'images
[Termes IGN] apprentissage profond
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] image multi sources
[Termes IGN] indexation sémantique
[Termes IGN] méthode robuste
[Termes IGN] recherche d'image basée sur le contenuIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Avec un volume toujours plus grand d'images accessibles numériquement, établir des connexions pour structurer et analyser les données devient d'autant plus important. Une formulation typique pour connecter entre elles des images sans utiliser de métadonnées est la recherche d'image basée contenu (RIBC). Similairement aux autres applications en vision par ordinateur, la RIBC a bénéficié du pouvoir expressif des réseaux de neurones convolutifs (CNN) et obtenu des résultats inédits sur les benchmarks usuels. Cependant, il est difficile de dire si cette performance est due à la proposition d'architectures et de modèles toujours plus évolués, ou simplement à la présence d'un jeu de données d'entraînement qui correspond bien au cas d'usage, c'est-à-dire qui a des caractéristiques visuelles et sémantiques similaires. En effet, le paradigme habituel du couple modèle-jeu d'entraînement montre ses limites dès lors qu'on sort du cas caractérisé par les données d'entraînement: la performance chute si on teste sur des données différentes ou avec une variabilité trop grande.
Cette thèse s'intéresse à cette question avec un regard critique sur les méthodes d'apprentissage profond et leur potentiel réel d'application. Dans un contexte d'imagerie territoriale multi-sources, un benchmark est proposé pour caractériser un nouveau problème de recherche : la recherche d'image hétérogène, "low-data" (sans données d'entraînement), avec un cas d'utilisation où définir un jeu de données d'entraînement et une méthode "baseline" n'est pas facile. Avec ce benchmark, de nouvelles mesures sont proposées pour qualifier la capacité à généraliser du modèle dans un contexte RIBC, puis des solutions techniques qui permettent de s'affranchir de la définition hasardeuse des sus-citées "caractéristiques visuelles et sémantiques similaires". La discussion autour des résultats permet de mettre en valeur une importance probablement trop grande donnée à l'architecture des réseaux de neurones, et des pistes prometteuses dans la RIBC qui fournit des outils agnostiques du modèle utilisé, et permettant d'exploiter les avantages comparatifs de différents modèles entraînés sur différents jeux de données. Enfin, l'intérêt de cette approche généraliste est confirmé par une application à un cas où malgré l'abondance de méthodes et de données, elles sont encapsulées dans un ensemble de petits datasets et donc peu généralisables: la classification d'occupation au sol en imagerie satellite.Numéro de notice : 14738 Affiliation des auteurs : UGE-LASTIG (2020- ) Autre URL associée : vers theses Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse : : Gustave Eiffel : 2021 Organisme de stage : LaSTIG (IGN) & LIRIS (Ecole Centrale de Lyon) nature-HAL : Thèse DOI : sans En ligne : https://theses.hal.science/tel-03629550 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98921 Détection d’ouvertures par segmentation sémantique de nuages de points 3D : apport de l’apprentissage profond / Camille Lhenry (2021)
Titre : Détection d’ouvertures par segmentation sémantique de nuages de points 3D : apport de l’apprentissage profond Type de document : Mémoire Auteurs : Camille Lhenry, Auteur Editeur : Strasbourg : Institut National des Sciences Appliquées INSA Strasbourg Année de publication : 2021 Importance : 106 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage profond
[Termes IGN] base de données dérivée
[Termes IGN] classification par Perceptron multicouche
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] fenêtre (bâtiment)
[Termes IGN] image RVB
[Termes IGN] image thermique
[Termes IGN] modélisation 3D du bâti BIM
[Termes IGN] Python (langage de programmation)
[Termes IGN] réseau neuronal de graphes
[Termes IGN] segmentation sémantique
[Termes IGN] semis de pointsIndex. décimale : INSAS Mémoires d'ingénieur de l'INSA Strasbourg - Topographie, ex ENSAIS Résumé : (auteur) Grâce au développement rapide des techniques d’acquisition 3D, les nuages de points sont de plus en plus utilisés dans divers domaines. Ils sont notamment la donnée de départ pour le développement de BIM (Building Information Modeling) de bâtiments existants, processus permettant le travail collaboratif des différents corps de métier. Néanmoins, le traitement de cette donnée est une étape majoritairement manuelle, longue et chronophage. Ce projet de fin d’études s’inscrit donc dans une problématique d’automatisation des traitements menant du nuage de points au BIM et se concentre sur la segmentation automatique des ouvertures des bâtiments. Cette problématique a été abordée par de multiples auteurs avec des méthodes algorithmiques ou d’apprentissage machine, qui nécessitent une certaine implication de l’utilisateur. Profitant de l’expansion du domaine de l’apprentissage profond, le réseau de neurones PointNet++ (Qi, Yi, Su & Guibas 2017) a été utilisé pour répondre à l’objectif de l’étude. Malgré les difficultés inhérentes à la nature des éléments à segmenter (transparence des matériaux, variabilité des styles architecturaux), la qualité de segmentation des ouvertures est prometteuse, notamment en couplant l’information thermique au nuage de points. Le défi majeur mis en évidence par l’étude est le manque de bases de données d’apprentissage, indispensables à l’utilisation de réseaux de neurones. Face à cet obstacle, une solution semi-automatique nécessitant la labellisation manuelle d’une portion limitée du bâtiment est présentée. Note de contenu : Introduction
1- Etat de l'art
2- Développement de la méthode
3- Résultats et discussions
Conclusions et perspectivesNuméro de notice : 28682 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE/IMAGERIE Nature : Mémoire ingénieur INSAS Organisme de stage : Laboratoire ICUBE En ligne : http://eprints2.insa-strasbourg.fr/4492/ Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99976 Détection/reconnaissance d'objets urbains à partir de données 3D multicapteurs prises au niveau du sol, en continu / Younes Zegaoui (2021)PermalinkDétection et reconstruction 3D d’arbres urbains par segmentation de nuages de points : apport de l’apprentissage profond / Victor Alteirac (2021)PermalinkDynamic committee machine with fuzzy-c-means clustering for total organic carbon content prediction from wireline logs / Yang Bai in Computers & geosciences, vol 146 (January 2021)PermalinkEvaluation of a neural network with uncertainty for detection of ice and water in SAR imagery / Nazanin Asadi in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkExploration of reinforcement learning algorithms for autonomous vehicle visual perception and control / Florence Carton (2021)PermalinkExtracting event-related information from a corpus regarding soil industrial pollution / Chuanming Dong (2021)PermalinkExtraction of street pole-like objects based on plane filtering from mobile LiDAR data / Jingming Tu in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkFrom local to global: A transfer learning-based approach for mapping poplar plantations at national scale using Sentinel-2 / Yousra Hamrouni in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)PermalinkFrom point clouds to high-fidelity models - advanced methods for image-based 3D reconstruction / Audrey Richard (2021)PermalinkFuNet: A novel road extraction network with fusion of location data and remote sensing imagery / Kai Zhou in ISPRS International journal of geo-information, vol 10 n° 1 (January 2021)PermalinkGenerative adversarial networks to generalise urban areas in topographic maps / Azelle Courtial (2021)PermalinkGeometric computer vision: omnidirectional visual and remotely sensed data analysis / Pouria Babahajiani (2021)PermalinkPermalinkImage matching from handcrafted to deep features: A survey / Jiayi Ma in International journal of computer vision, vol 29 n° 1 (January 2021)PermalinkImproving traffic sign recognition results in urban areas by overcoming the impact of scale and rotation / Roholah Yazdan in ISPRS Journal of photogrammetry and remote sensing, vol 171 (January 2021)PermalinkInferencing hourly traffic volume using data-driven machine learning and graph theory / Zhiyan Yi in Computers, Environment and Urban Systems, vol 85 (January 2021)PermalinkInitialization methods of convolutional neural networks for detection of image manipulations / Ivan Castillo Camacho (2021)PermalinkIntegrating multilayer perceptron neural nets with hybrid ensemble classifiers for deforestation probability assessment in Eastern India / Sunil Saha in Geomatics, Natural Hazards and Risk, vol 12 n° 1 (2021)PermalinkIntelligent sensors for positioning, tracking, monitoring, navigation and smart sensing in smart cities / Li Tiancheng (2021)PermalinkPermalinkLANet: Local attention embedding to improve the semantic segmentation of remote sensing images / Lei Ding in IEEE Transactions on geoscience and remote sensing, vol 59 n° 1 (January 2021)PermalinkLearning-based representations and methods for 3D shape analysis, manipulation and reconstruction / Marie-Julie Rakotosaona (2021)PermalinkPermalinkLearning disentangled representations of satellite image time series in a weakly supervised manner / Eduardo Hugo Sanchez (2021)PermalinkLearning embeddings for cross-time geographic areas represented as graphs / Margarita Khokhlova (2021)PermalinkPermalinkLearning to translate land-cover maps: Several multi-dimensional context-wise solutions / Luc Baudoux (2021)PermalinkLeveraging class hierarchies with metric-guided prototype learning / Vivien Sainte Fare Garnot (2021)PermalinkPermalinkMachine learning for the distributed and dynamic management of a fleet of taxis and autonomous shuttles / Tatiana Babicheva (2021)PermalinkMask R-CNN and OBIA fusion improves the segmentation of scattered vegetation in very high-resolution optical sensors / Emilio Guirado in Sensors, vol 21 n° 1 (January 2021)PermalinkPermalinkA method of hydrographic survey technology selection based on the decision tree supervised learning / Ivana Golub Medvešek (2021)PermalinkPermalinkPermalinkPermalinkPermalinkPermalinkA new method for improving the performance of an ionospheric model developed by multi-instrument measurements based on artificial neural network / Wang Li in Advances in space research, vol 67 n° 1 (January 2021)PermalinkPermalinkPanoptic segmentation of satellite image time series with convolutional temporal attention networks / Vivien Sainte Fare Garnot (2021)PermalinkPermalinkProduction et mise à jour d’un produit BD Forêt V3 par apprentissage profond / Sébastien Giordano (2021)PermalinkPermalinkPermalink