Descripteur
Termes IGN > informatique > intelligence artificielle > apprentissage automatique > apprentissage profond
apprentissage profond |
Documents disponibles dans cette catégorie (142)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deep-learning-based multispectral image reconstruction from single natural color RGB image - Enhancing UAV-based phenotyping / Jiangsan Zhao in Remote sensing, vol 14 n° 5 (March-1 2022)
[article]
Titre : Deep-learning-based multispectral image reconstruction from single natural color RGB image - Enhancing UAV-based phenotyping Type de document : Article/Communication Auteurs : Jiangsan Zhao, Auteur ; Ajay Kumar, Auteur ; Balaji Naik Banoth, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : n° 1272; Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] agriculture de précision
[Termes IGN] apprentissage profond
[Termes IGN] erreur absolue
[Termes IGN] image multibande
[Termes IGN] image RVB
[Termes IGN] Inde
[Termes IGN] phénologie
[Termes IGN] reconstruction d'imageRésumé : (auteur) Multispectral images (MSIs) are valuable for precision agriculture due to the extra spectral information acquired compared to natural color RGB (ncRGB) images. In this paper, we thus aim to generate high spatial MSIs through a robust, deep-learning-based reconstruction method using ncRGB images. Using the data from the agronomic research trial for maize and breeding research trial for rice, we first reproduced ncRGB images from MSIs through a rendering model, Model-True to natural color image (Model-TN), which was built using a benchmark hyperspectral image dataset. Subsequently, an MSI reconstruction model, Model-Natural color to Multispectral image (Model-NM), was trained based on prepared ncRGB (ncRGB-Con) images and MSI pairs, ensuring the model can use widely available ncRGB images as input. The integrated loss function of mean relative absolute error (MRAEloss) and spectral information divergence (SIDloss) were most effective during the building of both models, while models using the MRAEloss function were more robust towards variability between growing seasons and species. The reliability of the reconstructed MSIs was demonstrated by high coefficients of determination compared to ground truth values, using the Normalized Difference Vegetation Index (NDVI) as an example. The advantages of using “reconstructed” NDVI over Triangular Greenness Index (TGI), as calculated directly from RGB images, were illustrated by their higher capabilities in differentiating three levels of irrigation treatments on maize plants. This study emphasizes that the performance of MSI reconstruction models could benefit from an optimized loss function and the intermediate step of ncRGB image preparation. The ability of the developed models to reconstruct high-quality MSIs from low-cost ncRGB images will, in particular, promote the application for plant phenotyping in precision agriculture. Numéro de notice : A2022-210 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.3390/rs14051272 Date de publication en ligne : 05/03/2022 En ligne : https://doi.org/10.3390/rs14051272 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100033
in Remote sensing > vol 14 n° 5 (March-1 2022) . - n° 1272;[article]Évaluation des apports de l’apprentissage profond au sein d’un service dédié à la numérisation du patrimoine / Maxime Mérizette in XYZ, n° 170 (mars 2022)
[article]
Titre : Évaluation des apports de l’apprentissage profond au sein d’un service dédié à la numérisation du patrimoine Type de document : Article/Communication Auteurs : Maxime Mérizette, Auteur Année de publication : 2022 Article en page(s) : pp 61 - 65 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes IGN] apprentissage dirigé
[Termes IGN] apprentissage profond
[Termes IGN] données laser
[Termes IGN] données localisées 3D
[Termes IGN] jeu de données localisées
[Termes IGN] modélisation 3D du bâti BIM
[Termes IGN] qualité des données
[Termes IGN] reconstruction 3D du bâti
[Termes IGN] segmentation d'image
[Termes IGN] semis de pointsRésumé : (Auteur) Les scanners laser terrestres permettent d’acquérir beaucoup de données tout en présentant une rapidité et une facilité d’acquisition. Mais ceci est terni par le manque d’automatisation des traitements de nuages de points. La segmentation de nuage de points, consistant à extraire les éléments constitutifs d’un nuage, pâtit notamment de ce manque. Ce travail de fin d’études d’ingénieur, mené chez Quarta, se concentre sur les apports de l’apprentissage profond pour la réalisation d’une segmentation de nuage de points. Elle se propose de lister les différentes méthodes d’apprentissage profond permettant de travailler sur les nuages de points et teste différents algorithmes permettant de traiter les nuages de points volumineux. Numéro de notice : A2022-226 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100192
in XYZ > n° 170 (mars 2022) . - pp 61 - 65[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 112-2022011 RAB Revue Centre de documentation En réserve L003 Disponible Hierarchical learning with backtracking algorithm based on the visual confusion label tree for large-scale image classification / Yuntao Liu in The Visual Computer, vol 38 n° 3 (March 2022)
[article]
Titre : Hierarchical learning with backtracking algorithm based on the visual confusion label tree for large-scale image classification Type de document : Article/Communication Auteurs : Yuntao Liu, Auteur ; Yong Dou, Auteur ; Ruochun Jin, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : pp 897 - 917 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] apprentissage automatique
[Termes IGN] classification bayesienne
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] réseau neuronal convolutif
[Termes IGN] segmentation sémantiqueRésumé : (auteur) In this paper, a hierarchical learning algorithm based on the Bayesian Neural Network classifier with backtracking is proposed to support large-scale image classification, where a Visual Confusion Label Tree is established for constructing a hierarchical structure for large numbers of categories in image datasets and determining the hierarchical learning tasks automatically. Specifically, the Visual Confusion Label Tree is established based on outputs of convolution neural network models. One parent node on the Visual Confusion Label Tree contains a set of sibling coarse-grained categories, and child nodes have several sets of fine-grained categories which are partitions of categories on the parent node. The proposed Hierarchical Bayesian Neural Network with backtracking algorithm can benefit from the hierarchical structure of the Visual Confusion Label Tree. Focusing on those confusion subsets instead of the entire set of categories makes the classification ability of the tree classifier stronger. The backtracking algorithm can utilize the uncertainty information captured from the Bayesian Neural Network to make a second classification to re-correct samples that were classified incorrectly in the previous classification process. Experiments on four large-scale datasets show that our tree classifier obtains a significant improvement over the state-of-the-art tree classifier, which have demonstrated the discriminative hierarchical structure of our Visual Confusion Label Tree and the effectiveness of our Hierarchical Bayesian Neural Network with backtracking algorithm. Numéro de notice : A2022-149 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Article DOI : 10.1007/s00371-021-02058-w Date de publication en ligne : 04/02/2021 En ligne : http://dx.doi.org/10.1007/s00371-021-02058-w Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=100070
in The Visual Computer > vol 38 n° 3 (March 2022) . - pp 897 - 917[article]Identification de relations spatiales par apprentissage profond sur des graphes / Azelle Courtial in Cartes & Géomatique, n° 247-248 (mars-juin 2022)
[article]
Titre : Identification de relations spatiales par apprentissage profond sur des graphes Type de document : Article/Communication Auteurs : Azelle Courtial , Auteur ; Guillaume Touya , Auteur ; Xiang Zhang, Auteur Année de publication : 2022 Conférence : ICC 2021, 30th ICA international cartographic conference 14/12/2021 18/12/2021 Florence Italie Article en page(s) : pp 77 - 80 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Termes IGN] alignement
[Termes IGN] apprentissage profond
[Termes IGN] généralisation cartographique automatisée
[Termes IGN] relation spatiale
[Termes IGN] réseau neuronal convolutif
[Termes IGN] réseau routier
[Vedettes matières IGN] GénéralisationRésumé : (Auteur) L'identification des structures et relations spatiales est une tâche clé de la généralisation cartographique automatique. Dans cet article, nous explorons le potentiel des réseaux d'apprentissage profond par convolution sur des graphes (GCN) pour apprendre à identifier des relations spatiales à travers deux cas d'études : la détection d'alignement et la sélection du réseau routier. Nos résultats sont plutôt encourageants et mettent en lumière les enjeux liés à la construction et l'enrichissement d'une structure de graphes adaptée à la tâche dont on désire l'apprentissage. Numéro de notice : A2022-679 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueNat DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101900
in Cartes & Géomatique > n° 247-248 (mars-juin 2022) . - pp 77 - 80[article]Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 021-2022011 SL Revue Centre de documentation Revues en salle Disponible Neural map style transfer exploration with GANs / Sidonie Christophe in International journal of cartography, vol 8 n° 1 (March 2022)
[article]
Titre : Neural map style transfer exploration with GANs Type de document : Article/Communication Auteurs : Sidonie Christophe , Auteur ; Samuel Mermet , Auteur ; Morgan Laurent, Auteur ; Guillaume Touya , Auteur Année de publication : 2022 Projets : 1-Pas de projet / Article en page(s) : pp 18 - 36 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes IGN] apprentissage profond
[Termes IGN] classification non dirigée
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] données d'entrainement (apprentissage automatique)
[Termes IGN] grille d'échantillonnage
[Termes IGN] orthoimage
[Termes IGN] représentation cartographique
[Termes IGN] réseau antagoniste génératif
[Termes IGN] style cartographique
[Termes IGN] visualisation cartographique
[Vedettes matières IGN] GéovisualisationRésumé : (auteur) Neural Style Transfer is a Computer Vision topic intending to transfer the visual appearance or the style of images to other images. Developments in deep learning nicely generate stylized images from texture-based examples or transfer the style of a photograph to another one. In map design, the style is a multi-dimensional complex problem related to recognizable visual salient features and topological arrangements, supporting the description of geographic spaces at a specific scale. The map style transfer is still at stake to generate a diversity of possible new styles to render geographical features. Generative adversarial Networks (GANs) techniques, well supporting image-to-image translation tasks, offer new perspectives for map style transfer. We propose to use accessible GAN architectures, in order to experiment and assess neural map style transfer to ortho-images, while using different map designs of various geographic spaces, from simple-styled (Plan maps) to complex-styled (old Cassini, Etat-Major, or Scan50 B&W). This transfer task and our global protocol are presented, including the sampling grid, the training and test of Pix2Pix and CycleGAN models, such as the perceptual assessment of the generated outputs. Promising results are discussed, opening research issues for neural map style transfer exploration with GANs. Numéro de notice : A2022-172 Affiliation des auteurs : UGE-LASTIG+Ext (2020- ) Thématique : GEOMATIQUE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/23729333.2022.2031554 Date de publication en ligne : 13/02/2022 En ligne : https://doi.org/10.1080/23729333.2022.2031554 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99807
in International journal of cartography > vol 8 n° 1 (March 2022) . - pp 18 - 36[article]Ultrahigh-resolution boreal forest canopy mapping: Combining UAV imagery and photogrammetric point clouds in a deep-learning-based approach / Linyuan Li in International journal of applied Earth observation and geoinformation, vol 107 (March 2022)PermalinkUsing street view images to identify road noise barriers with ensemble classification model and geospatial analysis / Kai Zhang in Sustainable Cities and Society, vol 78 (March 2022)PermalinkVisual vs internal attention mechanisms in deep neural networks for image classification and object detection / Abraham Montoya Obeso in Pattern recognition, vol 123 (March 2022)PermalinkA method of vision aided GNSS positioning using semantic information in complex urban environment / Rui Zhai in Remote sensing, vol 14 n° 4 (February-2 2022)PermalinkSuspended sediment prediction using integrative soft computing models: on the analogy between the butterfly optimization and genetic algorithms / Marzieh Fadaee in Geocarto international, vol 37 n° 4 ([15/02/2022])PermalinkApprendre à combiner l'information géographique pour générer une carte généralisée [poster à l'EGC 2022] / Azelle Courtial in Revue des Nouvelles Technologies de l'Information, E.38 (2022)PermalinkBuilding footprint extraction in Yangon city from monocular optical satellite image using deep learning / Hein Thura Aung in Geocarto international, vol 37 n° 3 ([01/02/2022])PermalinkA combination of convolutional and graph neural networks for regularized road surface extraction / Jingjing Yan in IEEE Transactions on geoscience and remote sensing, vol 60 n° 2 (February 2022)PermalinkDetection of damaged buildings after an earthquake with convolutional neural networks in conjunction with image segmentation / Ramazan Unlu in The Visual Computer, vol 38 n° 2 (February 2022)PermalinkEmerging technologies for smart cities’ transportation: Geo-information, data analytics and machine learning approaches / Li-Minn Ang in ISPRS International journal of geo-information, vol 11 n° 2 (February 2022)Permalink