Descripteur
Documents disponibles dans cette catégorie (158)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
LRAGE : learning latent relationships with adaptive graph embedding for aerial scene classification / Yuebin Wang in IEEE Transactions on geoscience and remote sensing, vol 56 n° 2 (February 2018)
[article]
Titre : LRAGE : learning latent relationships with adaptive graph embedding for aerial scene classification Type de document : Article/Communication Auteurs : Yuebin Wang, Auteur ; Liqiang Zhang, Auteur ; Xiaohua Tong, Auteur ; Feiping Nie, Auteur ; Haiyang Huang, Auteur ; Jie Mei, Auteur Année de publication : 2018 Article en page(s) : pp 621 - 634 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage automatique
[Termes IGN] classification semi-dirigée
[Termes IGN] graphe
[Termes IGN] image aérienne
[Termes IGN] programmation par contraintes
[Termes IGN] régression linéaire
[Termes IGN] scèneRésumé : (Auteur) The performance of scene classification relies heavily on the spatial and structural features that are extracted from high spatial resolution remote-sensing images. Existing approaches, however, are limited in adequately exploiting latent relationships between scene images. Aiming to decrease the distances between intraclass images and increase the distances between interclass images, we propose a latent relationship learning framework that integrates an adaptive graph with the constraints of the feature space and label propagation for high-resolution aerial image classification. To describe the latent relationships among scene images in the framework, we construct an adaptive graph that is embedded into the constrained joint space for features and labels. To remove redundant information and improve the computational efficiency, subspace learning is introduced to assist in the latent relationship learning. To address out-of-sample data, linear regression is adopted to project the semisupervised classification results onto a linear classifier. Learning efficiency is improved by minimizing the objective function via the linearized alternating direction method with an adaptive penalty. We test our method on three widely used aerial scene image data sets. The experimental results demonstrate the superior performance of our method over the state-of-the-art algorithms in aerial scene image classification. Numéro de notice : A2018-189 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2752217 Date de publication en ligne : 24/10/2017 En ligne : https://doi.org/10.1109/TGRS.2017.2752217 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89854
in IEEE Transactions on geoscience and remote sensing > vol 56 n° 2 (February 2018) . - pp 621 - 634[article]Comparative study of visual saliency maps in the problem of classification of architectural images with Deep CNNs / Abraham Montoya Obeso (2018)
Titre : Comparative study of visual saliency maps in the problem of classification of architectural images with Deep CNNs Type de document : Article/Communication Auteurs : Abraham Montoya Obeso, Auteur ; Jenny Benois-Pineau, Auteur ; Kamel Guissous , Auteur ; Valérie Gouet-Brunet , Auteur ; Mireya S. García Vázquez, Auteur ; Alejandro A. Ramírez Acosta, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2018 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : IPTA 2018, 8th International Conference on Image Processing Theory, Tools and Applications 07/11/2018 10/11/2018 Xi'an Chine Proceedings IEEE Importance : pp 1 - 6 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] Bootstrap (statistique)
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] compréhension de l'image
[Termes IGN] exploration de données
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] saillance
[Termes IGN] scène urbaineRésumé : (auteur) Incorporating Human Visual System (HVS) models into building of classifiers has become an intensively researched field in visual content mining. In the variety of models of HVS we are interested in so-called visual saliency maps. Contrarily to scan-paths they model instantaneous attention assigning the degree of interestingness/saliency for humans to each pixel in the image plane. In various tasks of visual content understanding, these maps proved to be efficient stressing contribution of the areas of interest in image plane to classifiers models. In previous works saliency layers have been introduced in Deep CNNs, showing that they allow reducing training time getting similar accuracy and loss values in optimal models. In case of large image collections efficient building of saliency maps is based on predictive models of visual attention. They are generally bottom-up and are not adapted to specific visual tasks. Unless they are built for specific content, such as "urban images"-targeted saliency maps we also compare in this paper. In present research we propose a "bootstrap" strategy of building visual saliency maps for particular tasks of visual data mining. A small collection of images relevant to the visual understanding problem is annotated with gaze fixations. Then the propagation to a large training dataset is ensured and compared with the classical GBVS model and a recent method of saliency for urban image content. The classification results within Deep CNN framework are promising compared to the purely automatic visual saliency prediction. Numéro de notice : C2018-097 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IPTA.2018.8608125 Date de publication en ligne : 14/01/2019 En ligne : https://doi.org/10.1109/IPTA.2018.8608125 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=95885 Fusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine / Cyril Wendl (2018)
Titre : Fusion tardive d’images SPOT-6/7 et de données multitemporelles Sentinel-2 pour la détection de la tache urbaine Type de document : Article/Communication Auteurs : Cyril Wendl, Auteur ; Arnaud Le Bris , Auteur ; Nesrine Chehata , Auteur ; Anne Puissant, Auteur ; Tristan Postadjian , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : GeoSud / Conférence : CFPT 2018, Conférence Française de Photogrammétrie et de Télédétection 25/06/2018 28/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 8 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] bati
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par réseau neuronal
[Termes IGN] classification pixellaire
[Termes IGN] extraction automatique
[Termes IGN] fusion d'images
[Termes IGN] image Sentinel-MSI
[Termes IGN] image SPOT 6
[Termes IGN] image SPOT 7
[Termes IGN] occupation du sol
[Termes IGN] réseau neuronal convolutif
[Termes IGN] tachèle
[Termes IGN] zone urbaineRésumé : (auteur) La fusion d’images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d’images moins résolues spatialement mais comportant plus de bandes spectrales permet d’améliorer la classification de l’occupation du sol. Elle tire en effet le meilleur parti des points forts géométriques et sémantiques de ces deux sources. Ce travail s’intéresse à un processus d’extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications calculées respectivement à partir d’images satellitaires Sentinel-2 et SPOT-6/7. Ces deux sources sont d’abord classées indépendamment selon 5 classes, respectivement par forêts aléatoires et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d’extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire suivie d’une étape de régularisation spatiale intégrant un terme lié au contraste de l’image. Le résultat obtenu connaît ensuite une seconde fusion afin d’en déduire la tache urbaine : une mesure a priori de se trouver en zone urbaine est calculée à partir des objets bâtiments détectés précédemment et fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2. Numéro de notice : C2018-010 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 25/06/2018 En ligne : https://rfiap2018.ign.fr/sites/default/files/ARTICLES/CFPT2018/Oraux/CFPT2018_pa [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90381 Documents numériques
en open access
Fusion tardive d’images SPOT-6/7 - pdf éditeurAdobe Acrobat PDF
Titre : One-two-pixel multi-view image matching for digital surface modelling Type de document : Article/Communication Auteurs : Ewelina Rupnik , Auteur ; Marc Pierrot-Deseilligny , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2018 Projets : 1-Pas de projet / Conférence : CFPT 2018, Conférence Française de Photogrammétrie et de Télédétection 25/06/2018 28/06/2018 Champs-sur-Marne France Open Access Proceedings Importance : 7 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] appariement d'images
[Termes IGN] image aérienne
[Termes IGN] image SPOT 7
[Termes IGN] image Worldview
[Termes IGN] mesure de similitude
[Termes IGN] optimisation (mathématiques)
[Termes IGN] points homologues
[Termes IGN] scène
[Termes IGN] UltraCamRésumé : (auteur) Le calcul photogrammétrique de modèle numérique de surface s’effectue en général avec une approche globale ou semi-globale. La fonction d’énergie à ̆a minimiser intègre un terme d’attache aux données, représentant la vraisemblance que deux pixels soient homologues, et un terme de régularisation qui pénalise les variations du relief et représente l’a-priori. L’état de l’art calcule généralement la vraisemblance sur une région autour de chaque pixel en faisant l’hypothèse que le relief est localement constant, ce qui diminue la précision de reconstruction. Cet article pré- sente une nouvelle formulation de la mesure de similarité qui est la combinaison d’un terme "simple pixel" et d’un terme "deux pixel" qui est calculé en même temps que la régularisation. Nous illustrons l’intérêt de cette méthode en l’évaluant sur de scènes issues d’images satellites et aériennes. Numéro de notice : C2018-014 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 25/06/2018 En ligne : https://rfiap2018.ign.fr/sites/default/files/ARTICLES/CFPT2018/Oraux/CFPT2018_pa [...] Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90385 Documents numériques
en open access
One-two-pixel multi-view image matching ... - pdf éditeurAdobe Acrobat PDF A stixel approach for enhancing semantic image segmentation using prior map information / Sylvain Jonchery (2018)
Titre : A stixel approach for enhancing semantic image segmentation using prior map information Type de document : Article/Communication Auteurs : Sylvain Jonchery, Auteur ; Guillaume Bresson, Auteur ; Bruno Vallet , Auteur ; Rafal Żbikowski, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2018 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : ICARCV 2018, 15th International Conference on Control, Automation, Robotics and Vision 10/11/2018 21/11/2018 Singapour Singapour Proceedings IEEE Importance : pp 1715 - 1720 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] précision de la classification
[Termes IGN] scène urbaine
[Termes IGN] segmentation sémantiqueRésumé : (auteur) A key problem for autonomous car navigation is the understanding, at an object level, of the current driving situation. Addressing this issue requires the extraction of meaningful information from on-board stereo imagery by classifying the fundamental elements of urban scenes into semantic categories that can more easily be interpreted and be reflected upon (streets, buildings, pedestrians, vehicles, signs, etc.). A probabilistic method is proposed to fuse a coarse prior 3D map data with stereo imagery classification. A novel fusion architecture based on the Stixel framework is presented for combining semantic pixel-wise segmentation from a convolutional neural network (CNN) with depth information obtained from stereo imagery while integrating coarse prior depth and label information. The proposed approach was tested on a manually labeled data set in urban environments. The results show that the classification accuracy of the fundamental elements composing the urban scene was significantly enhanced by this method compared to what is obtained from the semantic pixel-wise segmentation of a CNN alone. Numéro de notice : C2018-094 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICARCV.2018.8581150 Date de publication en ligne : 20/12/2018 En ligne : https://doi.org/10.1109/ICARCV.2018.8581150 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94247 Single image dehazing via an improved atmospheric scattering model / Mingye Ju in The Visual Computer, vol 33 n° 12 (December 2017)PermalinkAn effective spherical panoramic LoD model for a mobile street view service / Xianxiong Liu in Transactions in GIS, vol 21 n° 5 (October 2017)PermalinkKinetic depth images: flexible generation of depth perception / Sujal Bista in The Visual Computer, vol 33 n° 10 (October 2017)PermalinkA structured regularization framework for spatially smoothing semantic labelings of 3D point clouds / Loïc Landrieu in ISPRS Journal of photogrammetry and remote sensing, vol 132 (October 2017)PermalinkRemote sensing scene classification by unsupervised representation learning / Xiaoqiang Lu in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)PermalinkSimultaneous extraction of roads and buildings in remote sensing imagery with convolutional neural networks / Rasha Alshehhi in ISPRS Journal of photogrammetry and remote sensing, vol 130 (August 2017)PermalinkDisocclusion of 3D LiDAR point clouds using range images / Pierre Biasutti in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol IV-1/W1 (May 2017)PermalinkEfficient edge-aware surface mesh reconstruction for urban scenes / András Bódis-Szomorú in Computer Vision and image understanding, vol 157 (April 2017)PermalinkPermalinkPermalink