Descripteur
Termes IGN > sciences naturelles > physique > traitement d'image > filtrage numérique d'image
filtrage numérique d'imageSynonyme(s)convolution d'image |
Documents disponibles dans cette catégorie (113)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Novel fusion approach on automatic object extraction from spatial data: case study Worldview-2 and TOPO5000 / Umut Gunes Sefercik in Geocarto international, vol 33 n° 10 (October 2018)
[article]
Titre : Novel fusion approach on automatic object extraction from spatial data: case study Worldview-2 and TOPO5000 Type de document : Article/Communication Auteurs : Umut Gunes Sefercik, Auteur ; Serkan Karakis, Auteur ; Can Atalay, Auteur ; Ibrahim Yigit, Auteur ; Umit Gokmen, Auteur Année de publication : 2018 Article en page(s) : pp 1139 - 1154 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse d'image orientée objet
[Termes IGN] détection d'objet
[Termes IGN] détection du bâti
[Termes IGN] extraction automatique
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] extraction du réseau routier
[Termes IGN] filtre de Wallis
[Termes IGN] image numérique
[Termes IGN] image Worldview
[Termes IGN] modèle numérique de surface
[Termes IGN] TurquieRésumé : (auteur) The automatic extraction of information content from remotely sensed data is always challenging. We suggest a novel fusion approach to improve the extraction of this information from mono-satellite images. A Worldview-2 (WV-2) pan-sharpened image and a 1/5000-scaled topographic vector map (TOPO5000) were used as the sample data. Firstly, the buildings and roads were manually extracted from WV-2 to point out the maximum extractable information content. Subsequently, object-based automatic extractions were performed. After achieving two-dimensional results, a normalized digital surface model (nDSM) was generated from the underlying digital aerial photos of TOPO5000, and the automatic extraction was repeated by fusion with the nDSM to include individual object heights as an additional band for classification. The contribution was tested by precision, completeness and overall quality. Novel fusion technique increased the success of automatic extraction by 7% for the number of buildings and by 23% for the length of roads. Numéro de notice : A2019-047 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1080/10106049.2017.1353646 Date de publication en ligne : 27/07/2017 En ligne : https://doi.org/10.1080/10106049.2017.1353646 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=92068
in Geocarto international > vol 33 n° 10 (October 2018) . - pp 1139 - 1154[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 059-2018041 RAB Revue Centre de documentation En réserve L003 Disponible A fully automatic approach to register mobile mapping and airborne imagery to support the correction of plateform trajectories in GNSS-denied urban areas / Phillipp Jende in ISPRS Journal of photogrammetry and remote sensing, vol 141 (July 2018)
[article]
Titre : A fully automatic approach to register mobile mapping and airborne imagery to support the correction of plateform trajectories in GNSS-denied urban areas Type de document : Article/Communication Auteurs : Phillipp Jende, Auteur ; Francesco Nex, Auteur ; Markus Gerke, Auteur ; M. George Vosselman, Auteur Année de publication : 2018 Article en page(s) : pp 86 - 99 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] appariement géométrique
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] filtre de Wallis
[Termes IGN] GNSS assisté pour la navigation
[Termes IGN] image aérienne
[Termes IGN] image terrestre
[Termes IGN] orientation d'image
[Termes IGN] orthoimage
[Termes IGN] point d'appui
[Termes IGN] précision décimétrique
[Termes IGN] système de numérisation mobile
[Termes IGN] zone urbaineRésumé : (Auteur) Mobile Mapping (MM) solutions have become a significant extension to traditional data acquisition methods over the last years. Independently from the sensor carried by a platform, may it be laser scanners or cameras, high-resolution data postings are opposing a poor absolute localisation accuracy in urban areas due to GNSS occlusions and multipath effects. Potentially inaccurate position estimations are propagated by IMUs which are furthermore prone to drift effects. Thus, reliable and accurate absolute positioning on a par with MM's high-quality data remains an open issue. Multiple and diverse approaches have shown promising potential to mitigate GNSS errors in urban areas, but cannot achieve decimetre accuracy, require manual effort, or have limitations with respect to costs and avail-ability. This paper presents a fully automatic approach to support the correction of MM imaging data based on correspondences with airborne nadir images. These correspondences can be employed to correct the MM plat-form's orientation by an adjustment solution. Unlike MM as such, aerial images do not suffer from GNSS oc-clusions, and their accuracy is usually verified by employing well-established methods using ground control points. However, a registration between MM and aerial images is a non-standard matching scenario, and requires several strategies to yield reliable and accurate correspondences. Scale, perspective and content strongly vary between both image sources, thus traditional feature matching methods may fail. To this end, the registration process is designed to focus on common and clearly distinguishable elements, such as road markings, manholes, or kerbstones. With a registration accuracy of about 98%, reliable tie information between MM and aerial data can be derived. Even though, the adjustment strategy is not covered in its entirety in this paper, accuracy results after adjustment will be presented. It will be shown that a decimetre accuracy is well achievable in a real data test scenari Numéro de notice : A2018-285 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1016/j.isprsjprs.2018.04.017 Date de publication en ligne : 30/04/2018 En ligne : https://doi.org/10.1016/j.isprsjprs.2018.04.017 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90397
in ISPRS Journal of photogrammetry and remote sensing > vol 141 (July 2018) . - pp 86 - 99[article]Exemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 081-2018071 RAB Revue Centre de documentation En réserve L003 Disponible 081-2018073 DEP-EXM Revue LASTIG Dépôt en unité Exclu du prêt 081-2018072 DEP-EAF Revue Nancy Dépôt en unité Exclu du prêt An (almost) automated process to track the Martians dunes : ac.GetPreciseShifts / Arthur Coqué (2018)
Titre : An (almost) automated process to track the Martians dunes : ac.GetPreciseShifts Type de document : Mémoire Auteurs : Arthur Coqué, Auteur Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Année de publication : 2018 Importance : 68 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de projet, stage pluridisciplinaire, cycle ING2Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse d'image orientée objet
[Termes IGN] analyse texturale
[Termes IGN] chaîne de traitement
[Termes IGN] classification dirigée
[Termes IGN] détection de contours
[Termes IGN] dune
[Termes IGN] écart type
[Termes IGN] échantillonnage
[Termes IGN] filtre de Canny
[Termes IGN] image HiRISE
[Termes IGN] Mars (planète)
[Termes IGN] orthoimage géoréférencée
[Termes IGN] orthophotoplan numérique
[Termes IGN] paramètre de Haralick
[Termes IGN] Python (langage de programmation)Index. décimale : PROJET Mémoires : Rapports de projet - stage des ingénieurs de 2e année Résumé : (auteur) Actuellement, la mesure de l’avancement des dunes sur Mars se fait manuellement. C’est une procédure laborieuse qui demande beaucoup de temps et de précision, de telle sorte qu’il est impossible de généraliser cela à la planète entière. Or, les phénomènes derrière ces déplacements (les vents de surface, la saltation…) sont les principaux moteurs de l’évolution des reliefs martiens. Si l’on veut comprendre comment la Planète Rouge est modelée par ces phénomènes atmosphériques sans avoir la pléthore de stations météos disséminées à sa surface, ils nous est nécessaire d’élaborer une technique pour pouvoir suivre les dunes martiennes et caractériser leur déplacement sur plusieurs années et à l’échelle de la planète. Lors de ce stage, je me suis donc attelé à trouver un moyen de mesurer, de manière automatique ou presque (c’est-à-dire sans que l’opérateur répète le même protocole long et compliqué pour chacune des dunes et pour chaque nouvelle acquisition), le déplacement des dunes martiennes, employant des techniques relevant de la télédétection et du traitement d’images. Une fois notre protocole trouvé, il restait encore à l’implémenter, tout en gardant à l’esprit qu’il fallait que cela reste accessible (c’est-à-dire utilisable par un géologue sans compétence particulière en informatique par exemple). C’est dans ce but que j’ai créé un package Python, nommé ac.GPS (ArthurCoqué.GetPreciseShifts) permettant d’effectuer facilement cette tache (ainsi que d’autres fonctions annexes). Note de contenu : Introduction
1- Data presentation
2- Methods
3- Final Process : based on standard deviation of images
4- Results
5- Discussion
ConclusionNuméro de notice : 21806 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Mémoire de projet pluridisciplinaire Organisme de stage : Caltech, Pasadena (USA) Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91295 Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 21806-01 PROJET Livre Centre de documentation Travaux d'élèves Disponible Documents numériques
peut être téléchargé
An (almost) automated process... - pdf auteurAdobe Acrobat PDF Learning and transferring deep joint spectral–spatial features for hyperspectral classification / Jingxiang Yang in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)
[article]
Titre : Learning and transferring deep joint spectral–spatial features for hyperspectral classification Type de document : Article/Communication Auteurs : Jingxiang Yang, Auteur ; Yong-Qiang Zhao, Auteur ; Jonathan Cheung-Wai Chan, Auteur Année de publication : 2017 Article en page(s) : pp 4729 - 4742 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] classification dirigée
[Termes IGN] classification par réseau neuronal
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] filtrage numérique d'image
[Termes IGN] image AVIRIS
[Termes IGN] image hyperspectrale
[Termes IGN] image ROSIS
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Feature extraction is of significance for hyperspectral image (HSI) classification. Compared with conventional hand-crafted feature extraction, deep learning can automatically learn features with discriminative information. However, two issues exist in applying deep learning to HSIs. One issue is how to jointly extract spectral features and spatial features, and the other one is how to train the deep model when training samples are scarce. In this paper, a deep convolutional neural network with two-branch architecture is proposed to extract the joint spectral-spatial features from HSIs. The two branches of the proposed network are devoted to features from the spectral domain as well as the spatial domain. The learned spectral features and spatial features are then concatenated and fed to fully connected layers to extract the joint spectral-spatial features for classification. When the training samples are limited, we investigate the transfer learning to improve the performance. Low and mid-layers of the network are pretrained and transferred from other data sources; only top layers are trained with limited training samples extracted from the target scene. Experiments on Airborne Visible/Infrared Imaging Spectrometer and Reflective Optics System Imaging Spectrometer data demonstrate that the learned deep joint spectral-spatial features are discriminative, and competitive classification results can be achieved when compared with state-of-the-art methods. The experiments also reveal that the transferred features boost the classification performance. Numéro de notice : A2017-503 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2698503 En ligne : http://dx.doi.org/10.1109/TGRS.2017.2698503 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=86448
in IEEE Transactions on geoscience and remote sensing > vol 55 n° 8 (August 2017) . - pp 4729 - 4742[article]Learning sensor-specific spatial-spectral features of hyperspectral images via convolutional neural networks / Shaohui Mei in IEEE Transactions on geoscience and remote sensing, vol 55 n° 8 (August 2017)
[article]
Titre : Learning sensor-specific spatial-spectral features of hyperspectral images via convolutional neural networks Type de document : Article/Communication Auteurs : Shaohui Mei, Auteur ; Jingyu Ji, Auteur ; Junhui Hou, Auteur ; et al., Auteur Année de publication : 2017 Article en page(s) : pp 4520 - 4533 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage dirigé
[Termes IGN] apprentissage profond
[Termes IGN] extraction de couche
[Termes IGN] filtrage numérique d'image
[Termes IGN] image AVIRIS
[Termes IGN] image hyperspectrale
[Termes IGN] image ROSIS
[Termes IGN] réseau neuronal convolutifRésumé : (Auteur) Convolutional neural network (CNN) is well known for its capability of feature learning and has made revolutionary achievements in many applications, such as scene recognition and target detection. In this paper, its capability of feature learning in hyperspectral images is explored by constructing a five-layer CNN for classification (C-CNN). The proposed C-CNN is constructed by including recent advances in deep learning area, such as batch normalization, dropout, and parametric rectified linear unit (PReLU) activation function. In addition, both spatial context and spectral information are elegantly integrated into the C-CNN such that spatial-spectral features are learned for hyperspectral images. A companion feature-learning CNN (FL-CNN) is constructed by extracting fully connected feature layers in this C-CNN. Both supervised and unsupervised modes are designed for the proposed FL-CNN to learn sensor-specific spatial-spectral features. Extensive experimental results on four benchmark data sets from two well-known hyperspectral sensors, namely airborne visible/infrared imaging spectrometer (AVIRIS) and reflective optics system imaging spectrometer (ROSIS) sensors, demonstrate that our proposed C-CNN outperforms the state-of-the-art CNN-based classification methods, and its corresponding FL-CNN is very effective to extract sensor-specific spatial-spectral features for hyperspectral application Numéro de notice : A2017-499 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2693346 En ligne : http://dx.doi.org/10.1109/TGRS.2017.2693346 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=86441
in IEEE Transactions on geoscience and remote sensing > vol 55 n° 8 (August 2017) . - pp 4520 - 4533[article]Simultaneous extraction of roads and buildings in remote sensing imagery with convolutional neural networks / Rasha Alshehhi in ISPRS Journal of photogrammetry and remote sensing, vol 130 (August 2017)PermalinkSelf-taught feature learning for hyperspectral image classification / Ronald Kemker in IEEE Transactions on geoscience and remote sensing, vol 55 n° 5 (May 2017)PermalinkDeep feature extraction and classification of hyperspectral images based on convolutional neural networks / Yushi Chen in IEEE Transactions on geoscience and remote sensing, vol 54 n° 10 (October 2016)PermalinkImproved progressive TIN densification filtering algorithm for airborne LiDAR data in forested areas / Xiaoqian Zhao in ISPRS Journal of photogrammetry and remote sensing, vol 117 (July 2016)PermalinkA new adaptive method to filter terrestrial laser scanner point clouds using morphological filters and spectral information to conserve surface micro-topography / Emilio Rodríguez-Caballero in ISPRS Journal of photogrammetry and remote sensing, vol 117 (July 2016)PermalinkDeep filter banks for texture recognition, description, and segmentation / Mircea Cimpoi in International journal of computer vision, vol 118 n° 1 (May 2016)PermalinkPermalinkA moving weighted harmonic analysis method for reconstructing high-quality SPOT VEGETATION NDVI time-series data / Gang Yang in IEEE Transactions on geoscience and remote sensing, vol 53 n° 11 (November 2015)PermalinkOvercoming lidar’s Big data problem / Rick Harrison in GEO: Geoconnexion international, vol 14 n° 9 (October 2015)PermalinkFiltering Global land and surface altimetry data (GLA14) for elevation accuracy determination / Jean-Samuel Proulx-Bourque in Photogrammetric Engineering & Remote Sensing, PERS, vol 81 n° 9 (September 2015)Permalink