Descripteur
Termes descripteurs IGN > sciences naturelles > physique > traitement photographique > retouche
retouche |



Etendre la recherche sur niveau(x) vers le bas
Forest change detection in incomplete satellite images with deep neural networks / Salman H. Khan in IEEE Transactions on geoscience and remote sensing, vol 55 n° 9 (September 2017)
![]()
[article]
Titre : Forest change detection in incomplete satellite images with deep neural networks Type de document : Article/Communication Auteurs : Salman H. Khan, Auteur ; Xuming He, Auteur ; Fatih Porikli, Auteur ; Mohammed Bennamoun, Auteur Année de publication : 2017 Article en page(s) : pp 5407 - 5423 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes descripteurs IGN] analyse diachronique
[Termes descripteurs IGN] analyse multirésolution
[Termes descripteurs IGN] apprentissage profond
[Termes descripteurs IGN] détection de changement
[Termes descripteurs IGN] forêt
[Termes descripteurs IGN] réflectance de surface
[Termes descripteurs IGN] réseau neuronal artificiel
[Termes descripteurs IGN] retouche
[Termes descripteurs IGN] surveillance de la végétationRésumé : (Auteur) Land cover change monitoring is an important task from the perspective of regional resource monitoring, disaster management, land development, and environmental planning. In this paper, we analyze imagery data from remote sensing satellites to detect forest cover changes over a period of 29 years (1987-2015). Since the original data are severely incomplete and contaminated with artifacts, we first devise a spatiotemporal inpainting mechanism to recover the missing surface reflectance information. The spatial filling process makes use of the available data of the nearby temporal instances followed by a sparse encoding-based reconstruction. We formulate the change detection task as a region classification problem. We build a multiresolution profile (MRP) of the target area and generate a candidate set of bounding-box proposals that enclose potential change regions. In contrast to existing methods that use handcrafted features, we automatically learn region representations using a deep neural network in a data-driven fashion. Based on these highly discriminative representations, we determine forest changes and predict their onset and offset timings by labeling the candidate set of proposals. Our approach achieves the state-of-the-art average patch classification rate of 91.6% (an improvement of ~16%) and the mean onset/offset prediction error of 4.9 months (an error reduction of five months) compared with a strong baseline. We also qualitatively analyze the detected changes in the unlabeled image regions, which demonstrate that the proposed forest change detection approach is scalable to new regions. Numéro de notice : A2017-663 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2017.2707528 En ligne : http://dx.doi.org/10.1109/TGRS.2017.2707528 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=87105
in IEEE Transactions on geoscience and remote sensing > vol 55 n° 9 (September 2017) . - pp 5407 - 5423[article]Disocclusion of 3D LiDAR point clouds using range images / Pierre Biasutti in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, IV-1/W1 ([30/05/2017])
![]()
[article]
Titre : Disocclusion of 3D LiDAR point clouds using range images Type de document : Article/Communication Auteurs : Pierre Biasutti , Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif
, Auteur ; Aurélie Bugeau, Auteur
Congrès : ISPRS 2017 Workshops HRIGI 17 – CMRT 17 – ISA 17 – EuroCOW 17 (6 - 9 juin 2017; Hanovre, Allemagne), Commanditaire Année de publication : 2017 Projets : GOTMI / Papadakis, Nicolas Article en page(s) : pp 75 - 82 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes descripteurs IGN] données lidar
[Termes descripteurs IGN] données localisées 3D
[Termes descripteurs IGN] objet mobile
[Termes descripteurs IGN] retouche
[Termes descripteurs IGN] scène urbaineRésumé : (auteur) This paper proposes a novel framework for the disocclusion of mobile objects in 3D LiDAR scenes aquired via street-based Mobile Mapping Systems (MMS). Most of the existing lines of research tackle this problem directly in the 3D space. This work promotes an alternative approach by using a 2D range image representation of the 3D point cloud, taking advantage of the fact that the problem of disocclusion has been intensively studied in the 2D image processing community over the past decade. First, the point cloud is turned into a 2D range image by exploiting the sensor’s topology. Using the range image, a semi-automatic segmentation procedure based on depth histograms is performed in order to select the occluding object to be removed. A variational image inpainting technique is then used to reconstruct the area occluded by that object. Finally, the range image is unprojected as a 3D point cloud. Experiments on real data prove the effectiveness of this procedure both in terms of accuracy and speed. Numéro de notice : A2017-898 Affiliation des auteurs : LaSTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.5194/isprs-annals-IV-1-W1-75-2017 date de publication en ligne : 30/05/2017 En ligne : https://doi.org/10.5194/isprs-annals-IV-1-W1-75-2017 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91913
in ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences > IV-1/W1 [30/05/2017] . - pp 75 - 82[article]Dynamic occlusion detection and inpainting of in situ captured terrestrial laser scanning point clouds sequence / Chi Chen in ISPRS Journal of photogrammetry and remote sensing, vol 119 (September 2016)
![]()
[article]
Titre : Dynamic occlusion detection and inpainting of in situ captured terrestrial laser scanning point clouds sequence Type de document : Article/Communication Auteurs : Chi Chen, Auteur ; Bisheng Yang, Auteur Année de publication : 2016 Article en page(s) : pp 90 - 107 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes descripteurs IGN] densité des points
[Termes descripteurs IGN] détection de partie cachée
[Termes descripteurs IGN] données lidar
[Termes descripteurs IGN] occultation du signal
[Termes descripteurs IGN] retouche
[Termes descripteurs IGN] semis de points
[Termes descripteurs IGN] télémétrie laser terrestre
[Termes descripteurs IGN] voxelRésumé : (Auteur) Laser point clouds captured using terrestrial laser scanning (TLS) in an uncontrollable urban outdoor or indoor scene suffer from irregular shaped data blanks caused by dynamic occlusion that temporarily exists, i.e., moving objects, such as pedestrians or cars, resulting in integrality and quality losses of the scene data. This paper proposes a novel automatic dynamic occlusion detection and inpainting method for sequential TLS point clouds captured from one scan position. In situ collected laser point clouds sequences are indexed by establishing a novel panoramic space partition that assigns a three dimensional voxel to each laser point according to the scanning setups. Then two stationary background models are constructed at the ray voxel level using the laser reflectance intensity and geometrical attributes of the point set inside each voxel across the TLS sequence. Finally, the background models are combined to detect the points on the dynamic object, and the ray voxels of the detected dynamic points are tracked for further inpainting by replacing the ray voxels with the corresponding background voxels from another scan. The resulting scene is free of dynamic occlusions. Experiments validated the effectiveness of the proposed method for indoor and outdoor TLS point clouds captured by a commercial terrestrial scanner. The proposed method achieves high precision and recall rate for dynamic occlusion detection and produces clean inpainted point clouds for further processing. Numéro de notice : A2016-779 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern En ligne : http://dx.doi.org/10.1016/j.isprsjprs.2016.05.007 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=82474
in ISPRS Journal of photogrammetry and remote sensing > vol 119 (September 2016) . - pp 90 - 107[article]
Titre : Visibility estimation and joint inpainting of lidar depth maps Type de document : Article/Communication Auteurs : Marco Bevilacqua, Auteur ; Jean-François Aujol, Auteur ; Mathieu Brédif , Auteur ; Aurélie Bugeau, Auteur
Congrès : ICIP 2016, IEEE International Conference on Image Processing (25 - 28 septembre 2016; Phoenix, Arizona - Etats-Unis), Commanditaire Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2016 Projets : 1-Pas de projet / Importance : pp 3503 - 3507 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Lasergrammétrie
[Termes descripteurs IGN] carte de profondeur
[Termes descripteurs IGN] données lidar
[Termes descripteurs IGN] données localisées 3D
[Termes descripteurs IGN] retouche
[Termes descripteurs IGN] semis de points
[Termes descripteurs IGN] visibilitéRésumé : (auteur) This paper presents a novel variational image inpainting method to solve the problem of generating, from 3-D lidar measures, a dense depth map coherent with a given color image, tackling visibility issues. When projecting the lidar point cloud onto the image plane, we generally obtain a sparse depth map, due to undersampling. Moreover, lidar and image sensor positions generally differ during acquisition, such that depth values referring to objects that are hidden from the image view point might appear with a naive projection. The proposed algorithm estimates the complete depth map, while simultaneously detecting and excluding those hidden points. It consists in a primal-dual optimization method, where a coupled total variation regularization term is included to match the depth and image gradients and a visibility indicator handles the selection of visible points. Tests with real data prove the effectiveness of the proposed strategy. Numéro de notice : C2016-035 Affiliation des auteurs : MATIS+Ext (1993-2011) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICIP.2016.7533011 date de publication en ligne : 19/08/2016 En ligne : https://doi.org/10.1109/ICIP.2016.7533011 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91794
Titre : Le grand cahier Photoshop : 100 tutoriels Type de document : Guide/Manuel Auteurs : Pierre Labbe, Auteur Editeur : Paris : Eyrolles Année de publication : 2014 Importance : 354 p. Format : 19 x 23 cm ISBN/ISSN/EAN : 978-2-212-13935-8 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Produits informatiques
[Termes descripteurs IGN] automatisation
[Termes descripteurs IGN] correction d'image
[Termes descripteurs IGN] couleur à l'écran
[Termes descripteurs IGN] couleur imprimée
[Termes descripteurs IGN] photomontage
[Termes descripteurs IGN] Photoshop
[Termes descripteurs IGN] retouche
[Termes descripteurs IGN] traitement d'imageIndex. décimale : 26.05 Produits informatiques : logiciels Résumé : (Editeur) Ecrit par l'un des plus grands experts français en infographie, ce livre événement s'inscrit dans la lignée des Cahiers Photoshop, une collection qui avait marqué les esprits en son temps. Avec ses 100 ateliers pratiques de retouche et de photomontage, il fournit des méthodes simples et efficaces pour améliorer vos photos sans trop vous embarrasser de technique. Que ce soit pour raviver des couleurs, améliorer l'exposition, rectifier une perspective ou encore sublimer un portrait, l'auteur met à profit sa grande expérience de Photoshop pour vous livrer tous ses conseils de spécialiste. Véritables pas à pas complets, où chaque étape est illustrée par une image, ces 100 tutoriels vous guideront dans l'apprentissage de ce logiciel, avec en complément les photos source en libre téléchargement. Ce livre s'adresse à tous ceux qui souhaitent parfaire leurs photos avec Photoshop et aux utilisateurs de Photoshop CC ou d'une version antérieure Note de contenu :
Chapitre 1 - Gérer les photos avec Bridge
Chapitre 2 - Traiter les photos avec Camera Raw
Chapitre 3 - Travailler avec Photoshop de manière non destructive
Chapitre 4 - Traiter une partie de la photo
Chapitre 5 - Recadrer et redimensionner
Chapitre 6 - Corriger les ombres et les lumières
Chapitre 7 - Corriger les couleurs
Chapitre 8 - Retoucher les portraits
Chapitre 9 - Réaliser des retouches et des photomontages
Chapitre 10 - Appliquer des traitements particuliers
Chapitre 11 - Automatiser le travail
Chapitre 12 - ImprimerNuméro de notice : 22316 Affiliation des auteurs : non IGN Thématique : INFORMATIQUE Nature : Manuel informatique Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=77174 Réservation
Réserver ce documentExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 22316-01 26.05 Manuel Informatique Centre de documentation Informatique Disponible Seeking the truth in Aceh / Anonyme in GEO: Geoconnexion international, vol 11 n° 7 (july - august 2012)
Permalink