Descripteur
Documents disponibles dans cette catégorie (12)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Deblurring low-light images with events / Chu Zhou in International journal of computer vision, vol 131 n° 5 (May 2023)
[article]
Titre : Deblurring low-light images with events Type de document : Article/Communication Auteurs : Chu Zhou, Auteur ; Minggui Teng, Auteur ; Jin Han, Auteur ; et al., Auteur Année de publication : 2023 Article en page(s) : pp 1284 - 1298 Note générale : bilbiographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] apprentissage profond
[Termes IGN] caméra d'événement
[Termes IGN] correction d'image
[Termes IGN] filtrage du bruit
[Termes IGN] flou
[Termes IGN] image à basse résolution
[Termes IGN] image RVBRésumé : (auteur) Modern image-based deblurring methods usually show degenerate performance in low-light conditions since the images often contain most of the poorly visible dark regions and a few saturated bright regions, making the amount of effective features that can be extracted for deblurring limited. In contrast, event cameras can trigger events with a very high dynamic range and low latency, which hardly suffer from saturation and naturally encode dense temporal information about motion. However, in low-light conditions existing event-based deblurring methods would become less robust since the events triggered in dark regions are often severely contaminated by noise, leading to inaccurate reconstruction of the corresponding intensity values. Besides, since they directly adopt the event-based double integral model to perform pixel-wise reconstruction, they can only handle low-resolution grayscale active pixel sensor images provided by the DAVIS camera, which cannot meet the requirement of daily photography. In this paper, to apply events to deblurring low-light images robustly, we propose a unified two-stage framework along with a motion-aware neural network tailored to it, reconstructing the sharp image under the guidance of high-fidelity motion clues extracted from events. Besides, we build an RGB-DAVIS hybrid camera system to demonstrate that our method has the ability to deblur high-resolution RGB images due to the natural advantages of our two-stage framework. Experimental results show our method achieves state-of-the-art performance on both synthetic and real-world images. Numéro de notice : A2023-210 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s11263-023-01754-5 Date de publication en ligne : 06/02/2023 En ligne : https://doi.org/10.1007/s11263-023-01754-5 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=103062
in International journal of computer vision > vol 131 n° 5 (May 2023) . - pp 1284 - 1298[article]Investigating the role of image retrieval for visual localization / Martin Humenberger in International journal of computer vision, vol 130 n° 7 (July 2022)
[article]
Titre : Investigating the role of image retrieval for visual localization Type de document : Article/Communication Auteurs : Martin Humenberger, Auteur ; Yohann Cabon, Auteur ; Noé Pion, Auteur ; et al., Auteur Année de publication : 2022 Article en page(s) : 1811 - 1836 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse visuelle
[Termes IGN] base de données d'images
[Termes IGN] estimation de pose
[Termes IGN] flou
[Termes IGN] localisation basée image
[Termes IGN] localisation basée vision
[Termes IGN] point de repère
[Termes IGN] précision de localisation
[Termes IGN] Ransac (algorithme)
[Termes IGN] réalité de terrain
[Termes IGN] structure-from-motion
[Termes IGN] vision par ordinateurRésumé : (auteur) Visual localization, i.e., camera pose estimation in a known scene, is a core component of technologies such as autonomous driving and augmented reality. State-of-the-art localization approaches often rely on image retrieval techniques for one of two purposes: (1) provide an approximate pose estimate or (2) determine which parts of the scene are potentially visible in a given query image. It is common practice to use state-of-the-art image retrieval algorithms for both of them. These algorithms are often trained for the goal of retrieving the same landmark under a large range of viewpoint changes which often differs from the requirements of visual localization. In order to investigate the consequences for visual localization, this paper focuses on understanding the role of image retrieval for multiple visual localization paradigms. First, we introduce a novel benchmark setup and compare state-of-the-art retrieval representations on multiple datasets using localization performance as metric. Second, we investigate several definitions of “ground truth” for image retrieval. Using these definitions as upper bounds for the visual localization paradigms, we show that there is still significant room for improvement. Third, using these tools and in-depth analysis, we show that retrieval performance on classical landmark retrieval or place recognition tasks correlates only for some but not all paradigms to localization performance. Finally, we analyze the effects of blur and dynamic scenes in the images. We conclude that there is a need for retrieval approaches specifically designed for localization paradigms. Our benchmark and evaluation protocols are available at https://github.com/naver/kapture-localization. Numéro de notice : A2022-538 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1007/s11263-022-01615-7 Date de publication en ligne : 25/05/2022 En ligne : https://doi.org/10.1007/s11263-022-01615-7 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101070
in International journal of computer vision > vol 130 n° 7 (July 2022) . - 1811 - 1836[article]Hyperspectral image fusion and multitemporal image fusion by joint sparsity / Han Pan in IEEE Transactions on geoscience and remote sensing, Vol 59 n° 9 (September 2021)
[article]
Titre : Hyperspectral image fusion and multitemporal image fusion by joint sparsity Type de document : Article/Communication Auteurs : Han Pan, Auteur ; Zhongliang Jing, Auteur ; Henry Leung, Auteur ; et al., Auteur Année de publication : 2021 Article en page(s) : pp 7887 - 7900 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] correction d'image
[Termes IGN] flou
[Termes IGN] fusion d'images
[Termes IGN] image hyperspectrale
[Termes IGN] image multitemporelle
[Termes IGN] image panchromatique
[Termes IGN] pansharpening (fusion d'images)
[Termes IGN] représentation parcimonieuseRésumé : (auteur) Different image fusion systems have been developed to deal with the massive amounts of image data for different applications, such as remote sensing, computer vision, and environment monitoring. However, the generalizability and versatility of these fusion systems remain unknown. This article proposes an efficient regularization framework to achieve different kinds of fusion tasks accounting for the spatiospectral and spatiotemporal variabilities of the fusion process. A joint minimization functional is developed by taking an advantage of a composite regularizer for enforcing joint sparsity in the gradient domain and the frame domain. The proposed composite regularizer is composed of the Hessian Schatten-norm regularization and contourlet-based regularization terms. The resulting problems are solved by the alternating direction method of multipliers (ADMM). The effectiveness of the proposed method is validated in a variety of image fusion experiments: 1) hyperspectral (HS) and panchromatic image fusion; 2) HS and multispectral image fusion; 3) multitemporal image fusion (MIF); and 4) multi-image deblurring. Results show promising performance compared with state-of-the-art fusion methods. Numéro de notice : A2021-649 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2020.3039046 Date de publication en ligne : 07/12/2020 En ligne : https://doi.org/10.1109/TGRS.2020.3039046 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98360
in IEEE Transactions on geoscience and remote sensing > Vol 59 n° 9 (September 2021) . - pp 7887 - 7900[article]A framework for unsupervised wildfire damage assessment using VHR satellite images with PlanetScope data / Minkyung Chung in Remote sensing, vol 12 n° 22 (December-1 2020)
[article]
Titre : A framework for unsupervised wildfire damage assessment using VHR satellite images with PlanetScope data Type de document : Article/Communication Auteurs : Minkyung Chung, Auteur ; Youkyung Han, Auteur ; Yongil Kim, Auteur Année de publication : 2020 Article en page(s) : n° 3835 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Applications de télédétection
[Termes IGN] aide à la décision
[Termes IGN] classification non dirigée
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] Corée du sud
[Termes IGN] détection de changement
[Termes IGN] dommage
[Termes IGN] estimation par noyau
[Termes IGN] flou
[Termes IGN] gestion des risques
[Termes IGN] image à très haute résolution
[Termes IGN] image Geoeye
[Termes IGN] image multibande
[Termes IGN] image PlanetScope
[Termes IGN] incendie de forêt
[Termes IGN] Normalized Difference Vegetation IndexRésumé : (auteur) The application of remote sensing techniques for disaster management often requires rapid damage assessment to support decision-making for post-treatment activities. As the on-demand acquisition of pre-event very high-resolution (VHR) images is typically limited, PlanetScope (PS) offers daily images of global coverage, thereby providing favorable opportunities to obtain high-resolution pre-event images. In this study, we propose an unsupervised change detection framework that uses post-fire VHR images with pre-fire PS data to facilitate the assessment of wildfire damage. To minimize the time and cost of human intervention, the entire process was executed in an unsupervised manner from image selection to change detection. First, to select clear pre-fire PS images, a blur kernel was adopted for the blind and automatic evaluation of local image quality. Subsequently, pseudo-training data were automatically generated from contextual features regardless of the statistical distribution of the data, whereas spectral and textural features were employed in the change detection procedure to fully exploit the properties of different features. The proposed method was validated in a case study of the 2019 Gangwon wildfire in South Korea, using post-fire GeoEye-1 (GE-1) and pre-fire PS images. The experimental results verified the effectiveness of the proposed change detection method, achieving an overall accuracy of over 99% with low false alarm rate (FAR), which is comparable to the accuracy level of the supervised approach. The proposed unsupervised framework accomplished efficient wildfire damage assessment without any prior information by utilizing the multiple features from multi-sensor bi-temporal images. Numéro de notice : A2020-793 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.3390/rs12223835 Date de publication en ligne : 22/11/2020 En ligne : https://doi.org/10.3390/rs12223835 Format de la ressource électronique : url article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=96570
in Remote sensing > vol 12 n° 22 (December-1 2020) . - n° 3835[article]Implantation dans le matériel de fonctionnalités temps-réel dans une caméra intelligente ultralégère spécialisée pour la prise de vue aérienne / Ahmad Audi (2017)
Titre : Implantation dans le matériel de fonctionnalités temps-réel dans une caméra intelligente ultralégère spécialisée pour la prise de vue aérienne Type de document : Thèse/HDR Auteurs : Ahmad Audi , Auteur ; Marc Pierrot-Deseilligny , Directeur de thèse ; Christian Thom , Directeur de thèse Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2017 Note générale : bibliographie
thèse de doctorat UPE, École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication, Spécialité : ́Electronique, Optronique et SystèmeLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] caméra numérique
[Termes IGN] circuit intégré
[Termes IGN] flou
[Termes IGN] fonctionnalité
[Termes IGN] image captée par drone
[Termes IGN] orientation relative
[Termes IGN] photogrammétrie numérique
[Termes IGN] point d'intérêt
[Termes IGN] rééchantillonnage
[Termes IGN] temps réelIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Au cours des dernières années, les drones civils sont devenus un outil intéressant dans la photographie aérienne et dans les travaux de photogrammétrie. Cela a poussé le LOEMI (Laboratoire d’Opto-Electronique, Métrologie et Instrumentation) de l’IGN (Institut National de l’Information Géographique et Forestière) à mettre au point une nouvelle caméra aérienne mieux adaptée pour l’exploitation photogrammétrique et métrologique des images que les caméras grand public. Cette caméra est composée essentiellement d’un capteur CMOS “global-shutter”, d’une centrale inertielle IMU, et d’un système sur puce (FPGA + 2 CPUs) pour la gestion de l’acquisition des images. Ce SoC/FPGA ouvre la porte à l’implémentation temps-réel des algorithmes de traitement d’image. Parmi les travaux futurs de l’IGN, on peut distinguer certaines applications qui nécessitent l’acquisition des images aériennes avec un temps d’exposition long, comme par exemple les prises de vue aériennes en bande spectrale étroite et les prises de vue aériennes de nuit. Ce type de prises de vue manifeste un flou de bougé dans les images dû aux mouvements erratiques du drone. Cette thèse consiste en l’implémentation dans la caméra légère de l’IGN d’un algorithme qui permet de remédier à ce problème de flou de bougé. La première partie de ce travail a été consacrée au développement de la méthode qui consiste à acquérir plusieurs images avec un temps de pose court, puis utiliser un algorithme de traitement d’image afin de générer une image empilée finale avec l’équivalent d’un temps de pose long. Les paramètres des orientations correctes pour le ré-échantillonnage des images sont obtenus par l’estimation de la transformation géométrique entre la première image et la nième image à partir des points d’intérêts détectés par FAST dans la première image et les points homologues obtenus par corrélation dans les autres images accélérées par les capteurs inertiels intégrés à la caméra. Afin d’augmenter la vitesse de traitement de calcul de notre algorithme, certaines phases sont accélérées en les implémentant dans le matériel (SoC/FPGA). Les résultats obtenus sur des jeux de tests acquis avec un drone type Copter 1B UAV et la caméra ultra-légère de l'IGN montrent que l'image finale empilée ne présente pas un flou de bougé. Les résultats de temps des différentes phases de l'algorithme montrent aussi que l'exécution de notre algorithme a un temps quasi-nulle. Un des sous-produits intéressants de ces travaux est la ré-étalonnage des capteurs IMU. Note de contenu : 1 Introduction
2 Contexte et objectifs
3 Etat de l’art
4 Plateforme matérielle
5 Description de l’algorithme de stacking
6 Implémentation en co-design de l’algorithme dans la caméra
7 Résultats
8 ConclusionNuméro de notice : 17188 Affiliation des auteurs : LASTIG LOEMI (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : thèse : Electronique, Optronique et Système : UPE : 2017 Organisme de stage : LOEMI (IGN) nature-HAL : Thèse DOI : sans En ligne : https://hal.science/tel-01670060 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=99204 Implementation of a real-time stacking algorithm in a photogrammetric digital camera for UAVs / Ahmad Audi (2017)PermalinkMotion blur disturbs – the influence of motion-blurred images in photogrammetry / T. Sieberth in Photogrammetric record, vol 29 n° 148 (December 2014 - February 2015)PermalinkDeblurring and sparse unmixing for hyperspectral images / Xi-Le Zhao in IEEE Transactions on geoscience and remote sensing, vol 51 n° 7 Tome 1 (July 2013)PermalinkPermalinkApplication of fuzzy measures in multi-criteria evaluation in GIS / H. Jiang in International journal of geographical information science IJGIS, vol 14 n° 2 (march 2000)PermalinkEGIS '93, Fourth European conference and exhibition on Geographical Information Systems, 1. Volume 1 / Janjaap Harts (1993)PermalinkEGIS '93, Fourth European conference and exhibition on Geographical Information Systems, 2. Volume 2 / Janjaap Harts (1993)Permalink