Descripteur
Termes IGN > mathématiques > statistique mathématique > probabilités > stochastique > méthode de Monte-Carlo > méthode de Monte-Carlo par chaînes de Markov > échantillonnage de Gibbs
échantillonnage de GibbsVoir aussi |
Documents disponibles dans cette catégorie (7)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Approche bayésienne pour la sélection de modèles : Application à la restauration d’image Type de document : Thèse/HDR Auteurs : Benjamin Harroué, Auteur ; Jean-François Giovannelli, Directeur de thèse ; Marcela Pereyra, Directeur de thèse Editeur : Bordeaux : Université de Bordeaux Année de publication : 2020 Importance : 102 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse présentée pour obtenir le grade de Docteur en Automatique, Productique, Signal et Image, Ingénierie cognitiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] déconvolution
[Termes IGN] échantillonnage de Gibbs
[Termes IGN] estimation bayesienne
[Termes IGN] fonction harmonique
[Termes IGN] matrice de covariance
[Termes IGN] problème inverse
[Termes IGN] processus gaussien
[Termes IGN] reconstruction d'image
[Termes IGN] restauration d'imageIndex. décimale : THESE Thèses et HDR Résumé : (auteur) L’inversion consiste à reconstruire des objets d’intérêt à partir de données acquises au travers d’un système d’observation. Dans ces travaux, nous nous penchons sur la déconvolution d’image. Les données observées constituent une version dégradée de l’objet, altéré par le système (flou et bruit). A cause de la perte d’informations engendrée, le problème devient alors mal conditionné. Une solution est de régulariser dans un cadre bayésien : en se basant sur des modèles, on introduit de l’information a priori sur les inconnues. Se posent alors les questions suivantes : comment comparer les modèles candidats et choisir le meilleur ? Sur quel critère faut-il s’appuyer ? A quelles caractéristiques ou quantités doit-on se fier ? Ces travaux présentent une méthode de comparaison et de sélection automatique de modèles, fondée sur la théorie de la décision bayésienne. La démarche consiste à sélectionner le modèle qui maximise la probabilité a posteriori. Pour calculer ces dernières, on a besoin de connaître une quantité primordiale : l’évidence. Elle s’obtient en marginalisant la loi jointe par rapport aux inconnus : l’image et les hyperparamètres. Les dépendances complexes entre les variables et la grande dimension de l’image rendent le calcul analytique de l’intégrale impossible. On a donc recours à des méthodes numériques. Dans cette première étude, on s’intéresse au cas gaussien circulant. Cela permet, d’une part, d’avoir une expression analytique de l’intégrale sur l’image, et d’autre part, de faciliter la manipulation des matrices de covariances. Plusieurs méthodes sont mises en œuvre comme l’algorithme du Chib couplé à une chaîne de Gibbs, les power posteriors, ou encore la moyenne harmonique. Les méthodes sont ensuite comparées pour déterminer lesquelles sont les plus adéquates au problème de la restauration d’image. Note de contenu : 1- Introduction
2- Sélection de modèles et calcul de l’évidence : état de l’art
3- Sélection de modèles sur observation directe
4- Sélection de modèles sur observation indirecte
5- Sélection de modèles sur données réelles
6- Conclusion : bilan et perspectivesNuméro de notice : 28558 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : thèse de Doctorat : Automatique, Productique, Signal et Image, Ingénierie cognitique : Bordeaux : 2020 nature-HAL : Thèse En ligne : https://tel.archives-ouvertes.fr/tel-03065948/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97587 Asymptotically exact data augmentation : models and Monte Carlo sampling with applications to Bayesian inference / Maxime Vono (2020)
Titre : Asymptotically exact data augmentation : models and Monte Carlo sampling with applications to Bayesian inference Type de document : Thèse/HDR Auteurs : Maxime Vono, Auteur ; Nicolas Dobigeon, Directeur de thèse ; Pierre Chainais, Auteur Editeur : Toulouse : Université de Toulouse Année de publication : 2020 Importance : 200 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse en vue de l'obtention du Doctorat de l'Université de Toulouse, Signal, Image, Acoustique et OptimisationLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement du signal
[Termes IGN] échantillonnage
[Termes IGN] échantillonnage de Gibbs
[Termes IGN] estimation bayesienne
[Termes IGN] méthode de Monte-Carlo
[Termes IGN] méthode de Monte-Carlo par chaînes de Markov
[Termes IGN] optimisation (mathématiques)
[Termes IGN] processus gaussien
[Termes IGN] régression linéaireIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Numerous machine learning and signal/image processing tasks can be formulated as statistical inference problems. As an archetypal example, recommendation systems rely on the completion of partially observed user/item matrix, which can be conducted via the joint estimation of latent factors and activation coefficients. More formally, the object to be inferred is usually defined as the solution of a variational or stochastic optimization problem. In particular, within a Bayesian framework, this solution is defined as the minimizer of a cost function, referred to as the posterior loss. In the simple case when this function is chosen as quadratic, the Bayesian estimator is known to be the posterior mean which minimizes the mean square error and defined as an integral according to the posterior distribution. In most real-world applicative contexts, computing such integrals is not straightforward. One alternative lies in making use of Monte Carlo integration, which consists in approximating any expectation according to the posterior distribution by an empirical average involving samples from the posterior. This so-called Monte Carlo integration requires the availability of efficient algorithmic schemes able to generate samples from a desired posterior distribution. A huge literature dedicated to random variable generation has proposed various Monte Carlo algorithms. For instance, Markov chain Monte Carlo (MCMC) methods, whose particular instances are the famous Gibbs sampler and Metropolis-Hastings algorithm, define a wide class of algorithms which allow a Markov chain to be generated with the desired stationary distribution. Despite their seemingly simplicity and genericity, conventional MCMC algorithms may be computationally inefficient for large-scale, distributed and/or highly structured problems. The main objective of this thesis consists in introducing new models and related MCMC approaches to alleviate these issues. The intractability of the posterior distribution is tackled by proposing a class of approximate but asymptotically exact augmented (AXDA) models. Then, two Gibbs samplers targetting approximate posterior distributions based on the AXDA framework, are proposed and their benefits are illustrated on challenging signal processing, image processing and machine learning problems. A detailed theoretical study of the convergence rates associated to one of these two Gibbs samplers is also conducted and reveals explicit dependences with respect to the dimension, condition number of the negative log-posterior and prescribed precision. In this work, we also pay attention to the feasibility of the sampling steps involved in the proposed Gibbs samplers. Since one of this step requires to sample from a possibly high-dimensional Gaussian distribution, we review and unify existing approaches by introducing a framework which stands for the stochastic counterpart of the celebrated proximal point algorithm. This strong connection between simulation and optimization is not isolated in this thesis. Indeed, we also show that the derived Gibbs samplers share tight links with quadratic penalty methods and that the AXDA framework yields a class of envelope functions related to the Moreau one. Note de contenu : Introduction
1- Asymptotically exact data augmentation
2- Monte Carlo sampling from AXDA
3- 3A non-asymptotic convergence analysis of the Split Gibbs sampler
4- High-dimensional Gaussian sampling: A unifying approach based on a stochastic proximal point algorithm
5- Back to optimization: The tempered AXDA envelope
ConclusionNuméro de notice : 28575 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : thèse de Doctorat : Signal, Image, Acoustique et Optimisation : Toulouse : 2020 Organisme de stage : Institut de Recherche en Informatique de Toulouse En ligne : https://tel.archives-ouvertes.fr/tel-03143936/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97833
Titre : Bayesian inference on complicated data Type de document : Monographie Auteurs : Niansheng Tang, Éditeur scientifique Editeur : London [UK] : IntechOpen Année de publication : 2020 Importance : 118 p. Format : 19 x 27 cm ISBN/ISSN/EAN : 978-1-83962-704-0 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Statistiques
[Termes IGN] échantillonnage
[Termes IGN] échantillonnage de Gibbs
[Termes IGN] estimation bayesienne
[Termes IGN] filtrage bayésien
[Termes IGN] inférence statistique
[Termes IGN] méthode de Monte-Carlo par chaînes de Markov
[Termes IGN] théorème de BayesRésumé : (éditeur) Due to great applications in various fields, such as social science, biomedicine, genomics, and signal processing, and the improvement of computing ability, Bayesian inference has made substantial developments for analyzing complicated data. This book introduces key ideas of Bayesian sampling methods, Bayesian estimation, and selection of the prior. It is structured around topics on the impact of the choice of the prior on Bayesian statistics, some advances on Bayesian sampling methods, and Bayesian inference for complicated data including breast cancer data, cloud-based healthcare data, gene network data, and longitudinal data. This volume is designed for statisticians, engineers, doctors, and machine learning researchers. Note de contenu : 1- On the impact of the choice of the prior in Bayesian statistics
2- A brief tour of Bayesian sampling methods
3- A review on the exact Monte Carlo simulation
4- Bayesian analysis for random effects models
5- Bayesian inference of Gene regulatory network
6- Patient Bayesian inference: Cloud-based healthcare data analysis using constraint-based adaptive boost algorithm
7- The Bayesian posterior estimators under six loss functions for unrestricted and restricted parameter spacesNuméro de notice : 28590 Affiliation des auteurs : non IGN Thématique : MATHEMATIQUE Nature : Recueil / ouvrage collectif DOI : 10.5772/intechopen.83214 En ligne : https://doi.org/10.5772/intechopen.83214 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=97937
Titre : Bayesian essentials with R Type de document : Monographie Auteurs : Jean-Michel Marin, Auteur ; Christian P. Robert, Auteur Editeur : Berlin, Heidelberg, Vienne, New York, ... : Springer Année de publication : 2014 Importance : 296 p. Format : 16 x 24 cm ISBN/ISSN/EAN : 978-1-4614-8687-9 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Statistiques
[Termes IGN] algorithme de Métropolis-Hastings
[Termes IGN] classification bayesienne
[Termes IGN] échantillonnage de Gibbs
[Termes IGN] méthode de Monte-Carlo par chaînes de Markov
[Termes IGN] modèle linéaire
[Termes IGN] problème de Dirichlet
[Termes IGN] R (langage)
[Termes IGN] régression linéaire
[Termes IGN] série temporelle
[Termes IGN] théorème de BayesRésumé : (éditeur) This Bayesian modeling book provides a self-contained entry to computational Bayesian statistics. Focusing on the most standard statistical models and backed up by real datasets and an all-inclusive R (CRAN) package called bayess, the book provides an operational methodology for conducting Bayesian inference, rather than focusing on its theoretical and philosophical justifications. Readers are empowered to participate in the real-life data analysis situations depicted here from the beginning. The stakes are high and the reader determines the outcome. Special attention is paid to the derivation of prior distributions in each case and specific reference solutions are given for each of the models. Similarly, computational details are worked out to lead the reader towards an effective programming of the methods given in the book. In particular, all R codes are discussed with enough detail to make them readily understandable and expandable. This works in conjunction with the bayess package. Bayesian Essentials with R can be used as a textbook at both undergraduate and graduate levels, as exemplified by courses given at Université Paris Dauphine (France), University of Canterbury (New Zealand), and University of British Columbia (Canada). It is particularly useful with students in professional degree programs and scientists to analyze data the Bayesian way. The text will also enhance introductory courses on Bayesian statistics. Prerequisites for the book are an undergraduate background in probability and statistics, if not in Bayesian statistics. A strength of the text is the noteworthy emphasis on the role of models in statistical analysis. Note de contenu : 1- User’s Manual
2- Normal Models
3- Regression and Variable Selection
4- Generalized Linear Models
5- Capture–Recapture Experiments
6- Mixture Models
7- Time Series
8- Image AnalysisNuméro de notice : 25759 Affiliation des auteurs : non IGN Thématique : MATHEMATIQUE Nature : Monographie En ligne : https://link.springer.com/book/10.1007%2F978-1-4614-8687-9#toc Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94954 Evaluation of bayesian despeckling and texture extraction methods based on Gauss–Markov and auto-binomial gibbs random fields: Application to TerraSAR-X data / D. Espinoza Molina in IEEE Transactions on geoscience and remote sensing, vol 50 n° 5 Tome 2 (May 2012)
[article]
Titre : Evaluation of bayesian despeckling and texture extraction methods based on Gauss–Markov and auto-binomial gibbs random fields: Application to TerraSAR-X data Type de document : Article/Communication Auteurs : D. Espinoza Molina, Auteur ; D. Gleich, Auteur ; M. Dactu, Auteur Année de publication : 2012 Article en page(s) : pp 2001 - 2025 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image radar et applications
[Termes IGN] analyse comparative
[Termes IGN] analyse texturale
[Termes IGN] champ aléatoire de Markov
[Termes IGN] échantillonnage de Gibbs
[Termes IGN] évaluation
[Termes IGN] filtre de déchatoiement
[Termes IGN] image radar moirée
[Termes IGN] image TerraSAR-X
[Termes IGN] inférence statistique
[Termes IGN] texture d'imageRésumé : (Auteur) Speckle hinders information in synthetic aperture radar (SAR) images and makes automatic information extraction very difficult. The Bayesian approach allows us to perform the despeckling of an image while preserving its texture and structures. This model-based approach relies on a prior model of the scene. This paper presents an evaluation of two despeckling and texture extraction model-based methods using the two levels of Bayesian inference. The first method uses a Gauss-Markov random field as prior, and the second is based on an auto-binomial model (ABM). Both methods calculate a maximum a posteriori and determine the best model using an evidence maximization algorithm. Our evaluation approach assesses the quality of the image by means of the despeckling and texture extraction qualities. The proposed objective measures are used to quantify the despeckling performances of these methods. The accuracy of modeling and characterization of texture were determined using both supervised and unsupervised classifications, and confusion matrices. Real and simulated SAR data were used during the validation procedure. The results show that both methods enhance the image during the despeckling process. The ABM is superior regarding texture extraction and despeckling for real SAR images. Numéro de notice : A2012-190 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article nature-HAL : ArtAvecCL-RevueIntern DOI : 10.1109/TGRS.2011.2169679 En ligne : https://doi.org/10.1109/TGRS.2011.2169679 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=31637
in IEEE Transactions on geoscience and remote sensing > vol 50 n° 5 Tome 2 (May 2012) . - pp 2001 - 2025[article]Exemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 065-2012051B RAB Revue Centre de documentation En réserve L003 Disponible A spectral mixture process conditioned by Gibbs-based partitioning / R.S. Rand in IEEE Transactions on geoscience and remote sensing, vol 39 n° 7 (July 2001)PermalinkContribution au développement d'outils pour l'analyse automatique de documents cartographiques / Laurent Lefrère (1993)Permalink