Sampling with the Langevin Monte-Carlo - ENSAE Paris Accéder directement au contenu
Thèse Année : 2021

Sampling with the Langevin Monte-Carlo

L’échantillonnage avec Langevin Monte-Carlo

Résumé

Sampling from probability distributions is a problem of significant importance in Statistics and Machine Learning. The approaches for the latter can be roughly classified into two main categories, that is the frequentist and the Bayesian. The first is the MLE or ERM which boils down to optimization, while the other requires the integration of the posterior distribution. Approximate sampling methods are hence applied to estimate the integral. In this manuscript, we focus mainly on Langevin sampling which is based on discretizations of Langevin SDEs. The first half of the introductory part presents the general mathematical framework of statistics and optimization, while the rest aims at the historical background and mathematical development of sampling algorithms.The first main contribution provides non-asymptotic bounds on convergence LMC in Wasserstein error. We first prove the bounds for LMC with the time-varying step. Then we establish bounds in the case when the gradient is available with a noise. In the end, we study the convergence of two versions of discretization, when the Hessian of the potential is regular.In the second main contribution, we study the sampling from log-concave (non-strongly) distributions using LMC, KLMC, and KLMC with higher-order discretization. We propose a constant square penalty for the potential function. We then prove non-asymptotic bounds in Wasserstein distances and provide the optimal choice of the penalization parameter. In the end, we highlight the importance of scaling the error for different error measures.The third main contribution focuses on the convergence properties of convex Langevin diffusions. We propose to penalize the drift with a linear term that vanishes over time. Explicit bounds on the convergence error in Wasserstein distance are proposed for the PenalizedLangevin Dynamics and Penalized Kinetic Langevin Dynamics. Also, similar bounds are proved for the Gradient Flow of convex functions.
L’échantillonnage des lois aléatoires est un problème de taille en statistique et en machine learning. Les approches générales sur ce sujet sont souvent divisées en deux catégories: fréquentiste vs bayésienne. L’approche fréquentiste corresponds à la minimisation du risque empirique, c’est à dire à l’estimation du maximum vraisemblance qui est un problème d’optimisation, tandis que l’approche bayésienne revient à intégrer la loi postérieure. Cette dernière approche nécessite souvent des méthodes approximatives car l’intégrale n’est généralement pas tractable. Dans ce manuscrit, nous allons étudier la méthode de Langevin, basée sur la discrétisation de l’EDS de Langevin. La première partie de l’introduction pose le cadre mathématique et l’intérêt d’étudier plus avant la question de l'échantillonnage. La suite de l’introduction s’attache à la présentation des méthodes d’échantillonnage.Le premier article concerne les bornes non-asymptotiques sur la convergence en distance de Wasserstein de Langevin Monte-Carlo pour les fonctions de potentiel lisses et fortement convexes. Nous établissons d’abord des bornes explicites pour LMC avec des step-sizes variantes?. Puis nous étudions la convergence pour des fonctions de potentiel avec des gradients stochastiques. Enfin, deux types de discrétisation sont présentés, pour les potentiels plus réguliers.Dans la deuxième article nous abordons le problème d’échantillonnage de loi log-concave (pas fortement) en utilisant LMC, KLMC et KLMC2. Nous proposons une pénalisation quadratique constante de la fonction de potentiel. Puis nous prouvons des bornes non-asymptotiques sur l’erreur de Wasserstein de ces méthodes pour le choix de pénalisation optimale. Enfin, nous soulignons l’importance du choix de l’échelle pour le mesurage des complexités des différentes méthodes.La troisième contribution principales est concentrée sur la convergence de la diffusion de Langevin dans le case log-concave. Une pénalisation variable dans le temps est proposée pour la fonction de potentiel. Nous prouvons des bornes explicites pour cette méthode nommée Penalized Langevin Dynamics. A la fin, le lien entre les algorithmes de Langevin et l’optimisation convexe est établi, ce qui nous permet de prouver des bornes similaires pour le gradient flow.
Fichier principal
Vignette du fichier
103230_KARAGULYAN_2021_archivage.pdf (2.5 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03267728 , version 1 (22-06-2021)

Identifiants

  • HAL Id : tel-03267728 , version 1

Citer

Avetik Karagulyan. Sampling with the Langevin Monte-Carlo. Probability [math.PR]. Institut Polytechnique de Paris, 2021. English. ⟨NNT : 2021IPPAG002⟩. ⟨tel-03267728⟩
249 Consultations
2637 Téléchargements

Partager

Gmail Facebook X LinkedIn More