Open this publication in new window or tab >>2025 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]
The main topic of this thesis is Markov chain Monte Carlo (MCMC) methods, one of the most widely used classes of sampling algorithms. Sampling from a target probability distribution is a fundamental problem in many applied fields, including computational biology, computational physics, statistical mechanics, machine learning, ecology and epidemiology. In Bayesian uncertainty quantification, sampling algorithms are used to sample from posterior distributions.
The five papers included in this thesis relate to MCMC methods in three ways: implementation, algorithmic advances, and convergence analysis based on the theory of large deviations. Despite their distinct focuses, all three directions share the common goal of advancing sampling algorithms.
Paper A introduces the R package UQSA in which we implemented some MCMC methods. One of the main goals with UQSA is to offer a user-friendly tool for researchers from applied sciences, such as neuroscience, to solve uncertainty quantification problems. We apply the methods in UQSA to models describing networks of biochemical reactions that take place inside nerve cells.
In Paper B, we consider a specific MCMC algorithm: the simplified manifold Metropolis-adjusted Langevin algorithm (SMMALA). When used to perform Bayesian uncertainty quantification on ordinary differential equation (ODE) models, SMMALA requires the computation of the sensitivity matrix of the ODE system for thousands or even millions of iterations. While many algorithms already exist for computing ODE sensitivities (e.g., forward sensitivity), they are too costly for SMMALA. In Paper B, we propose a method based on the Peano-Baker series from control theory to approximate the ODE sensitivities, which is computationally cheaper than pre-existing methods and sufficiently accurate for sampling.
The MCMC literature offers a big variety of algorithms to sample from a target probability distribution. Probability distributions encountered in applications are often complex and high-dimensional, and a blind use of off-the-shelf sampling algorithms on these target distributions often becomes computationally prohibitive. There is therefore a great need for tools to analyze and design algorithms that successfully sample from a given target in a reasonable computational time. In recent years there has been growing interest in using the theory of large deviations, one of the cornerstones of modern probability theory, to describe the rate of convergence of MCMC methods.
In Papers C, D and E, we use the large deviations approach to study the convergence of algorithms of Metropolis-Hastings (MH) type, one of the most popular classes of MCMC methods. In Paper C, we establish a large deviation principle for the empirical measures of Markov chains generated via MH algorithm for sampling from target distributions on a continuous subsets of
. In Paper D, we apply this result to specific choices of MH algorithms and derive large deviation principles for two popular MCMC methods: the Independent Metropolis-Hastings algorithm and the Metropolis-adjusted Langevin algorithm. Moreover, we prove that the current assumptions in the large deviation principle from Paper C do not apply for the Random Walk Metropolis algorithm. In Paper E, we further develop the large deviation principle from Paper C, and we illustrate how this theoretical result can be used to tune algorithms of MH type to obtain faster convergence.
Abstract [sv]
Huvudämnet för denna avhandling är Markov-kedje Monte Carlo (MCMC) metoder, en av de mest använda klasserna av samplingsalgoritmer. Att generera utfall från en sannolikhetsfördelning är ett grundläggande problem inom många tillämpade områden, inklusive beräkningsbiologi, beräkningsfysik, statistisk mekanik, maskininlärning, ekologi och epidemiologi. Inom Bayesiansk osäkerhetskvantifiering används samplingsalgoritmer för att generera utfall från posteriori-fördelningar.
De fem artiklarna i denna avhandling relaterar till MCMC metoder på tre sätt: implementering, algoritmiska framsteg och konvergensanalys baserad på teorin om stora avvikelser. Trots sina olika fokusområden har alla tre riktningarna det gemensamma målet att förbättra samplingsalgoritmer.
Artikel A introducerar R-paketet UQSA, där vi har implementerat några MCMC metoder. Ett huvudsyfte med UQSA är att erbjuda ett användarvänligt verktyg för forskare inom tillämpade vetenskaper, såsom neurovetenskap, för att lösa problem inom osäkerhetskvantifiering. Vi tillämpar metoderna i UQSA på modeller som beskriver nätverk av biokemiska reaktioner inom nervceller.
I Artikel B studerar vi en specifik MCMC algoritm: simplified manifold Metropolis-adjusted Langevin algoritm (SMMALA). När SMMALA används för Bayesiansk osäkerhetskvantifiering i modeller av ordinära differentialekvationer (ODE), krävs beräkning av ODE-systemets känslighetsmatris tusentals eller till och med miljontals gånger. Även om det finns flera befintliga algoritmer för att beräkna känslighetsmatrisen (t.ex. forward sensitivity) är de för beräkningskrävande för SMMALA. I Artikel B föreslår vi en metod baserad på Peano-Baker-serien från reglerteori för att approximera ODE-känsligheter, den är beräkningsmässigt billigare än tidigare metoder och tillräckligt noggrann för samplingsändamål.
MCMC litteraturen erbjuder ett brett utbud av algoritmer för att generera utfall från en sannolikhetsfördelning. Fördelningarna som förekommer i tillämpningar är ofta komplexa och högdimensionella, och en blind användning av standardalgoritmer på dessa fördelningar blir ofta beräkningsmässigt ohanterlig. Det finns därför ett stort behov av verktyg för att analysera och utveckla algoritmer som effektivt kan generera utfall från en given fördelning inom rimlig beräkningstid. Under de senaste åren har intresset ökat för att använda teorin om stora avvikelser, en av hörnstenarna inom modern sannolikhetsteori, för att beskriva konvergenshastigheten av MCMC metoder.
I Artiklarna C, D och E använder vi metoder från stora avvikelser för att studera konvergens av Metropolis-Hastings (MH) algoritmer, en av de mest populära klasserna av MCMC metoder. I Artikel C fastställer vi en stora avvikelser princip för empiriska mått av Markovkedjor genererade av en MH algoritm för sampling från fördelningar på kontinuerliga delmängder av
. I Artikel D tillämpar vi detta resultat på specifika MH algoritmer och härleder stora avvikelser principer för två vanliga MCMC metoder: Independent Metropolis Hastings algoritmen och Metropolis-adjusted Langevin algoritmen. Dessutom visar vi att de nuvarande antagandena i principen för stora avvikelser från Artikel C inte gäller för Random Walk Metropolis. I Artikel E vidareutvecklar stora avvikelser principen från Artikel C och illustrerar hur detta teoretiska resultat kan användas för att justera MH algoritmer och uppnå snabbare konvergens.
Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2025. p. 251
Series
TRITA-SCI-FOU ; 2025:15
Keywords
Uncertainty Quantification, Markov chain Monte Carlo methods, Large Deviations
National Category
Probability Theory and Statistics
Research subject
Applied and Computational Mathematics, Mathematical Statistics
Identifiers
urn:nbn:se:kth:diva-363218 (URN)978-91-8106-239-7 (ISBN)
Public defence
2025-06-05, D3, Lindstedtsvägen 9, Stockholm, 09:00 (English)
Opponent
Supervisors
Note
QC 2025-05-08
2025-05-082025-05-072025-05-15Bibliographically approved