Preview |
PDF, English
- main document
Download (5MB) | Terms of use |
Abstract
Inference tasks on non-Gaussian posterior distributions are commonly approached using Markov chain Monte Carlo. We draw an analogy to canonical partition functions defined as Laplace transforms of the Bayesian likelihood and prior. This allows to derive analytical expressions for cumulants of the posterior. At second order, we recover the conventional Fisher matrix formalism. We find a closed formula for cumulants of weakly non-Gaussian posteriors. Additionally, we use this formalism to construct physically motivated convergence criteria with clearly defined target values based on virialization, equipartition, and thermalization of the Markov chain. We successfully validate these approaches using a dark energy model applied to supernova data. To speed up forward simulation we use physics-informed neural networks (PINNs). They provide fast and accurate predictions of the luminosity distance for a given choice of parameters. Using the same architecture we perform a model-independent, parameter-free reconstruction of the Hubble function. The PINN uncertainties are quantified using a heteroscedastic loss and repulsive ensembles. Continuing in the vein of fast simulations, we construct the parallelized inflation solver PARALLIZIS, based on the Madelung transformed perturbation equations. It provides a forward simulation from arbitrary inflaton potentials to the primordial power spectrum, while allowing for GPU parallelization.
Translation of abstract (German)
Das Markov-Chain-Monte-Carlo-Verfahren ist eine übliche Methode zur Inferenz auf nicht-Gaußschen A-posteriori-Verteilungen. Markov-Ketten können als Random Walk in einem, durch eine statistische Zustandssumme bestimmten, thermischen System verstanden werden. Hierbei ist die Zustandssumme als Laplace-Transformation der bayesschen Likelihood und A-priori-Verteilung definiert. Diese kann als kumulantenerzeugende Funktion genutzt werden. Aus den Kumulanten erster und zweiter Ordnung lässt sich wiederum der Fisher-Matrix-Formalismus herleiten. Darüber hinaus wird eine geschlossene Formel für Kumulanten schwach nicht-Gaußscher A-posteriori-Verteilungen konstruiert. Die so definierten Zustandssummen werden in der Folge genutzt, um, basierend auf der Virialisierung, Äquipartition und Thermalisierung von Markov-Ketten, Konvergenzkriterien mit klar definierten Zielwerten zu entwickeln. Anschließend werden Supernova Daten verwendet, um diese Ansätze erfolgreich auf ein Modell Dunkler Energie anzuwenden. Dabei wird die Konvergenz der untersuchten Markov-Ketten durch den Einsatz Physik-informierter neuronaler Netze (PINNs) beschleunigt, welche schnelle und präzise Vorhersagen der Leuchtkraftentfernung liefern. Diese Architektur wird verwendet, um eine modellunabhängige, parameterfreie Rekonstruktion der Hubble-Funktion zu erstellen. Hierbei werden die Unsicherheiten über heteroskedastische Verlustfunktionen und repulsive Ensembles quantifiziert. Ferner wird ausgehend von den Madelung-transformierten Mukhanov-Sasaki-Gleichungen eine GPU-parallelisierte Inflationssimulation vorgestellt. Diese bestimmt die primordialen Fluktuationen nach der Inflation ausgehend von einem beliebigen Inflatonpotential.
Document type: | Dissertation |
---|---|
Supervisor: | Schäfer, Prof. Dr. Björn Malte |
Place of Publication: | Heidelberg |
Date of thesis defense: | 22 January 2025 |
Date Deposited: | 28 Jan 2025 07:05 |
Date: | 2025 |
Faculties / Institutes: | The Faculty of Physics and Astronomy > Dekanat der Fakultät für Physik und Astronomie |
DDC-classification: | 530 Physics |
Controlled Keywords: | Physik, Maschinelles Lernen |