Directly to content
  1. Publishing |
  2. Search |
  3. Browse |
  4. Recent items rss |
  5. Open Access |
  6. Jur. Issues |
  7. DeutschClear Cookie - decide language by browser settings

The Flow of LHC Events - Generative models for LHC simulations and inference

Heimel, Theo

[thumbnail of theo_heimel_phd_thesis_pdfa.pdf]
Preview
PDF, English
Download (4MB) | Terms of use

Citation of documents: Please do not cite the URL that is displayed in your browser location input, instead use the DOI, URN or the persistent URL below, as we can guarantee their long-time accessibility.

Abstract

Generative neural networks have various applications in LHC physics, for both fast simulations and precise inference. We first show that normalizing flows can be used to generate reconstruction-level events with percent-level precision. To estimate their generation uncertainties, we apply Bayesian neural networks. Further, we study the weight distribution from a classifier network which can be used for reweighting, as a performance metric and as a diagnostic tool. Next, we introduce the MadNIS framework for neural importance sampling. It improves classical methods for phase-space integration and sampling using adaptive multi-channel weights and normalizing flows as learnable channel mappings. We show that it leads to significant performance gains for several realistic LHC processes implemented in the MadGraph event generator. Generative networks can also improve analyses by maximizing the amount of extracted information. The matrix element method uses the full kinematic information, making it the tool of choice for small event numbers. It relies on a transfer function to model the shower, detector and acceptance effects. We show how three networks can be used to encode these effects, and for efficient phase-space integration. We use normalizing flows for fast sampling, diffusion models for precise density estimation, and solve jet combinatorics with a transformer.

Translation of abstract (German)

Generative neuronale Netze haben zahlreiche Anwendungen in der LHC-Physik, sowohl für schnelle Simulationen als auch für präzise Messungen. Wir zeigen zunächst, wie rekonstruierte Events mithilfe von Normalizing Flows mit einer Präzision von einem Prozent generiert werden können. Desweiteren extrahieren wir mit einem Classifier Event-Gewichte, die zum Umgewichten der generierten Events, als Performancemetrik und als diagnostisches Hilfsmittel verwendet werden können. Danach führen wir MadNIS, ein Framework für neuronales Multi-Channel Importance Sampling, ein. Dieses verbessert klassische Phasenraumintegrations- und Samplingmethoden, indem es adaptive Channelgewichte mit Normalizing Flows als lernbare Transformationen kombiniert. Wir wenden unsere Methode mithilfe des MadGraph-Eventgenerators auf realistische LHC-Prozesse an, wo sie zu einer signifikanten Effizienzsteigerung führt. Generative Netzwerke können auch für verbesserte Analysemethoden verwendet werden, die die aus gemessenen Daten extrahierte Informationsmenge maximieren. Die Matrixelementmethode ist solch eine Inferenzmethode, die alle verfügbaren kinematischen Informationen nutzt. Daher ist sie gut für Prozesse mit sehr wenigen gemessenen Events geeignet. Sie benötigt jedoch eine Transferfunktion, die die Effekte von Partonshower, Detektor und Akzeptanz beschreibt. Wir verwenden drei neuronale Netze zum Modellieren dieser Effekte sowie zur effizienten Phasenraumintegration. Wir nutzen Normalizing Flows für schnelles Sampling, Diffusionsmodelle für präzise Extraktion der Phasenraumdichte und lösen die Jet-Kombinatorik mithilfe eines Transformers.

Document type: Dissertation
Supervisor: Plehn, Prof. Dr. Tilman
Place of Publication: Heidelberg
Date of thesis defense: 17 April 2024
Date Deposited: 30 Apr 2024 14:58
Date: 2024
Faculties / Institutes: The Faculty of Physics and Astronomy > Institute for Theoretical Physics
DDC-classification: 530 Physics
About | FAQ | Contact | Imprint |
OA-LogoDINI certificate 2013Logo der Open-Archives-Initiative