Questa tesi indaga l'Universalità Leptonica, la proprietà del Modello Standard della fisica delle particelle secondo cui la forza elettrodebole si accoppia a tutte e tre le generazioni di leptoni nello stesso modo. A questo scopo, si propone di misurare i decadimenti di mesoni B strani in stati finali contenenti leptoni tau presso l'esperimento Large Hadron Collider Beauty (LHCb) al CERN. Costruire e gestire l’esperimento LHCb richiede l’impegno di oltre 1400 fisici e ingegneri, la realizzazione di un rivelatore di dimensioni colossali e il reperimento di enormi quantità di risorse di calcolo per elaborare e analizzare i dati registrati. Questi dati e tutti i risultati della ricerca sono a disposizione di tutti i partecipanti all’esperimento e dovrebbero essere utilizzabili dai fisici in futuro, come affermato nella convenzione per l'istituzione del CERN. Preservare i prodotti della ricerca e tutti i dati associati è un compito difficile, ma è cruciale e ha un’alta priorità per il CERN e per le agenzie che finanziano la fisica delle particelle in tutto il mondo, che insistono sull’applicazione dei principi FAIR per la gestione dei dati. Questo lavoro di tesi riassume i metodi e gli strumenti disponibili o già applicati dall'esperimento LHCb per preservare i suoi dati e le analisi derivate, al fine di identificare le lacune nel software e nei metodi utilizzati. Le indagini evidenziano la necessità di migliorare la tracciabilità dei sottoprodotti dell'analisi dei dati, assicurando che sia preservato il collegamento tra i dati registrati e i risultati finali. A questo scopo, questa tesi propone nuovi strumenti che consentono agli analisti di arricchire i metadati associati ai set di dati di LHCb. Questi metadati possono successivamente essere utilizzati per identificare e selezionare set di dati, semplificando così il lavoro degli analisti. Inoltre, per tracciare ulteriormente le varie fasi dell'analisi dei dati di LHCb, questi nuovi strumenti si integrano con il noto motore di flusso di lavoro Snakemake e consentono l'uso di sistemi di test e di integrazione continua disponibili al CERN. Utilizzando questi nuovi strumenti, il lavoro di tesi si innesta sulle attività svolte in precedenza per misurare i decadimenti dei mesoni B strani a LHCb. La categorizzazione dei candidati di decadimento viene migliorata e affinata tramite l’uso di dati simulati per poter modellare i diversi tipi di fondo. La separazione tra i decadimenti di segnale dal fondo dovuto a decadimenti con due adroni contenenti il quark charm viene effettuata addestrando un albero decisionale, che viene utilizzato sia per filtrare i dati sia come variabile d’ingresso di un fit tridimensionale (insieme al quadrato della quantità di moto trasferita al sistema tau/neutrino tau e al tempo di decadimento del tau). Questo fit viene eseguito su simulazioni parametriche, nonché sui dati di simulazione Monte-Carlo esistenti, dimostrando che è possibile estrarre in modo affidabile il segnale all'interno dei campioni disponibili. Questo è un passo importante nella misura, che deve essere seguito da un’ulteriore validazione del modello e dalla valutazione delle incertezze sistematiche.

This thesis investigates Lepton Flavour Universality (LFU), the property of the Standard model of particle physics that the electroweak force couples to all three generations of the charged leptons with the same strength. For this purpose, it discusses the measurement of the occurrence of strange B meson decays to tau leptons in the final states at the Large Hadron Collider Beauty experiment (LHCb) experiment at CERN. Building and operating the LHCb experiment requires the effort of more than 1400 physicists and engineers, a colossal detector and massive amounts of computing resources to process and analyse the recorded data. This data and all research outcomes are available to all participants, and should be usable by future physicists, as stated in the convention for the establishment of CERN. Preserving this research and all the associated data is a difficult task, but it is crucial and has a high priority for CERN and for agencies funding particle physics all over the world, who insist on the application of the FAIR principles for data management (the data should Findable, Accessible, Interoperable and Reusable) . This work summarises the methods and tools available or already applied by the LHCb experiment to preserve its data and the derived analyses, in order to identify gaps in the software and methods used. Investigations point to the need to improve the traceability of data analysis byproducts, making sure that the link between recorded data and final results is preserved. For this purpose, this thesis proposes new tools that allow analysts to enrich the metadata associated with LHCb datasets. This metadata can subsequently be used to identify and select datasets, thus simplifying the analysts work. Furthermore, in order to further track the various stages ofLHCb data analyses, these new tools integrate with the popular Snakemake workflow engine, and allow the use of testing and continuous integration systems available at CERN. Using these new tools, this work therefore continues on previous efforts to measure strange B meson decays at LHCb: using simulated data, it refines the categorisation of decay candidates in order to be able to model different types of background. A decision tree is trained to identify signal decays from double charm background which is used both to filter the data and as an input to a three-dimensional fit (alongside the square of the momentum transferred to the tau/tau neutrino system and tau proper decay time). This fit is run on toy simulations, as well as on the existing simulation data, showing that it allows to reliably extract the signal yield within the available samples. This is a major step in the measurement that needs to be followed by further validation of the model and evaluation of systematic uncertainties.

Lepton Flavour Universality and analysis frameworks

COUTURIER, BENJAMIN
2024

Abstract

Questa tesi indaga l'Universalità Leptonica, la proprietà del Modello Standard della fisica delle particelle secondo cui la forza elettrodebole si accoppia a tutte e tre le generazioni di leptoni nello stesso modo. A questo scopo, si propone di misurare i decadimenti di mesoni B strani in stati finali contenenti leptoni tau presso l'esperimento Large Hadron Collider Beauty (LHCb) al CERN. Costruire e gestire l’esperimento LHCb richiede l’impegno di oltre 1400 fisici e ingegneri, la realizzazione di un rivelatore di dimensioni colossali e il reperimento di enormi quantità di risorse di calcolo per elaborare e analizzare i dati registrati. Questi dati e tutti i risultati della ricerca sono a disposizione di tutti i partecipanti all’esperimento e dovrebbero essere utilizzabili dai fisici in futuro, come affermato nella convenzione per l'istituzione del CERN. Preservare i prodotti della ricerca e tutti i dati associati è un compito difficile, ma è cruciale e ha un’alta priorità per il CERN e per le agenzie che finanziano la fisica delle particelle in tutto il mondo, che insistono sull’applicazione dei principi FAIR per la gestione dei dati. Questo lavoro di tesi riassume i metodi e gli strumenti disponibili o già applicati dall'esperimento LHCb per preservare i suoi dati e le analisi derivate, al fine di identificare le lacune nel software e nei metodi utilizzati. Le indagini evidenziano la necessità di migliorare la tracciabilità dei sottoprodotti dell'analisi dei dati, assicurando che sia preservato il collegamento tra i dati registrati e i risultati finali. A questo scopo, questa tesi propone nuovi strumenti che consentono agli analisti di arricchire i metadati associati ai set di dati di LHCb. Questi metadati possono successivamente essere utilizzati per identificare e selezionare set di dati, semplificando così il lavoro degli analisti. Inoltre, per tracciare ulteriormente le varie fasi dell'analisi dei dati di LHCb, questi nuovi strumenti si integrano con il noto motore di flusso di lavoro Snakemake e consentono l'uso di sistemi di test e di integrazione continua disponibili al CERN. Utilizzando questi nuovi strumenti, il lavoro di tesi si innesta sulle attività svolte in precedenza per misurare i decadimenti dei mesoni B strani a LHCb. La categorizzazione dei candidati di decadimento viene migliorata e affinata tramite l’uso di dati simulati per poter modellare i diversi tipi di fondo. La separazione tra i decadimenti di segnale dal fondo dovuto a decadimenti con due adroni contenenti il quark charm viene effettuata addestrando un albero decisionale, che viene utilizzato sia per filtrare i dati sia come variabile d’ingresso di un fit tridimensionale (insieme al quadrato della quantità di moto trasferita al sistema tau/neutrino tau e al tempo di decadimento del tau). Questo fit viene eseguito su simulazioni parametriche, nonché sui dati di simulazione Monte-Carlo esistenti, dimostrando che è possibile estrarre in modo affidabile il segnale all'interno dei campioni disponibili. Questo è un passo importante nella misura, che deve essere seguito da un’ulteriore validazione del modello e dalla valutazione delle incertezze sistematiche.
GUIDI, Vincenzo
File in questo prodotto:
File Dimensione Formato  
LFU-and-analysis-frameworks-r15.pdf

accesso aperto

Descrizione: LFU-and-analysis-frameworks-r15.pdf
Tipologia: Tesi di dottorato
Dimensione 21.42 MB
Formato Adobe PDF
21.42 MB Adobe PDF Visualizza/Apri

I documenti in SFERA sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11392/2543590
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact