scholarly journals Study of diboson production and of the Fast Tracker upgrade in the ATLAS experiment at CERN

2018 ◽  
Author(s):  
Σταμάτιος Γκαϊτατζής

Η παρούσα διδακτορική διατριβή επικεντρώνεται σε τρία συνδεόμενα αλλά διακριτά θέματα. Το πρώτο θέμα είναι η μελέτη της παραγωγής των διμποζονίωνW±Z και ZZ από συγκρούσεις πρωτονίων σε ενέργεια κέντρου μάζας √s = 8 TeV, στον Μεγαλο Επιταχυντή Αδρονίων (Large Hadron Collider, LHC). Τα δεδομένα για τις δύο αυτές μελέτες συλλέχθηκαν από τον ανιχνευτή ATLAS την περίοδο 2012 − 2013. Τα γεγονότα που επιλέχθηκαν περιλαμβάνουν δύο, τρία ή τέσσερα λεπτόνια (ηλεκτρόνια ή μιόνια) λόγω της σχετικής ευκολίας στην επιλογή των γεγονότων αυτών σε πραγματικό χρόνο. Η διατριβή αυτή ασχολείται με τη θεωρητική μελέτη της παραγωγής των γεγονότων αυτών, η προσομοίωση των οποίων πραγματοποιήθηκε με γεννήτορες Monte Carlo. Για τα γεγονότα W±Z χρησιμοποιήθηκε το πρόγραμμα Powheg, ενώ η αντίστοιχη μελέτη για την παραγωγή των γεγονότων ZZ πραγματοποιήθηκε με τα PowhegBox και gg2VV, τα αποτελέσματα των οποίων συγκρίθηκαν με το MCFM που χρησιμοποιούνταν σε προγενέστερες αναλύσεις. Οι μετρήσεις της ενεργού διατομής, τόσο της ολικής όσο και συναρτήσει κάποιων επιμέρους χαρακτηριστικών των γεγονότων συγκρίνονται με τις προβλέψεις των θεωρητικών μοντέλων. Τα αποτελέσματα των μετρήσεων βρίσκονται σε συμφωνία με τις θεωρητικές προβλέψεις, με τη συμφωνία για την παραγωγή του ζεύγους ZZ να είναι μεγαλύτερη από τη συμφωνία του ζεύγους W±Z. Το δεύτερο αντικείμενο της διατριβής αφορά την ενσωμάτωση του Fast TracKer (FTK) στο σύστημα σκανδαλισμού (δηλαδή το σύστημα επιλογής γεγονότων σε πραγματικό χρόνο) του ανιχνευτή ATLAS ώστε το πείραμα να μπορεί να επιλέγει προς καταγραφή “ενδιαφέροντα” γεγονότα από συγκρούσεις πρωτονίων με μεγαλύτερη απόδοση συγκριτικά με το τωρινό σύστημα. Το FTK είναι ένα πολύπλοκο ηλεκτρονικό σύστημα το οποίο υπολογίζει τις πέντε βασικές παραμέτρους των τροχιών των φορτισμένων σωματιδίων που παράγονται από τις συγκρούσεις των πρωτονίων στο εσωτερικό του ανιχνευτή. Οι τροχιές που υπολογίζονται θα παρέχονται στο σύστημα σκανδαλισμού υψηλού επιπέδου αυξάνοντας την αποδοτικότητά του σε γεγονότα αυξημένης πολυπλοκότητας.Η διατριβή αυτή επικεντρώνεται στην ανάπτυξη του λογισμικού για την ακριβή περιγραφή του πρώτου συστήματος του FTK, την πλακέτα εισόδου FTK_IM (FTK Input Mezzanine), η οποία είναι υπεύθυνη για τη συσταδοποίηση των εικονοστοιχείων στα οποία έχει εναποτεθεί φορτίο από το διαπερνών σωματίδιο. Συγκεκριμένα, εντοπίζονται τα γειτονικά εικονοστοιχεία με εναποτεθέν φορτίο τα οποία συγκροτούν συστάδες και υπολογίζεται το κέντρο βάρους της κάθε συστάδας. Το κεντροειδές μιας συστάδας υποδηλώνει το σημείο διέλευσης ενός σωματιδίου από το επίπεδο του ανιχνευτή. Η αναπτυχθείσα υλοποίηση χρησιμοποιεί ένα μετακινούμενο δισδιάστατο παράθυρο ανίχνευσης και πραγματοποιεί τη συσταδοποίηση μόνο στο εσωτερικό του παραθύρου, ενώ δεν παίρνει υπ’ όψιν της το φορτίο που έχει εναποτεθεί σε κάθε εικονοστοιχείο. Η περιγραφή στο λογισμικό έγινε σε επίπεδο ακρίβειας ενός bit σε σχέση με την ανάπτυξη του συστήματος σε υλικό (hardware). Αυτός ο τρόπος υπολογισμού του κεντροειδούς είναι απλοποιημένος σε σχέση με το τι θα μπορούσε να πραγματοποιηθεί σε λογισμικό, αλλά επιλέχθηκε για να επιτευχθεί η αναγκαία ταχύτητα στην επεξεργασία της πληροφορίας που δίνει ο ανιχνευτής στο σύστημα FTK. Η διατριβή αυτή επίσης μελετάει την επίπτωση που έχει αυτή η απλούστευση στον υπολογισμό των παραμέτρων των τροχιών των σωματιδίων.Η μελέτη πραγματοποιήθηκε σε γεγονότα που περιέχουν από ένα μόνο μιόνιο, καθώς και σε περίπλοκα γεγονότα όπου παράγονται top και anti-top κουάρκ (tt̄) με 60 επικαλυπτόμενες συγκρούσεις πρωτονίων. Βρέθηκε ότι η απλοποιημένη αλλά ταχύτατη υλοποίηση στην εύρεση των κεντροειδών δίνει τροχιές με πολύ μικρές αποκλίσεις από τον πληρέστερο τρόπο υπολογισμού, και έτσι o απλοποιημένος υπολογισμός των κεντροειδών αποτελεί πλέον την προκαθορισμένη επιλογή για τη λειτουργία του FTK.Τέλος, η διατριβή ασχολείται με τη χρήση υποσυστημάτων του FTK σε εφαρμογές εκτός του τομέα φυσικής υψηλών ενεργειών. Συγκεκριμένα, το κύκλωμα Μνήμης Συσχέτισης (Associative Memory), το οποίο σχεδιάστηκε για χρήση στο FTK, χρησιμοποιήθηκε ως ο πυρήνας ενός συστήματος ικανό να πραγματοποιήσει επεξεργασία εικόνας σε πραγματικό χρόνο. Το σύστημα αυτό στηρίχθηκε στην ικανότητα του κυκλώματος Μνήμης Συσχέτισης να πραγματοποιεί αντιστοίχηση μοτίβων σε πραγματικό χρόνο με σκοπό την αναγνώριση των σημαντικότερων τμημάτων μιας εικόνας. Ο αλγόριθμος που επιλέχθηκε για τον ορισμό των σημαντικών μοτίβων βασίζεται σε ένα νευροφυσιολογικό μοντέλο της ανθρώπινης όρασης το οποίο πραγματοποιεί μείωση των δεδομένων κατά το πέρασμά τους από το οπτικό νεύρο. Εν συνεχεία, εξετάζεται η χρήση του συστήματος αυτού ως φίλτρο μαγνητικών τομογραφιών. Ο έλεγχος αυτός έδειξε την ικανότητα του συστήματος να επαυξήσει τα κύρια χαρακτηριστικά των τομογραφιών καθιστώντας ευκολότερη την ταχεία αναγνώριση του Αλτσχάιμερ και άλλων ασθενειών.

2015 ◽  
Vol 30 (34) ◽  
pp. 1530061 ◽  
Author(s):  
Douglas M. Gingrich

The possibility of producing nonperturbative low-scale gravity states in collider experiments was first discussed in about 1998. The ATLAS and CMS experiments have searched for nonperturbative low-scale gravity states using the Large Hadron Collider with a proton–proton center-of-mass energy of 8 TeV. These experiments have now seriously confronted the possibility of producing nonperturbative low-scale gravity states which were proposed over 17 years ago. I will summarize the results of the searches, give a personal view of what they mean, and make some predictions for 13 TeV center-of-mass energy. I will also discuss early ATLAS 13 TeV center-of-mass energy results.


2015 ◽  
Vol 13 (4) ◽  
pp. 511-521 ◽  
Author(s):  
M. Battistin ◽  
S. Berry ◽  
A. Bitadze ◽  
P. Bonneau ◽  
J. Botelho-Direito ◽  
...  

Abstract The silicon tracker of the ATLAS experiment at CERN Large Hadron Collider will operate around –15°C to minimize the effects of radiation damage. The present cooling system is based on a conventional evaporative circuit, removing around 60 kW of heat dissipated by the silicon sensors and their local electronics. The compressors in the present circuit have proved less reliable than originally hoped, and will be replaced with a thermosiphon. The working principle of the thermosiphon uses gravity to circulate the coolant without any mechanical components (compressors or pumps) in the primary coolant circuit. The fluorocarbon coolant will be condensed at a temperature and pressure lower than those in the on-detector evaporators, but at a higher altitude, taking advantage of the 92 m height difference between the underground experiment and the services located on the surface. An extensive campaign of tests, detailed in this paper, was performed using two small-scale thermosiphon systems. These tests confirmed the design specifications of the full-scale plant and demonstrated operation over the temperature range required for ATLAS. During the testing phase the system has demonstrated unattended long-term stable running over a period of several weeks. The commissioning of the full scale thermosiphon is ongoing, with full operation planned for late 2015.


2016 ◽  
Vol 79 (3) ◽  
pp. 433-443
Author(s):  
A. A. Artamonov ◽  
V. S. Epshteyn ◽  
V. B. Gavrilov ◽  
A. A. Gavrilyuk ◽  
P. A. Gorbounov ◽  
...  

2011 ◽  
Vol 2 (0) ◽  
pp. 358-364 ◽  
Author(s):  
Giuseppe BATTISTONI ◽  
Francesco BROGGI ◽  
Markus BRUGGER ◽  
Mauro CAMPANELLA ◽  
Massimo CARBONI ◽  
...  

2021 ◽  
Vol 251 ◽  
pp. 04019
Author(s):  
Andrei Kazarov ◽  
Adrian Chitan ◽  
Andrei Kazymov ◽  
Alina Corso-Radu ◽  
Igor Aleksandrov ◽  
...  

The ATLAS experiment at the Large Hadron Collider (LHC) operated very successfully in the years 2008 to 2018, in two periods identified as Run 1 and Run 2. ATLAS achieved an overall data-taking efficiency of 94%, largely constrained by the irreducible dead-time introduced to accommodate the limitations of the detector read-out electronics. Out of the 6% dead-time only about 15% could be attributed to the central trigger and DAQ system, and out of these, a negligible fraction was due to the Control and Configuration subsystem. Despite these achievements, and in order to improve even more the already excellent efficiency of the whole DAQ system in the coming Run 3, a new campaign of software updates was launched for the second long LHC shutdown (LS2). This paper presents, using a few selected examples, how the work was approached and which new technologies were introduced into the ATLAS Control and Configuration software. Despite these being specific to this system, many solutions can be considered and adapted to different distributed DAQ systems.


2005 ◽  
Vol 20 (16) ◽  
pp. 3871-3873 ◽  
Author(s):  
DAVID MALON

Each new generation of collider experiments confronts the challenge of delivering an event store having at least the performance and functionality of current-generation stores, in the presence of an order of magnitude more data and new computing paradigms (object orientation just a few years ago; grid and service-based computing today). The ATLAS experiment at the Large Hadron Collider, for example, will produce 1.6-megabyte events at 200 Hz–an annual raw data volume of 3.2 petabytes. With derived and simulated data, the total volume may approach 10 petabytes per year. Scale, however, is not the only challenge. In the Large Hadron Collider (LHC) experiments, the preponderance of computing power will come from outside the host laboratory. More significantly, no single site will host a complete copy of the event store–data will be distributed, not simply replicated for convenience, and many physics analyses will routinely require distributed (grid) computing. This paper uses the emerging ATLAS computing model to provide a glimpse of how next-generation event stores are taking shape, touching on key issues in navigation, distribution, scale, coherence, data models and representation, metadata infrastructure, and the role(s) of databases in event store management.


2015 ◽  
Vol 23 (1) ◽  
pp. 57-70
Author(s):  
Aleandro Nisati

The Large Hadron Collider (LHC) at CERN is the highest energy machine for particle physics research ever built. In the years 2010–2012 this accelerator has collided protons to a centre-mass-energy up to 8 TeV (note that 1 TeV corresponds to the energy of about 1000 protons at rest; the mass of one proton is about 1.67×10–24 g). The events delivered by the LHC have been collected and analysed by four apparatuses placed alongside this machine. The search for the Higgs boson predicted by the Standard Model and the search for new particles and fields beyond this theory represent the most important points of the scientific programme of the LHC. In July 2012, the international collaborations ATLAS and CMS, consisting of more than 3000 physicists, announced the discovery of a new neutral particle with a mass of about 125 GeV, whose physics properties are compatible, within present experimental and theoretical uncertainties, to the Higgs boson predicted by the Standard Model. This discovery represents a major milestone for particle physics, since it indicates that the hypothesized Higgs mechanism seems to be responsible for the masses of elementary particles, in particular W± and Z0 bosons, as well as fermions (leptons and quarks). The 2013 Physics Nobel Prize has been assigned to F. Englert and P. Higgs, ‘for the theoretical discovery of a mechanism that contributes to our understanding of the origin of mass of subatomic particles, and which recently was confirmed through the discovery of the predicted fundamental particle, by the ATLAS and CMS experiments at CERN's Large Hadron Collider’.


2014 ◽  
Vol 112 (40) ◽  
pp. 12256-12263 ◽  
Author(s):  
Michael E. Peskin

I review the status of the model of dark matter as the neutralino of supersymmetry in the light of constraints on supersymmetry given by the 7- to 8-TeV data from the Large Hadron Collider (LHC).


Sign in / Sign up

Export Citation Format

Share Document