96
47. Herbstschule ur Hochenergiephysik Maria Laach 8.–18. September 2015 Zusammenfassungen der Kurzberichte der Teilnehmerinnen und Teilnehmer

47. Herbstschule fuer Hochenergiephysik Maria Laach 2015 · Cosmology Yvonne Wong New South Wales University Abendvortrage¨ Das dunkle Universum und andere Ratsel¨ der Kosmologie

Embed Size (px)

Citation preview

47. Herbstschulefur

HochenergiephysikMaria Laach

8.–18. September 2015

Zusammenfassungender Kurzberichte

der Teilnehmerinnen und Teilnehmer

47. Herbstschulefur

Hochenergiephysik

Maria Laach8.–18. September 2015

Die Herbstschule fur Hochenergiephysikwird vom

Bundesministerium fur Bildung und Forschung (BMBF)finanziell unterstutzt.

Organisatoren

Prof. Dr. S. Bethke Prof. Dr. S. Dittmaier Prof. Dr. Th. MannelMPI fur Physik, Munchen Universitat Freiburg Universitat Siegen

Kontaktperson fur 2015

Prof. Dr. S. DittmaierUniversitat Freiburg

http://maria-laach.tp.nt.uni-siegen.de/

Inhaltsverzeichnis

Laach Klosterkirche, Basis

Programm . . . . . . . . . . . . . . . . . . . . . . . . 6

Zeitplan . . . . . . . . . . . . . . . . . . . . . . . . . . 8

Teilnehmerinnen und Teilnehmer . . . .9

Kurzdarstellungen . . . . . . . . . . . . . . . . 15

5

Programm

Vorlesungen

The Standard Model of Particle Physics Andre Hoang Universitat Wien

Charged Leptons - The Gate to New

Physics?Andre Schoning Universitat Heidelberg

CERN (Genf, Schweiz) undPhysics Beyond the Standard Model John Ellis

King’s College London

Principles of Particle Physics Detection Bruce Schumm UC, Santa Cruz

Experimental Results from ATLASUlla Blumenschein Universitat Gottingen

and CMS

Future Colliders Eckhard Elsen DESY, Hamburg

Cosmology Yvonne Wong New South Wales University

Abendvortrage

Das dunkle Universum und andere Ratsel

der KosmologieMatthias Bartelmann Universitat Heidelberg

Die Welt des Allerkleinsten:

Faszination TeilchenphysikThomas Mannel Universitat Siegen

Geologie der Vulkaneifel Siegfried Bethke MPI fur Physik, Munchen

Wege zu Gott Bruder Simeon Maria Laach

6

Ubungen

Feynman-Diagramme fur Anfanger Thorsten Ohl Univ. Wurzburg

Strahlungskorrekturen und Renormierung Lars Hofer IFAE Barcelona

Koordinatoren der Gruppenberichte

Gruppe Experiment Theorie

A Carmen Diez Pardos DESY Stefan Kallweit Univ. Mainz

B Sascha Mehlhase LMU Munchen Luminita Mihaila KIT, Karlsruhe

MaximilianC Martin Flechl HEPHY

von StahlhofenDESY

7

Zeitplan

Dienstag Mittwoch Donnerstag Freitag Samstag

08.09. 09.09. 10.09. 11.09. 12.09.

08:30–09:25 Hoang Wong Schumm Hoang

09:40–10:35 Schumm Hoang Wong Kirchenbesuch

10:50–11:45 Wong Schumm Hoang

11:55 Mittagessen

14:30–16:00 Anreise Ubungen Ubungen Ubungen Gruppen

16:05–16:25 Kaffeepause

16:30–18:00 Ubungen Gruppen Gruppen

18:25 Abendessen

19:30 Begrußung

20:00 Simeon Bartelmann Bethke

Montag Dienstag Mittwoch Donnerstag Freitag

14.09. 15.09. 16.09. 17.09. 18.09.

08:30–09:25 Blumenschein Schoning Ellis Elsen Blumenschein

09:40–10:35 Ellis Blumenschein Schoning Ellis Elsen

10:50–11:45 Schoning Ellis Elsen Blumenschein Diskussion

11:55 Mittagessen

14:30–16:00 Ubungen Ubungen Ubungen Abreise

16:05–16:25 Kaffeepause

16:30–18:00 Gruppen Gruppen Gruppen

18:25 Abendessen

20:00 Mannel

8

Teilnehmerinnen und Teilnehmer

Detektor- und Beschleunigertechnologie

Stadt Name InstitutNr. (Gr.) Titel des Vortrags Seite

Aachen Simon Nieswand I. Physikalisches Institut B, RWTH AachenD-1 (A) Ein hochauflosender Szintillationsfaser-Tracker mit Silizium-Photomulti-

plier-Auslese fur das LHCb-Experiment15

Bonn Leonard Germic Physikalisches Institut der Universitat BonnD-2 (B) Charakterisierung des Data Handling Processor fur den zukunftigen BELLE

II Detektor am asymmetrischen e� eC Beschleuniger SuperKEK-B.16

Dortmund Andreas Gisen Experimentelle Physik IV, TU DortmundD-3 (C) Sensorentwicklung fur das Upgrade des ATLAS-Pixeldetektors 18Garching Ralph Muller Fakultat fur Physik, LMU MunchenD-4 (A) Konstruktion, Bau und Vermessung von großflachigen Micromegas Detekto-

ren fur das Myonspektrometerupgrade des ATLAS Detektors19

Hamburg Coralie Neubuser DESY, HamburgD-5 (B) Vergleich von zwei hoch-granularen Kalorimeter-Prototypen fur den ILC 21Heidelberg Hanno Theenhausen Kirchhoff-Institut fur Physik, Univ. HeidelbergD-6 (C) Inbetriebnahme und Monitoring der neuen Multi-Chip-Module des ATLAS

Level-1 Kalorimeter Triggers23

Karlsruhe Benedikt Freund Institut fur Experimentelle Kernphysik, KITD-7 (A) Modulproduktion fur das Phase I-Upgrade des CMS-Pixeldetektors am Large

Hadron Collider24

9

Experimentelle Analyse

Stadt Name InstitutNr. (Gr.) Titel des Vortrags Seite

Aachen Michael Brodski III. Physikalisches Institut A, RWTH AachenE-1 (A) Suche nach dunkler Materie in Z+MET Ereignissen mit Hilfe des CMS De-

tektors am Large Hadron Collider25

Aachen Maximilian Knut Kiesel I. Physikalisches Institut B, RWTH AachenE-2 (B) Suche nach Supersymmetrie in unbalancierten Ereignissen mit Photonen und

Jets mit dem CMS Detektor26

Aachen Markus Radziej III. Physikalisches Institut A, RWTH AachenE-3 (C) Suche nach großen Extradimensionen in einem Endzustand mit zwei Myonen

mit dem CMS Experiment28

Berlin Soren Stamm Exp. Elementarteilchenphysik I, HU BerlinE-4 (A) Anwendung der Matrixelement-Methode zur Analyse elektroschwacher Pro-

duktion einzelner Top-Quarks bei ATLAS29

Bonn Oliver Ricken Physikalisches Institut, Universitat BonnE-5 (B) Suche nach Vereinfachten Modellen von Supersymmetrie mit dem ATLAS

Experiment am Large Hadron Collider30

Bonn Lara Schildgen Physikalisches Institut, Universitat BonnE-6 (C) Messung der Polarisation von � -Leptonen in Z ! �lep �had-Zerfallen mit

dem ATLAS-Detektor32

Dortmund Vanessa Muller Experimentelle Physik V, TU DortmundE-7 (A) Messung des CP -Parameters sin.2ˇ/ in Zerfallen von B0!c NcK0

S mit demLHCb-Experiment

33

Dresden David Kirchmeier Institut fur Kern- und Teilchenphysik, TU DresdenE-8 (B) Rekonstruktion und Identifikation von geboosteten Tau-Paare-Topologien am

ATLAS Detektor35

Freiburg Fabio Cardillo Physikalisches Institut, Universitat FreiburgE-9 (C) Modellunabhangige Suche nach neuer Physik am ATLAS Experiment in

Proton-Proton Kollisionen beips D 8 TeV und

ps D 13 TeV

36

Freiburg Christian Ludtke Physikalisches Institut, Universitat FreiburgE-10 (A) Suche nach schweren Top-Squarks mit hadronischem Endzustand am

ATLAS-Detektor38

Freiburg Dirk Sammel Physikalisches Institut, Universitat FreiburgE-11 (B) Untersuchung der CP-Eigenschaften des Higgs-Bosons durch Optimale Ob-

servablen im Zerfallskanal H ! �� in der Produktion durch Vektorbosonfu-sion mit dem ATLAS-Detektor

39

Garching Jochen Heinrich Fakultat fur Physik, LMU MunchenE-12 (C) Suche nach stabilen, geladenen und massiven Teilchen mit dem ATLAS De-

tektor41

10

Gottingen Eric Drechsler II. Physikalisches Institut, Universitat GottingenE-13 (A) Suche nach dem Standardmodell Higgs Boson in Ditau-Endzustanden mit

dem ATLAS Experiment43

Hamburg Arne-Rasmus Draeger Institut fur Experimentalphysik, Universitat HamburgE-14 (B) Abschatzung desW und t Nt Untergrundes fur die Suche nach neuer Physik im

Endzustand mit Jets und fehlender Transversalenergie bei CMS44

Hamburg Moritz Habermehl DESY, HamburgE-15 (C) Suche nach WIMPs im Mono-Photon-Kanal am ILC 45Heidelberg Mathis Kolb Physikalisches Institut, Universitat HeidelbergE-16 (A) Top Quark Rekonstruktion mittels der “Buckets of tops“ Methode im ATLAS

Experiment47

Heidelberg Michael Kolpin Physikalisches Institut, Universitat HeidelbergE-17 (B) Winkelanalyse und Messung des Verzweigungsverhaltnisses des Zerfalls

B0s ! ��C�� am LHCb Experiment49

Karlsruhe Sebastian Baur Institut fur Experimentelle Kernphysik, KITE-18 (C) Uberprufung von Wechselwirkungsmodellen der kosmischen Strahlung mit

13 TeV LHC-Daten im Vorwartsbereich von CMS51

Mainz Katharina Jakobi Institut fur Physik, Universitat MainzE-19 (A) Suche nach skalaren Quarks im Endzustand mit Jets und fehlender Transver-

salenergie mit dem ATLAS Experiment52

Mainz Adam Kaluza Institut fur Physik, Universitat MainzE-20 (B) Effektive Feldtheorie im Vektorboson-Fusions Kanal mit H ! WW !

`�`� Zerfall mit dem ATLAS-Experiment54

Mainz Natalie Wieseotte Institut fur Physik, Universitat MainzE-21 (C) Suche nach der Produktion des Higgsbosons in Assoziation mit einem W-

Boson im Zerfallskanal H!WW! `�`� mit dem ATLAS-Experiment56

Mainz Markus Zinser Institut fur Physik, Universitat MainzE-22 (A) Suche nach Neuer Physik in Endzustanden mit einem Elektron und fehlender

Transversalenergie57

Munchen Fernando Abudinen Max-Planck-Institut fur Physik / LMU MunchenE-23 (B) Studien zur Optimierung der Flavor-Bestimmung von B-Mesonen im Belle II

Experiment58

Munchen Dominik Krauss Max-Planck-Institut fur Physik / TU MunchenE-24 (C) Suche nach schweren und langlebigen Teilchen mit versetzten Dileptonpaaren

am ATLAS Detektor des LHC60

Rostock Harald Viemann Institut fur Physik, Universitat RostockE-25 (A) Die Suche nach �b ! �K 61Wuppertal Arwa Bannoura Fachbereich C, Physik, Universitat WuppertalE-26 (B) Messung des t Nt Wirkungsquerschnitts im semi-leptonischen Zerfallskanal am

ATLAS Experiment62

11

Theorie

Stadt Name InstitutNr. (Gr.) Titel des Vortrags Seite

Bern Jason Aebischer Institut fur theoretische Physik, Universitat BernT-1 (A) Matching von Dimension-6 Operatoren zu b!s Ubergangen 63Bielefeld Mandy Maria Wygas Fakultat fur Physik, Universitat BielefeldT-2 (B) Produktion steriler Neutrinos bei großer Leptonasymmetrie 65Bonn Annika Reinert Bethe Center for Theoretical Physics, BonnT-3 (C) Wie bewegen sich geladene Teilchen in der Galaxie? 67Dortmund Magdalena Zenglein Theoretische Physik IV, TU DortmundT-4 (A) Tests asymptotisch sicherer Gravitation am LHC 68Freiburg Martin Rotzinger Physikalisches Institut, Universitat FreiburgT-5 (B) Effektive Feldtheorie zur Beschreibung von Higgs-Physik jenseits des Stan-

dardmodells69

Gottingen Tobias Binder Institut fur Theoretische Physik, GottingenT-6 (C) Korrekturen zur thermischen Entwicklung von Dunkler Materie 71Hamburg Markus Ebert Theorie-Gruppe, DESY HamburgT-7 (A) Prazise Vorhersagen fur differentielle Wirkungsquerschnitte des Higgs-

Bosons am LHC.73

Hamburg Anne Ernst Universitat HamburgT-8 (B) Nielsen-Identitaten und die Renormierung der Quark-Mischungs-Matrix 74Hamburg Christian Weiss Theorie-Gruppe, DESY HamburgT-9 (C) Automatisierung von NLO-akkuraten Eventsimulationen mit WHIZARD 75Karlsruhe Christoph Wiegand Institut fur theoretische Teilchenphysik, KITT-10 (A) Berechnung der NLO Korrekturen aus dem Higgssektor des Zwei-Higgs-

Doublet-Modells zu B ! s

77

Karlsruhe Hanna Ziesche Institut fur theoretische Physik, KITT-11 (B) O.˛t˛s/-Korrekturen zu den trilinearen Higgs-Kopplungen im komplexen

NMSSM78

Munchen Claudius Krause Fakultat fur Phyik, LMU MunchenT-12 (C) Die Nutzung effektiver Feldtheorien zur Charakterisierung des ”Higgs“-

Teilchens.79

Munchen Christoph Niehoff Excellence Cluster Universe, TU MunchenT-13 (A) Globale Untersuchung von Composite Higgs Modellen 81Munchen Cyril Patrick Pietsch Max-Planck-Institut fur Physik / TU MunchenT-14 (B) Quanteneffekte im Standardmodell mit einem zusatzlichen Higgs-Singlet 82Munchen Peter Stangl Excellence Cluster Universe, TU MunchenT-15 (C) Verletzung von Lepton Flavour Universalitat in Composite Higgs Modellen 83Munster Saskia Schmiemann Institut fur Theoretische Physik, Universitat MunsterT-16 (B) Berechnung der Relikdichte dunkler Materie 84

12

Siegen Bastian Muller Theoretische Physik 1, Universitat SiegenT-17 (A) Der phanomenologische Nutzen des Zerfalls NBs ! K�.! K�/` N�` 85Tubingen Matthias Kesenheimer Institut fur Theoretische Physik, Universitat TubingenT-18 (B) Zerfallseigenschaften von Zc-Mesonen 86Villigen Seraina Glaus Theorie-Gruppe LTP, Paul Scherrer InstitutT-19 (A) NLO Korrekturen zur Higgspaarproduktion via Gluonfusion 88Wien Daniel Samitz Fakultat fur Physik, Universitat WienT-20 (B) Faktorisierung und Variable Flavor Number Scheme in tief-inelastischer

Streuung89

Wuppertal Mario Prausa Theoretische Physik, Universitat WuppertalT-21 (A) Neue Methoden fur Dreischleifenintegrale mit zwei Skalen 91Wurzburg Thomas Garratt Theoretische Physik II, Universitat WurzburgT-22 (B) Nichtequilibriumsdynamik (elektroschwacher) Phasenubergange erster Ord-

nung93

Zeuthen Johann Usovitsch DESY-ZeuthenT-23 (A) Reduktion von Mehrschleifen-Skalar-Integralen auf Master-Integrale mit dem

Laporta-Algorithmus Kira94

13

D. Detektor- undBeschleunigertechnologie

D-1 (A) Ein hochauflosender Szintillationsfaser-Tracker mitSilizium-Photomultiplier-Auslese fur das LHCb-ExperimentSIMON NIESWAND

I. Physikalisches Institut B, RWTH Aachen

Am großten Teilchenbeschleuniger der Welt, dem Large Hadron Collider (LHC) am CERN, un-tersuchen Wissenschaftler aus aller Welt mithilfe komplexer Detektorsysteme die Vorhersagendes Standardmodells und suchen nach neuen physikalischen Phanomenen. Eines dieser Detek-torsysteme ist das LHCb-Experiment, welches gezielt fur die Untersuchung schwerer Hadro-nen, welche unter anderem aus Bottom- und Charm-Quarks bestehen, konzipiert wurde (“HeavyFlavour“-Physik).

Um mit der erhohten Strahlenergie und instantanen Luminositat des LHCs nach dem Long Shut-down 2 in 2018/19 umgehen zu konnen, mussen mehrere Komponenten des Detektors ausge-tauscht und verbessert werden. Zu diesem Zweck wird derzeit ein neues Tracking-System entwi-ckelt, welches den sogenannten Inner und Outer Tracker des aktuellen Detektorsystems ersetzenwird. Die Basis dieses neuen Trackers bilden 2;5m lange szintillierende Fasern, in welchen auf-grund von durchfliegenden Teilchen Licht produziert wird, das am Rand des Akzeptanzbereichsdes Detektors mithilfe von Silizium-Photomultipliern ausgelesen wird. Die Fasern sind in insge-samt uber 1100 sechslagigen Fasermatten angeordnet. Um diese Anzahl an Fasermatten bis zuBeginn des zweiten Long Shutdowns zu produzieren, mussen an mehreren Standorten Serien-produktionen eingerichtet werden.

Damit die Qualitat der fertigen Fasermatten gewahrleistet werden kann, werden die Fasern undMatten im Laufe der Produktion verschiedenen Test unterzogen. Hierzu gehoren unter anderemdie Identifizierung moglicher Fehlstellen der Fasern sowie die Uberprufung des Faserverbun-des innerhalb der Matten. Des Weiteren werden mithilfe kosmischer Myonen und Strahltests amCERN unterschiedliche Eigenschaften der Fasermatten wie Abschwachlange, Lichtausbeute undOrtsauflosung gemessen. Diese Tests dienen außerdem der Optimierung der Kopplung zwischenden Fasermatten und den auslesenden Silizium-Photomultipliern.In diesem Vortrag werden die verschiedenen Untersuchungen der Fasermatten genauer erlautertund erste Ergebnisse prasentiert.

16 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

D-2 (B) Charakterisierung des Data Handling Processor furden zukunftigen BELLE II Detektor am asymmetrischen e� eC

Beschleuniger SuperKEK-B.LEONARD GERMIC

Physikalisches Institut der Universitat Bonn

Die heutigen Anforderungen an Prazision und Strahlenharte fur zukunftige Detektoren im Rah-men der Untersuchungen zur CP Verletzung innerhalb der schwachen Wechselwirkung wachsenan. Mit zunehmender Statistik, und die einhergehende Erhohung der Luminositat, nimmt diePlanung und Entwicklung eben dieser Detektoren eine besondere Rolle ein.

Ein solcher Detektor mit Namen BELLE II ist in Entwicklung und ersetzt seinen VorgangerBELLE am Wissenschaftszentrum KEK, Tsukuba, Japan. Der ehemalige Beschleuniger KEK-Bwurde bereits durch SuperKEK-B ersetzt und wird etwa eine um den Faktor 40 hohere Lu-minositat als sein Vorganger erreichen. Daher wird auch eine hohere Statistik zur Untersu-chung von Zerfallen mit B-Mesonen sichergestellt. Mit der Erohung der Luminositat auf et-wa 8 � 1035 cm�2s�1 wurde auch die Genauigkeit der Vertex Bestimmung erhoht. Zusatzlichzum Silicon Vertex Detector, welcher ein Streifen Detektor mit vier Lagen ist, kommt nun auchein Pixel Detektor (PXD) mit zwei weiteren Lagen zum Einsatz, der nur wenige Zentimetervom Wechselwirkungspunkt (WWP) entfernt liegt, siehe Abbildung D.1 (innerer Bereich). Die-se Kombination aus Silicon Vertex Detector und PXD wird auch Vertex Detector genannt. DerVertex Detector ist der innerste Detektor, der im gesamten BELLE II Detektor eingebaut ist.

Abbildung D.1.: Der asymmetrische Beschleuniger SuperKEK-B (l) und der BELLE II Detektor(r). Den Vertex Detector umgeben u.a. die Kalorimeter zur Energiebestimmungund der Solenoid-Magnet. Aus http://belle2.desy.de/e103206/

Der PXD besteht aus 20 Laddern. Die Ladder sind in 2 Lagen um den WWP positioniert unddecken den Akzeptanzbereich des Detektors ab. Ein Ladder besteht aus 2 Modulen an denender aktive Bereich und die notwendige Ausleseelektronik angebracht sind. Der aktive Bereichbesteht aus 2 � 768 � 250 Pixel (zwei Module pro Ladder), siehe Abbildung D.2 (grauer Be-reich). An der Langsseite neben dem aktiven Bereich liegen sechs Switcher. Diese wahlen diePixelzeilen aus, die an die Ausleseelektronik angeschlossen werden. Die Auswahl folgt dem Rol-ling Shutter Mode Prinzip, d.h. sukzessive Auswahl der Zeilen bis die ganze Matrix ausgelesen

D. Detektor- und Beschleunigertechnologie 17

wurde. Ein Analog zu Digital Konverter (DCD, Drain Current Digitizer) uberesetzt das analogeSignal in ein Digitales und sendet dieses an den DHP. Insgesamt sind 4 solcher Schaltkreispaareverbaut, siehe blauen Bereich in Abbildung D.2.

Abbildung D.2.: Schematische Darstellung eines Ladders mit Schaltkreisen und aktivem Bereich(l). Die hellgraue Flache bildet den aktiven Bereich ab. Die Ausleseelektronikist dunkel- und hellblau markiert. DHP in der aktuellen Ausfuhrung (r) markiertmit einem roten Kreis.

Der DHP selektiert die Daten bei aktivem Trigger Signal des Gesamtsystems und verarbeitetdiese. Die Aufgaben des DHP sind u.a. Null Unterdruckung (durch setzten einer Schwelle), Er-mitteln des Gleichtaktrauschens und Weiterleitung der Daten. Zusatzlich erfullt der DHP dieFunktion eine Controllers. Durch ihn werden die anderen elektrischen Schaltkreise konfiguriertund gesteuert.

Aus diesem Grund ist die Charakterisierung des DHP mitsamt seiner Funktionalitat eine essen-tielle Aufgabe. Der DHP ist in der dritten Ausfuhrung (DHPT) in 65 nm CMOS TSMC Tech-nologie gefertigt und wurde bereits auf sein Strahlenhahrte untersucht. Die Uberprufung derKommunikation mit dem DCD und die Integritat der Datenubermittlung, sowohl vom DCD anden DHPT, als auch vom DHPT an das System außerhalb des Detektors, ist eine der Hauptauf-gaben.

Im Vortrag werden die Ergebnisse der Untersuchungen des DHPT diskutiert. Zustatzlich werdenErgebnisse der Messungen an Testmodulen mit Multi-Chip Konfiguration (DHPT- DCD) undAnderungen bzgl. der nachsten Ausfuhrung des DHPT gezeigt.

18 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

D-3 (C) Sensorentwicklung fur das Upgrade des ATLAS-PixeldetektorsANDREAS GISEN

Experimentelle Physik IV, TU Dortmund

Am CERN, dem europaischen Zentrum fur Teilchenphysik, befindet sich der großte Teilchenbe-schleuniger der Welt, der LHC. Einer der zwei großen Vielzweckdetektoren dort ist das ATLAS-Experiment. Von November 2009 an fanden im LHC pp-Kollisionen bei Schwerpunktenergienvonps D 7TeV bzw.

ps D 8TeV statt. Aus den dabei gewonnenen Daten resultierte unter

anderem der Nachweis des Higgs-Bosons.

Zur genauen Rekonstruktion der Spuren der bei den Kollisionen entstandenen Teilchen sind De-tektoren mit hoher Ortsauflosung notig. Diese finden sich aktuell bei ATLAS im sogenanntenInneren Detektor. Dieser besteht vom Strahlrohr ausgehend aus vier Lagen Pixelsensoren, vierLagen Streifensensoren, sowie dem TRT, einem Ubergangsstrahlungsdetektor. Der Pixeldetektorbestand zu Beginn aus drei Lagen planarer nC-in-n-Sensoren mit Pixeln der Große 400�50�m2.Wahrend einer ersten, langeren Wartungsphase wurde eine zusatzliche, innerste Pixellage, derIBL, eingebaut. Neben der Verwendung einer verbesserten Ausleseelektronik wurde fur die neu-en Sensoren die Pixelgroße auf 250 � 50�m2 verkleinert sowie die inaktive Flache deutlichverringert.Nachdem die Wartungs- und Verbesserungsarbeiten am LHC und seinen Detektorsystemen er-folgreich abgeschlossen wurden, begann Mitte 2015 die zweite Periode der Datennahme beiSchwerpunktenergien von

ps D 13TeV.

Nach 2022 ist ein Umbau des LHC geplant, um Luminositaten von 5 �1034 cm�2s�1 zu erreichen.Die großten Herausforderungen dieses High Luminosity (HL)-LHC fur die Detektoren liegen inder hohen Strahlenbelastung und der hohen Okkupanz, ausgelost durch die hohe Zahl von Kol-lisionen pro Bunchcrossing. Um diesen Anforderungen gerecht zu werden, ist ein kompletterAustausch des Inneren Detektors vorgesehen. Der neue Innere Tracker (ITk) wird komplett ausSilizium bestehen.

Die Strahlenharte von planaren nC-in-n-Sensoren wurde bereits in Teststrahlmessungen bei derfur die innerste Lage des ITk vorhergesagten Fluenz von 1:3 � 1016 neqcm�2 gezeigt. Um die-se Sensoren weiter zu verbessern, werden verschiedenste Aspekte untersucht, z.B. fuhrt eineVerringerung der Sensordicke neben einer geringeren Strahlungslange auch zu einer geringenWarmeverlustleistung, da bei gleicher Effizienz niedrigere Betriebsspannungen moglich sind.Ein weiterer Aspekt sind Anderungen am Design, z.B. wird mittels neuer Bias-Gitter-Variationenuntersucht, ob sich die in diesem Teilbereich ublicherweise etwas verringerte Detektionseffizi-enz der Pixel verbessern lasst oder ob sich durch Modifikation der Form der Pixelimplantationenhohere Feldstarken im Sensor erzeugen lassen, die eine Vergroßerung der gesammelten Ladungzur Folge hatten.Neben Prototypen mit einem Auslesechip werden auch Messungen an Vierchipmodulen vorge-stellt. Vierchipmodule werden im Detektor zum Einsatz kommen, um die benotigte große aktiveSensorflache abzudecken.

D. Detektor- und Beschleunigertechnologie 19

D-4 (A) Konstruktion, Bau und Vermessung von großflachi-gen Micromegas Detektoren fur das Myonspektrometerupgra-de des ATLAS DetektorsRALPH MULLER

Fakultat fur Physik, LMU Munchen

Nach der zweiten großen Wartungsperiode des LHCs am Forschungszentrum CERN (Beginn2019) wird die Luminositat des Teilchenbeschleunigers erhoht. Fur die Detektoren in der innerenEndkappe des Myonspektrometers im ATLAS Detektor bedeutet dies eine so hohe Besetzungs-rate durch Teilchentreffer, dass Teile des Detektorsystems nicht mehr effizient arbeiten. Zudemwird die Triggerrate der ersten Triggerstufe in die Nahe der maximalen Bandbreite gelangen.Eine Erhohung der Triggerschwelle ist nicht sinnvoll, da nur hochenergetische Myonen einenTrigger auslosen wurden. Es werden Ereignisse verworfen, in denen interessante und moglicher-weise auch neue Physik steckt. Daher ist eine Erneuerung der Detektoren der inneren Endkappevorgesehen. Die neu verbauten Technologien sollen mit in die erste Triggerstufe aufgenommenwerden, die momentan nur die mittlere der drei Endkappen enthalt. Letztere liefert nur einenTrigger, wenn die rekonstruierte Spur zum Interaktionspunkt zeigt. Es gibt jedoch sehr viele Teil-chen, die eine solche Spur erzeugen, als wurden sie vom Interaktionspunkt kommen. Erst nachgenauer Spurrekonstruktion mit dem kompletten Detektor kann man feststellen, ob es sich umeinen Myon vom Interaktionspunkt handelt oder nicht. Die neun Detektoren der inneren Endkap-pe sollen wie die Mittlere auch eine Spurrekonstruktion zum Zeitpunkt der ersten Triggerstufeliefern und somit Fehltrigger reduzieren, ohne relevante Ereignisse zu verwerfen. Außerdem sinddie neuen Detektoren Hochraten fester als ihre Vorganger.

Die Kooperation, die das Upgrade ubernimmt, hat sich auf sogenannte small Strip Thin GapChambers (sTGC) und Micro Mesh Gaseous Structure Detectors (Micromegas) als neue Tech-nologien verstandigt. Hierbei sollen die sTGC’s fur eine schnelle Triggerinformation und dieMicromegas fur eine hoch prazise Spurrekonstruktion in der Analyse sorgen. Beide Systemesind so konzipiert, dass sie die Aufgabe des jeweils anderen bei Bedarf ubernehmen konnen, umeinen hohen Grad an Redundanz zu gewahrleisten.Bei beiden Technologien handelt es sich um planare Gasdetektoren. Der Konstruktionsplan siehtvor, dass die kreisformig aufgebaute innere Endkappe in acht große und acht kleine Sektorenunterteilt wird, welche jeweils weiter in radialer Richtung in eine innere und eine außere Einheitunterteilt werden. Es ergeben sich somit vier unterschiedliche Detektorgeometrien. In Strahlrich-tung werden die Detektoren so angeordnet, dass zwei Vierer-Lagen, sogenannte Quadrupletts, anMicromegas von einem sTGC Quadruplett auf jeder Seite umschlossen werden. Die neue inne-re Endkappe besteht damit aus 16 aktiven Detektorlagen. Es wird eine Ortsauflosung von unter100 �m in jeder Lage und eine Winkelauflosung von unter 1 mrad vorausgesetzt.

Arbeitsgruppen der Universitaten von Freiburg, Mainz, Munchen und Wurzburg haben sich zu-sammen geschlossen, um Konstruktion und Bau der außeren Einheiten des kleinen Sektors derMicromegas Detektoren, das sogenannte SM2-Modul, zu ubernehmen. Dies ist trotz einer Ober-flache von ca. 2 m2 das kleinste Modul der Micromegas Einheit.Ein Micromegas besteht aus einer Kupferdriftkathode, einem Mikrogitter aus Edelstahl und Aus-lesestreifen aus Kupfer, die als Anode fungieren. Die Streifen haben eine Abstand von 450 �m

20 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

zueinander und sind parallel angeordnet. Kathode und Gitter bilden einen 5 mm langen Drift-bereich mit einem elektrisches Feld von ca. 1 kV

cm . Gitter und Anode hingegen haben nur einengeringen Abstand von 128 �m und dazwischen ein Feld von ca. 40 kV

cm . Aufgrund der hohenFeldstarke wird dieser Bereich Verstarkungsbereich genannt. Im Detektor befindet sich ein Zahl-gas (Ar:CO2 93:7). Passiert nun ein Myon den Detektor, ionisiert es das Gas. Die frei geworde-nen Elektronen werden aufgrund des Feldes zum Gitter hin beschleunigt. Aufgrund des deutlichhoheren Verstarkungsfeldes werden diese Elektronen durch das Gitter gezogen und losen imVerstarkungsbereich eine Elektronenlawine aus, welche auf den Auslesestreifen als Signal abge-griffen wird.Fur die vier Lagen des Quadrupletts werden funf Platten benotigt, auf deren Oberseite Anodenbzw. Kathoden sind. Um die geforderten Auflosungen zu erreichen und diese auch im Zeitin-tervall der ersten Triggerstufe umzusetzen, sind hohe Anforderungen an die mechanische Ge-nauigkeit der Platten gegeben. Die Streifen mussen eine Parallelitat von besser 80 �m uber diekomplette Flache aufweisen. Die Flachen selbst sollen eine Planaritat von unter 100 �m errei-chen.

Zum Bau der Platten wird eine Lage Platinenmaterial mit der aktiven Flache nach unten mitVakuum auf einen Granittisch gesaugt und nimmt die Form des Tisches an, der laut Herstellerbesser als 6 �m planar ist. Um diese Form zu behalten, werden 1 cm starke Profile und eine Wa-benstruktur aus Aluminium auf diese Seite geklebt. Nach Ausharten des Klebers wird das Klebe-produkt vom Granittisch gelost und an einer zweiten planen Struktur angesaugt. Diese Strukturaus Aluminium ist mit ca 35 kg im Gegensatz zum Tisch beweglich. Auf den Tisch kann einezweite Lage Platinenmaterial ausgelegt werden, auf die das Klebeprodukt der ersten Klebungaufgeklebt wird. Prazise Distanzstucke definieren den Abstand zwischen Tisch und AluminiumStruktur. Die beiden Flachen der Platte sind damit planar und parallel zueinander.Ob der Klebeprozess und die Anordnung der Streifen zueinander erfolgreich war muss fur jedePlatte gemessen werden. Wir verwenden hierfur einen Laser Abstandsmesser, der an ein XYZPortal am Granittisch montiert ist. Um Verformungen im Portal aus dem Ergebnis der Messungheraus zu rechnen, wird zunachst eine Messung der Oberflache des Granittisches durchgefuhrt.Die tatsachliche Oberflachenstrucktur des Messobjektes ist die Differenz der Messung des Ob-jekts und der des Tisches.

Der Laserstrahl kann in halb transparente Oberflachen eindringen. Der Abstand wird somit zueinem Punkt im Inneren des Tisches gemessen. Um dies zu minimieren wird der standardmaßigeAufbau, indem der Strahl senkrecht auf das Objekt fallt und diffus gestreut wird, gekippt. DerStrahl wird an der Oberflache direkt reflektiert und dringt nicht ins Material ein. Zusatzlich wirdein blauer Strahl verwendet, der nicht so tief in ein Material eindringt wie ein Roter, da er einekurzere Wellenlange besitzt.

Nach dem Zusammenbau und Inbetriebnahme eines Quadrupletts, kann dessen Funktion und dietatsachlich erreichte Messgenauigkeit festgestellt werden. Hierzu befindet sich in Garching beiMunchen ein Messstand fur kosmische Myonen, mit dem die Eigenschaften des Quadruplettsgenau vermessen werden konnen.Mit den vorgestellten Methoden sind wir in der Lage, die Produktion der SM2 Module zu begin-nen und die Qualitat der hergestellten Detektormodule kontinuierlich und prazise zu vermessen.

D. Detektor- und Beschleunigertechnologie 21

D-5 (B) Vergleich von zwei hoch-granularen Kalorimeter-Prototypen fur den ILCCORALIE NEUBUSER

DESY, Hamburg

Fur einen zukunftigen linearen Leptonen Beschleuniger wie den International Linear Collider(ILC) werden Detektor-Systeme entwickelt, die fur “particle flow“-Algorithmen optimiert sind.Das Prinzip dieser Algorithmen ist, zusatzlich zur Information des Spurendetektors, ebenfallsdie Kalorimetermessungen zur Spuren- und Teilchenrekonstruktion zu benutzen. Hierzu werdentransversal fein segmentierte Kalorimeter benotigt. Innerhalb der CALICE Kollaboration wer-den nicht nur in transversaler, sondern auch longitudinaler Richtung hoch-granulare Sampling-bzw. Sandwich-Kalorimeter entwickelt und getestet.Diese Studie befasst sich mit dem Vergleich zweier hadronischer Kalorimetertechnologien, wel-che sich in aktivem Material, Auslese und Granularitat unterscheiden. Beide wurden in 1 m3

Prototypen realisiert und an Testbeams untersucht. Zum einen wurde ein Scintillator-Kachel-basiertes, analog von Silizium-Photomutipliern (SiPMs) ausgelesenes Analogue Hadron CALo-rimeter gebaut. Der Prototyp, mit einer maximalen Granularitat von 3 � 3 cm2, wurde mit ei-ner Stahl-Absorber-Struktur am CERN Teststrahl untersucht. Demgegenuber steht das digitalausgelesene, Wiederstandsplattenkammer-basierte (RPC) Digital Hadron CALorimeter. DessenPrototyp, in 1 � 1 cm2 Granularitat, mit dem selben Stahlabsorber 2011 am Fermilab-Teststrahlgetestet wurde.

Studie des AHCAL im digitalen Modus Um den Einfluss der digitalen Auslese zu untersu-chen, wurden im AHCAL statt analoger Signale pro Kachel nur Hits mit Energien oberhalb einerkunstlich gesetzten Schwelle gezahlt. Zusatzlich wurde eine semidigitale Auslese und Energie-rekonstruktion getestet und die Ergebnisse in einer CALICE Veroffentlichung zusammengefasstund auf der TIPP2014 Konferenz prasentiert [1][2]. Der Einfluss der Signalauslese auf die Ener-gieauflosung des Kalorimeters ist zu sehen in Abbildung D.3.

Studie des AHCAL in hoherer Granularitat Die Simulation des AHCAL konnte durch Testsund Vergleiche mit den Daten validiert werden. Auf dieser Grundlage kann die Segmentierungim Digitalisierungsprozess zu 1 � 1 cm2 Zellen verfeinert und die Ergebnisse als aussagekraftiggewertet werden. Erste Resultate werden prasentiert.

Kalibration und Simulation des DHCAL Zum Vergleich der Resultate der AHCAL Studi-en werden DHCAL-Daten herangezogen. Hierzu wurden diese mit Myonen kalibriert und eineSimulation aufgesetzt, welche die Simulation der Ladungsgenerierung innerhalb der mit Gasgefullten Spalte zwischen den hochohmigen Glasplatten und Ladungsverteilung auf die Ausle-seelektroden einschließt. Die aktuellen Ergebnisse werden prasentiert und diskutiert.

22 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

>re

c/<

Ere

0.05

0.1

0.15

0.2

0.25

>re

c/<

Ere

0.05

0.1

0.15

0.2

0.25Analogue

Digital

Semi­Digital

Analogue w/TCMT

Analogue w/TCMT (with SC)

Fe­AHCAL preliminaryCALICE

[GeV]beamE0 10 20 30 40 50 60 70 80 90

beam

)/E

beam

>­E

rec

(<E

­0.06

­0.04

­0.02

0

0.02

0.04

0.06

Abbildung D.3.: Energieabhangigkeit der relativen Energieauflosung des AHCAL nach drei unter-schiedlichen Energierekonstruktionen von Pionen: analog (schwarz), digital (grun) undsemidigital (rot). Die gestrichelten und gepunkteten Linien zeigen die Auflosung aus[3] mit und ohne Software Compensation unter der Berucksichtigung der Energiede-positionen im TCMT (und im ECAL). Die untere Abbildung zeigt die Residuen zurBeam-Energie und die systematischen Fehler (Bander). Die statistischen Fehler sindkleiner als die Punkte.

[1] CALICE Analysis Note CAN-049,C. Neubuser, K. Kruger, “Analogue, Digital andSemi-Digital Energy Reconstruction in the CALICE AHCAL,” Mai 2014https://twiki.cern.ch/twiki/pub/CALICE/CaliceAnalysisNotes/CAN-040.pdf

[2] C. Neubuser [CALICE Collaboration], “Analogue, Digital and Semi-Digital Energy Re-construction in the CALICE AHCAL,’ Proceedings, 3rd International Conference onTechnology and Instrumentation in Particle Physics (TIPP 2014), PoS TIPP 2014, 266(2014).

[3] C. Adloff et al. [CALICE Collaboration], “Hadronic energy resolution of a highly granu-lar scintillator-steel hadron calorimeter using software compensation techniques,” JINST7, P09017 (2012). [arXiv:1207.4210 [physics.ins-det]].

D. Detektor- und Beschleunigertechnologie 23

D-6 (C) Inbetriebnahme und Monitoring der neuen Multi-Chip-Module des ATLAS Level-1 Kalorimeter TriggersHANNO THEENHAUSEN

Kirchhoff-Institut fur Physik, Univ. Heidelberg

Nach einer zweijahrigen Upgradephase befindet sich der Large Hadron Collider am CERN seitJuni 2015 in seinem zweiten Run. Im Vergleich zu Run 1 bedeutet dies eine deutlich erhohteSchwerpunktsenergie sowie eine hohere instantane Luminositat. Fur das Triggersystem des AT-LAS Detektors ist es damit im Run 2 umso wichtiger, schnelle und effiziente Triggerentschei-dungen zu treffen, um somit interessante Ereignisse uber Hintergrundereignissen zu selektieren.

Das Triggersystem reduziert dabei die Rate von aufzunehmenden Ereignissen von der Strahl-kreuzungsrate von 40 MHz auf eine Rate von ungefahr 1 kHz, wobei es auf sehr unterschiedlicheSignaturen sensitiv sein soll. Der Trigger ist in zwei Stufen unterteilt, dem Level-1 Trigger, sowiedem High Level Trigger (HLT). Auf der speziell angefertigten Hardware des Level-1 Triggerswird auf Basis von Ereignissen mit reduzierter Detektorgranularitat die Rate bereits auf 100 kHzreduziert. Die weitere Reduktion im softwarebasierten HLT geschieht auf einer Computerfarmunter Ausnutzung der gesamten Detektorauflosung.

Eine der wichtigsten Komponenten des Level-1 Triggers ist der Level-1 Kalorimeter Trigger(L1Calo). Hier werden Energien und Multiplizitaten von Elektronen-, Photonen- und Jetkan-didaten identifiziert und an den Central Trigger Processor weitergeleitet, in dem die Level-1Triggerentscheidung getroffen wird. Die Eingangssignale fur L1Calo sind analoge Summen vonbenachbarten Kalorimeterzellen, die Trigger Tower genannt werden. Diese gelangen zunachst inden L1Calo PreProcessor (PPr), der die Signale digitalisiert, die zugehorige Strahlkreuzung iden-tifiziert (BCID) und sie in einen Energiewert in GeV umwandelt. Danach werden die kalibriertenSignale sowohl an den Jet-Energy-Processor, in dem die Jetkandidaten identifiziert und globaleTransversalenergiesummen gebildet werden, gesendet, als auch an den Cluster-Processor, in demnach Elektronen, Taus und Photonen gesucht wird.

Vorbereitend auf die erhohte Schwerpunktsenergie und instantane Luminositat des LHC im Run2, erhielt L1Calo wichtige Upgrades, von denen auch der PPr signifikant profitierte. Herzstuckdes PPr Upgrades ist das neue Multi-Chip-Modul (nMCM), das nun u.a. differenzierte Ener-giekalibrationsmethoden, eine verbesserte Identifikation der korrekten Strahlkreuzung und dieMoglichkeit einer dynamischen Korrektur von Pile-Up Effekten bietet. Wahrend der Phase derInbetriebnahme fur Run 2 wird beispielsweise die neue Hardware getestet, Firmware und Daten-banken werden auf Fehlkonfigurationen gepruft, Noiseuntersuchungen werden durchgefuhrt undKalibrationen werden vorgenommen. Weiterhin wird in Runs mit kosmischen Myonen und denersten Kollisionen die Performance uberwacht. Hierbei ist ein wichtiges Werkzeug zur Gewahr-leistung der optimalen Funktionalitat des PPr und der nMCMs das Monitoring. Zu jedem Eventwerden dabei verschiedene Parameter aus dem PPr System ausgelesen, um jeden Signalverarbei-tungsschritt moglichst hardwarenah uberwachen zu konnen. Das Monitoring musste im Hinblickauf die Run 2 Upgrades des PPr entsprechend angepasst werden. Wahrend der Anfangsphase vonRun 2 erwies sich insbesondere das Monitoring der dynamischen Korrektur von Pile-Up Effek-ten als sehr hilfreich. Dieser Vortrag berichtet vom Verlauf des PPr Upgrades, den Tests derHardware und vom Monitoring der neuen Funktionen wahrend der Wiederinbetriebnahme.

24 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

D-7 (A) Modulproduktion fur das Phase I-Upgrade des CMS-Pixeldetektors am Large Hadron ColliderBENEDIKT FREUND

Institut fur Experimentelle Kernphysik, KIT

Nach der abgeschlossenen Konsolidierung des LHCs und der Wiederaufnahme des Beschleu-nigerbetriebs im Jahr 2015 wurde die Schwerpunktsenergie der Proton-Proton-Kollisionen auf13 TeV gesteigert. Zusatzlich wird die Luminositat sukzessive auf2 � 1034 cm�2 s�1 steigen, was der doppelten ursprunglichen Designluminositat entspricht undzu einer erhohten Anzahl simultaner Ereignisse fuhrt. Mehr simultane Ereignisse haben jedochzur Folge, dass in der innersten Lage des Pixeldetektors Datenverluste von bis zu 50% auftre-ten werden, da der Auslesechip die Kollisionsereignisse nicht mehr erkennt oder diese nichtmehr rechtzeitig auslesen kann. Um die bis dato hohe Effizienz aufrecht zu erhalten und umdaruber hinaus das Tracking durch zusatzliche Spurpunkte zu verbessern, wird der gesamteCMS-Pixeldetektor Ende des Jahres 2016 ersetzt.

Der neue CMS-Pixeldetektor wird eine Weiterentwicklung des aktuell verwendeten Auslese-chips besitzen. Dieser verfugt unter anderem uber großere integrierte Zwischenspeicher, sodasses nicht zu den erwartenden Datenverlusten kommt. Zusatzlich werden die Pixeladressen unddie Signalhohen digital kodiert, was die Ubertragungsbandbreite vergroßert. Außerdem wirddie Anzahl der Lagen im Zentralbereich von drei auf vier und in den Endkappen von zwei aufdrei erhoht, um das Tracking und speziell das b-tagging zu verbessern. Durch den komplet-ten Austausch des Pixeldetektors bietet sich außerdem die Moglichkeit weiterer Veranderungen.Wahrend der jetzige Detektor durch eine Monophasenkuhlung (C6F14) gekuhlt wird, basiertdas neue Design auf einer CO2 Zweiphasenkuhlung. Durch die Ausnutzung der notwendigenVerdampfungsenergie wahrend des Phasenubergangs ist es moglich sowohl weniger Kuhlmittelzu verwenden als auch die Leitungsquerschnitte deutlich zu reduzieren. Somit kann trotz einerVerdoppelung der verwendeten Module ein erheblich geringeres Materialbudget im sensitivenBereich erzielt werden.

Dieser Vortrag befasst sich mit der Modulproduktion am Beispiel des Produktionszentrums KITund stellt dessen gesamten Produktionsablauf vor. Dabei wird sowohl auf die einzelnen Pro-duktionsschritte, wie auch auf die wichtigsten dazugehorigen Tests der Qualitatssicherung ein-gegangen. Letztere umfassen neben elektrischen und optischen Tests auch die Bestrahlung mitRontgenstrahlung um die gesamte Modul-Auslesekette zu uberprufen.

E. Experimentelle Analysen

E-1 (A) Suche nach dunkler Materie in Z+MET Ereignissenmit Hilfe des CMS Detektors am Large Hadron ColliderMICHAEL BRODSKI

III. Physikalisches Institut A, RWTH Aachen

Der Ursprung der dunklen Materie ist eine der großten und wichtigsten Herausforderungen furdie moderne Hochenergiephysik. Bis heute war es moglich, dunkle Materie nur durch ihren gra-vitativen Einfluss auf die Kinematik von Galaxien im Universum zu beobachten. Es ist jedochzu erwarten, dass dunkle Materie auch bei Collider-Experimenten wie dem CMS Experimentindirekt beobachtet werden kann.

CMS (Compact Muon Solenoid) ist eins der vier Experimente, welche am 27 km langen LargeHadron Collider Ring nahe Genf installiert sind. Ausgestattet mit einem großen supraleiten-den Magneten, welcher ein homogenes Magnetfeld von bis zu 3:8T liefern kann, ist das CMSExperiment eine der modernsten Teilchenphysikmaschinen weltweit. Die Hauptziele dieses Ex-periements sind die Suche und Vermessung des Higgs-Bosons, die Vermessung der TopquarkEigenschaften, sowie die Suche nach Neuer Physik.

In diesem Vortrag werden die Ergebnisse der Suche nach dunkler Materie in Ereignissen miteinem Z Boson und fehlender transversalen Energie basierend auf dem Datensatz des CMS De-tektors aus dem Jahr 2012 (

RL dt D 19:7 fb�1) prasentiert. Die hypothetischen Teilchen der

dunklen Materie stoßen sich von einem Z Boson ab, welches seinerseits in zwei geladene Lep-tonen zerfallt und somit einen aus experimenteller Sicht sauberen Endzustand mit zwei Lep-tonen erschafft. Die Auswahlkriterien fur die Messung der Leptonspuren sowie die Methoden,um die fehlende Energie im Detektor moglichst genau zu vermessen, werden diskutiert. Unter-schiedliche Aspekte der Hintegrundsbestimmung fur diese Analyse und der Abschatzung dersystematischen Unsicherheiten werden prasentiert. Die Strategie zur Maximierung der mogli-chen Signal-zu-Untergrund Verhaltnisses wird diskutiert. Die Ergebnisse werden im Sinne vonoberen Grenzen fur den Produktionsquerschnitt der dunklen Materie interpretiert. Ferner werdendie Ergebnisse auch im Sinne des Unparticle Modells gedeutet. Dieses Modell ist aufbauendauf der Idee einer skaleninvarianten Theorie, in deren Rahmen ganz neue Teilchen – sogenannteUnparticles – entstehen.

26 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-2 (B) Suche nach Supersymmetrie in unbalancierten Ereig-nissen mit Photonen und Jets mit dem CMS DetektorMAXIMILIAN KNUT KIESEL

I. Physikalisches Institut B, RWTH Aachen

In diesem Vortrag wird eine Suche nach Physik jenseits des Standardmodells mit Photonen imEndzustand vorgestellt. Die betrachteten Proton-Proton-Kollisionen wurden im Jahr 2012 beieiner Schwerpunktsenergie von 8 TeV vom CMS Detektor am CERN LHC aufgezeichnet. DerDatensatz entspricht einer integrierten Luminositat von 19,7 fb�1.

Obwohl das Standardmodell viele der beobachteten Phanomene in der Teilchenphysik beschreibt,gibt es jedoch auch Beobachtungen (Dunkle Materie) und Uberlegungen (Hierarchieproblem),die darauf hindeuten, dass es auch Physik jenseits des Standardmodells geben muss. Supersym-metrie (SUSY), eine Symmetrie zwischen Bosonen und Fermionen, ist eine Theorie, die zu je-dem bekannten Standardmodellteilchen ein Partnerteilchen vorhersagt, dessen Spin sich um „=2unterscheidet. Da noch keine solchen Teilchen entdeckt wurden, muss die Symmetrie gebrochensein. Unter der Annahme der R-Paritatserhaltung werden SUSY-Teilchen paarerzeugt, und zer-fallen in Kaskaden in das leichteste stabile SUSY-Teilchen (LSP).

In diesem Vortrag wird ein Modell betrachtet, bei dem die SUSY-Brechung durch Eichbosonenvermittelt wird. Das zweitschwerste SUSY-Teilchen (NLSP) ist ein Gaugino, dass zu seinemStandardmodell-Partnerteilchen und einem Gravitino (eG), dem LSP, zerfallt. Wenn das Gauginobino- oder winoartig ist, kann es zu einem Photon zerfallen, wobei Wino/Bino die Partnerteilchenvon W0/B0 der SU.2/�U.1/Y Gruppe sind. Da die eG nicht mit dem Detektor wechselwirken, istdie vektorielle Summe der transversalen Impules aller beobachteten Teilchen (Emiss

T ) nicht null.Wenn die SUSY-Teilchen uber die starke Wechselwirkung erzeugt werden, entstehen in den Zer-fallskaskaden mehrere Jets, deren transversale Energien sich skalar zur hadronischen Aktivitat(HT) addieren.

Selektiert werden unbalancierte Ereignisse mit mindestens einem hochenergetischem Photon,mindestens zwei Jets, hadronischer Aktivitat und weder Elektron noch Myon. Ereignisse vonStandardmodell-Prozessen, die man somit auswahlt, lassen sich in drei Klassen unterteilen:

Multijetereignisse mit echten Photonen oder mit Jets, die falschlicherweise als Photon rekon-struiert werden, konnen viel Emiss

T besitzen, wenn einige Jets ungenau gemessen werden. DerBeitrag wird aus Multijetereignissen ohne Photonen abgeschatzt, welche unter Berucksichtigungder Eventkinematik in Emiss

T < 100GeV normalisiert werden.

In Ereignissen mit W ! e� Zerfallen konnen Elektronen als Photonen fehlidentifiziert wer-den. Das Neutrino fuhrt hier zu hohen Werten von Emiss

T . Zur Modellierung dieses Untergrundswerden Ereignisse mit Elektronen mit der Wahrscheinlichkeit fur eine solche Fehlidentifikationgewichtet.

Ein weiterer Untergrund stellen Ereignisse dar, in denen ein Photon im Anfangs- oder Endzu-stand abgestrahlt wird und zusatzlich Neutrinos erzeugen werden, wie zum Beispiel in tNt-, W�

E. Experimentelle Analysen 27

oder Z ! ��-Prozessen. Solche Ereignisse werden simuliert, mit dem Wirkungsquerschnittin zweiter Ordnung Storungstheorie skaliert.

Abbildung E.1 (links) zeigt die EmissT -Verteilung fur die selektieren Daten und die Untergrun-

dabschatzung. Zusatzlich ist ein typisches SUSY-Signalszenario eingezeichnet, fur dass manmehr Ereignisse bei hohen Werten von Emiss

T erwartet.

VE

vent

s / G

e

-110

1

10

210

310

410Data

totalσ ±Prediction

systσ ±)γMultijet (+

γt, tγ, WγZγ→EW e

V= 720 Geg~

m

V=1700 Geq~mGGMwino

statσ ±

)V (Gemiss TE0 100 200 300 400 500D

ata

/ Pre

d.

0

1

2

CMS)V (8 Te-119.7 fb

2 jets≥, γ 1 ≥

(GeV)q~m500 1000 1500 2000

(G

eV)

g~m

500

1000

1500

2000

2500

50

100

150

200

250

300

3501

χ∼ Single Photon - GGM Wino-like NLO Exclusiontheoryσ 1 ±Observed

2j≥ γ 1≥ experimentσ 1 ±Expected

95%

C.L

. upp

er li

mit

on c

ross

sec

tion

(fb)

(8 TeV)-119.7 fbCMS

Abbildung E.1.: Links: EmissT -Verteilung fur die selektierten Daten und die Standardmodell-

Untergrundabschatzung. Zusatzlich ist ein mogliches SUSY-Signalszenario mitwinoartigem NLSP mit einer Masse von 375 GeV, einer Squark Masse von1700 GeV und einer Gluino Masse von 720 GeV eingezeichnet. Im unteren Be-reich ist das Verhaltnis von Daten zur Vorhersage gezeigt. Rechts: Oberes Li-mit auf den Wirkungsquerschnitt von Squark- und Gluinoproduktion fur einGGM Modell mit winoartigem NLSP, sowie die beobachtete und erwartete Aus-schlussgrenze.

Interpretiert wird die Suche im Kontext von General Gauge Mediated SUSY mit bino- und wino-artigem NLSP (Abbildung E.1, rechts) und vereinfachten SUSY-Modellen. In diesen vereinfach-ten Modellen werden zwei Gluinos paarproduziert, die uber Jets in jeweils ein NLSP zerfallen.Es werden Prozesse betrachtet, bei denen beide NLSP in ein Photon und LSP zerfallen, oder einNLSP in ein Photon und LSP und das andere NLSP in ein W-Boson und LSP.

28 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-3 (C) Suche nach großen Extradimensionen in einem Endzu-stand mit zwei Myonen mit dem CMS ExperimentMARKUS RADZIEJ

III. Physikalisches Institut A, RWTH Aachen

Obwohl das Standardmodell der Teilchenphysik die meisten experimentellen Beobachtungen mithoher Prazision beschreibt, existieren immer noch einige offene Fragen. Eine der haufig disku-tierten, ist unter dem Namen “Hierarchie Problem” bekannt. Betrachtet man die Schleifen- undStrahlungskorrekturen der Teilchenmassen, so stellt man fest, dass skalare Teilchen enorme Kor-rekturbeitrage bekommen konnen. Diese hangen unter anderem quadratisch von der hochstenEnergieskala ab, bis zu welcher die Theorie als gultig angenommen wird.

Berucksichtigt man die Gravitation bei diesen Berechnungen, dann erhalt das Higgs Boson Kor-rekturen von Teilchen nahe der Planck-Skala. Wahrend die experimentell bestimmte Masse desHiggs Bosons etwa 126GeV betragt und die elektroschwachen Skala bei O.103/GeV liegt, be-findet sich die Planck-Skala bei einer Großenordnung von 1019 GeV. Um diese Diskrepanz derSkalen in Einklang mit dem Messwert zu bringen, ware eine hoch prazise Feinabstimmung vonParametern notwendig.

Mehrere potentielle Erweiterungen des Standardmodells sind in der Lage das Hierarchieproblemzu losen. Das hier betrachtete ADD Modell der raumlichen, kompaktifizierten Extradimensionenfugt der bisher bekannten, vierdimensionalen Raumzeit, n zusatzliche Raumdimensionen hinzu.In diesem Modell konnen Gravitonen in alle Dimensionen propagieren, jedoch sind die Teil-chen des Standardmodells auf die bekannten vier beschrankt. Verallgemeinert man die Einstein-Hilbert Wirkung auf alle Dimensionen, ist es moglich die Planck-Skala auf einige wenige TeV zureduzieren. Als direkte Konsequenz wird gleichzeitig die notwendige Feinabstimmung reduziert.

Die Produktion und der Zerfall von virtuellen Gravitonen interferiert mit dem Drell-Yan Prozessund ist im Spektrum der invarianten Masse der beiden Leptonen als nichtresonanter Uberschusssichtbar. Dieser Zerfallskanal ist wegen seinen hochenergetischen Leptonpaaren besonders at-traktiv um nach neuer Physik zu suchen. Die Grunde dafur liegen bei den verhaltnismaßig ge-ringen Unsicherheiten bei der Rekonstruktion der Leptonen und der Signatur, welche sich vomprimar hadronischen Untergrund abhebt. Die hier vorgestellte Suche konzentriert sich auf diezweite Generation der Leptonen und zeigt experimentelle Ergebnisse bei einer Schwerpunkts-energie des LHCs von 8TeV. Zusatzlich werden Prognosen fur die auf 13TeV erhohte Schwer-punktsenergie gezeigt.

E. Experimentelle Analysen 29

E-4 (A) Anwendung der Matrixelement-Methode zur Ana-lyse elektroschwacher Produktion einzelner Top-Quarks beiATLASSOREN STAMM

Exp. Elementarteilchenphysik I, HU Berlin

Das Standardmodell der Elementarteilchenphysik beschreibt die elementarsten Bausteine derMaterie und ihre Wechselwirkungen. Das Top-Quark ist das schwerste aller bekannten Quarks.Neben der Paarproduktion von Top-Quarks uber die starke Kraft, konnen diese auch einzeln uberdie schwache Wechselwirkung produziert werden (Single-Top). Die Single-Top Produktion kannin drei Kanalen stattfinden: im s- und t-Kanal, sowie assozierte Produktion von W-Bosonen. Die-se Produktionsprozesse bieten vielfaltige Moglichkeiten um Physik jenseits des Standardmodellszu entdecken. Hierzu zahlt die direkte Suche nach neuen Teilchen wie z. B. das W’ und zum an-deren der indirekte Nachweis fur neue Physik uber die Messung von sog. anomaler Kopplungenin effektiven Quantenfeldtheorien.

Fur eine prazise Messung der Produktionskanale des Top-Quarks ist es notwendig, dieses ingroßer Anzahl zu produzieren. Dies ist am Large Hadron Collider moglich. Die Single-Top-Produktion uber den t-Kanal wurde bereits am LHC beobachtet. Eine prazise Messung des s-Kanals ist bei ATLAS noch nicht erfolgt. Fur solche Messungen ist es notwendig, Signal- undUntergrundereignisse gut voneinander zu trennen. Etablierte Techniken sind hierbei schnittba-sierte Analysen, sowie der Einsatz von multivariaten Methoden, wie z. B. Neuronalen Netzwer-ken oder Boosted Decision Trees. Eine weitere Technik ist die Matrixelement-Methode.

Die Matrixelement-Methode berechnet eine Diskriminante fur ein gegebenes Ereignis unter Ver-wendung des Matrixelementes eines Prozesses. Die theoretische Beschreibung des harten Streu-prozesses wird hierbei durch sog. Transferfunktionen mit dem gemessenen Endzustand ver-bunden. Der Hypothesentest umfasst auch alle Moglichkeiten die rekonstruierten Objekte aufDetektorebene dem partonischen Endzustand zuzuordnen, wobei auch die rechenintensive Inte-gration uber den Phasenraum und die Flavours der einlaufenden Partonen ausgefuhrt wird. DieVielzahl der verarbeiteten Informationen ermoglicht eine gute Trennung von Signal- und Unter-grundereignissen. Aus der aus der Matrixelement-Methode gewonnenen Gewichtsverteilung furdie Messdaten kann der Wirkungsquerschnitt bestimmt werden.

Der Votrag befasst sich mit der Analyse von Proton-Proton-Kollisionen bei einer Schwerpunkt-senergie von 8 TeV und einer integrierten Luminositat von ca. 20 fb�1, die mit dem ATLAS-Detektor aufgenommen wurden. Neben der Darstellung der Analysemethode, werden die An-wendungsmoglichkeiten im Hinblick auf Single-Top-Analysen vorgestellt.

30 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-5 (B) Suche nach Vereinfachten Modellen von Supersymme-trie mit dem ATLAS Experiment am Large Hadron ColliderOLIVER RICKEN

Physikalisches Institut, Universitat Bonn

Das seit den 1960er Jahren existierende Standard Modell (SM) der Teilchenphysik stellt eineTheorie dar, die in der Vergangenheit in der Lage war, zahlreiche Entdeckungen vorherzusagen,bevor diese in Experimenten bestatigt werden konnten. Daruber hinaus erlaubt sein Umfang dieBeschreibung zahlreicher Phanomene der Teilchenphysik bis hin zur Physik des Alltags. Trotzseines bemerkenswerten Erfolgs und seiner großen Beschreibungskraft ist das SM nicht in derLage alle Phanomene der Teilchenphysik zu beschreiben, es hinterlasst auch nach seiner Ver-vollstandigung durch die Entdeckung des Higgs Bosons im Jahr 2012 offene Fragen. Zu dendurch das SM nicht erklarbaren, experimentell aber beobachteten Phanomenen gehoren das so-genannte Hierarchieproblem, die Existenz dunkler Materie oder die Asymmetrie zwischen Ma-terie und Antimaterie im Universum. Neben diesen eher speziellen Problemen ist weiterhin zuerwahnen, dass das SM lediglich drei der vier Grundkrafte der Physik beschreibt und die Gra-vitation, als vielleicht alltaglichstes aller physikalischen Phanomene nicht berucksichtigt. Umdiese Probleme des SMs zu beheben existieren zahlreiche weitere theoretische Modelle, die dasSM erweitern und erganzen, um so Erklarungen fur einzelne oder mehrere der offenen Fragenbereitzustellen. Das Thema der hier prasentierten Arbeit ist die experimentelle Suche nach einerweit verbreiteten dieser Erweiterungen, der Suche nach Supersymmetrie (SUSY).

SUSY selbst ist eine komplexe Erweiterung des SMs, die eine neue, fundamentale Symmetrieeinfuhrt, eine Symmetrie zwischen Bosonen und Fermionen. In SUSY werden SM Bosonen fer-mionische Partner (z.B. die Higgsinos) und SM Fermionen bosonische Partner (z.B. die StauLeptonen) zugeordnet. Dieser zusatzliche Teilcheninhalt sowie die Kopplungen dieser Teilchenuntereinander und an die Teilchen des SMs ermoglichen es SUSY unter anderem das erwahnteHierarchieproblem zu losen und die Frage nach dunkler Materie zu beantworten.Da seit seiner Postulierung keine SUSY Teilchen mit den gleichen Massen wie ihre SM-Partnergefunden wurden, gilt SUSY als eine gebrochene Symmetrie. Die Symmetriebrechung ist Ur-sache fur die erheblich hoheren Massen der vorgesagten Teilchen und deren Hierarchie. Diesesagt vorher, dass die SUSY Partner von schweren SM Fermionen die leichtesten SUSY Teil-chen sind. Aus diesem Grund spezialisieren sich gegenwartige SUSY Suchen bevorzugt auf diePartner von SM Fermionen der dritten Generation. Als Kombination aus SUSY, deren sponta-ner Brechung sowie dem SM ist das Minimale Supersymmetrische Standard Modell (MSSM)entwickelt worden. Da seine vollstandige Beschreibung 106 freie Parameter erfordert, sind ver-schiedene, jeweils auf bestimmte Prozesse der Symmetriebrechung spezialisierte Modelle mitweniger Parametern entwickelt worden (z.B. das Modell sogenannter “Gauge Mediated Super-symmetry Breaking” mit vier freien Parametern). Aus Grunden der besseren Durchfuhrbarkeitbeschrankten sich Suchen nach Supersymmetrie in der Vergangenheit auf Suchen nach diesenspezialiserten Modellen. Die mit der Reduktion der Parameter einhergehende Einschrankung aufeinen bestimmten Prozess der Symmetriebrechung reduziert allerdings sowohl die Aussagekraftder jeweiligen Analyse als auch deren Aussicht auf Erfolg, gibt es doch keinen Grund, weshalb inder Natur ein bestimmter Brechungsprozess eher vorkommen sollte als ein anderer. Sowohl die-se genannten Nachteile konventioneller Suchen als auch die Tatsache, dass diese bisher keinerlei

E. Experimentelle Analysen 31

experimentelle Hinweise auf die Existenz von SUSY lieferten motiviert einen neuen, noch nichtlange angewendeten Ansatz der Suche nach SUSY, die Suche nach sog. Vereinfachten Modellen.

Die Idee hinter dem Ansatz Vereinfachter Modelle ist es, lediglich nach einer SUSY-ahnlichenPhysiksignatur zu suchen, die sich moglichst gut von ihr ahnlichen SM Signaturen unterscheidetund gleichzeitig in vielen verschiedenen der konventionellen SUSY Modelle vertreten ist. DieParametrisierung dieser Modelle erfolgt in der Regel durch Pseudo-Observablen wie die Mas-sen von SUSY Teilchen und macht die Annahme, dass das Modell mit einem Verzweigungs-verhaltnis von 100% erzeugt wird. Derart beschrieben, ist es moglich, ein solches Modell mitungleich weniger Aufwand zu suchen, als ein vollstandiges Modell eines bestimmten Symme-triebrechungsprozesses, in dem die Physiksignaturen deutlich vielgestaltiger sein konnen unddadurch erheblich mehr Aufwand erfordern. Weiterhin deckt die Suche nach einem derart ent-wickelten Vereinfachten Modell gleichzeitig die Suche nach mehreren der erwahnten umfang-reicheren Modelle ab. Der hohere Grad an Allgemeinheit, den ein Vereinfachtes Modell besitzt,ist gleichzeitig auch sein Nachteil. Zur Verifizierung oder Falsifizierung eines bestimmten Sym-metriebrechungsprozesses ware eine hohe Anzahl Studien bestimmter Vereinfachter Modellenotwendig. Nichtsdestotrotz ist der Einsatz Vereinfachter Modelle absolut gerechtfertigt: Ihreeinfachen Strukturen und klaren Signaturen erlauben deutlich schneller durchfuhrbare Analysenund damit schnelleres Suchen nach uberhaupt irgendeinem Hinweis auf SUSY. Sollte sich ineiner Suche nach Vereinfachten Modellen ein Hinweis zeigen, konnte eine detailliertere Sucheentsprechend entwickelt werden.

Die hier vorgestellte Arbeit hat die Suche nach SUSY mit Vereinfachten Modellen mit � Lep-tonen zum Thema. Neben der Prasenz schwerer Quarks sind teilchenphysikalische Ergeignissemit � Leptonen die vielversprechendsten Kandidaten bei der Suche nach SUSY. Die praktizier-te Suche erfolgt auf Grundlage von Daten, die mit dem ATLAS Experiment am Large HadronCollider (LHC) aufgenommen wurden und gegenwartig aufgenommen werden. Zentrale Aspek-te der Arbeit sind die Entwicklung der untersuchten Vereinfachten Modelle, die Unterdruckungvon den Modellsignaturen ahnlichen Ereignissen aus SM Prozessen, sowie die statistische Inter-pretation der Ergebnisse. Letztere ist Grundlage fur die Bekanntgabe einer Entdeckung oder, imFalle ausbleibender Signifikanz der Analyse, des Setztens unterer Schranken auf die das Modellparametetrisierenden Pseudo-Observablen. In letzterem Fall diente die Analyse zur Reduktiondes fur die Suche nach SUSY verbleibenden Phasenraums, in ersterem Fall als Initialhinweis aufweitere, detailliertere Suchen.

32 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-6 (C) Messung der Polarisation von � -Leptonen inZ ! �lep �had-Zerfallen mit dem ATLAS-DetektorLARA SCHILDGEN

Physikalisches Institut, Universitat Bonn

Bei dieser Analyse handelt es sich um die erste Messung der � -Polarisation inZ-Boson-Zerfallenmit dem ATLAS-Detektor am Large Hadron Collider. Die Untersuchung der Polarisation von ha-dronisch zerfallenden � -Leptonen in Z ! �lep�had-Zerfallen dient ebenfalls als Vorbereitung furzukunftige Higgs-CP-Studien an H ! �� -Zerfallen, bei denen Z ! �� einen der großten Un-tergrunde bildet.

Die Polarisation der � -Leptonen wird mit Hilfe der Polarisationsobservablen � gemessen, wel-che eine Energie-Asymmetrie zwischen den Zerfallsprodukten des hadronisch zerfallenden � -Leptons darstellt. Mit Hilfe von auf Monte-Carlo-Simulationen basierenden rechts- und links-handigen Z ! �� -Proben kann der Anteil der rechts- und linkshandig polarisierten � -Leptonenim Datensatz durch einen Fit ermittelt werden. Die Messung der � -Polarisation ermoglicht au-ßerdem eine Berechnung des effektiven Weinbergwinkels �effW .

Dieser Vortrag stellt eine in sich abgeschlossene Analyse von der Untergrundabschatzung bis hinzur Ermittlung der � -Polarisation und der daraus abgeleiteten Bestimmung des Weinbergwinkelsvor. Bei der Untergrundabschatzung fur die Z ! �lep�had-Zerfalle sind vor allem ”W + Jets“-und QCD-Ereignisse von Bedeutung, bei denen ein Jet falschlicherweise als � -Lepton identi-fiziert wird. Diese Analyse konzentriert sich dabei vornehmlich auf die ”W + Jets“-Ereignisseund erlautert Methoden, die dazu dienen, die ”W + Jets“-Ereignisse moglichst genau zu model-lieren. Dabei wird eine datenbasierte Abschatzung dieses Untergrunds verwendet, die mit Hilfevon Kontrollregionen gewonnen wird. Im Vortrag werden die einzelnen Validierungsschritte aufdem Weg hin zu einer datenbasierten Untergrundabschatzung naher erlautert.

Aus der Untersuchung des ”W + Jets“-Untergrunds lasst sich eine systematische Unsicherheitauf die Form des Untergrunds ableiten, welche – ebenso wie weitere systematische Unsicherhei-ten – bei der Bestimmung der Polarisation einbezogen werden.

Nachdem die Untergrundabschatzung weitestmoglich optimiert ist, wird die Polarisationsobser-vable� gefittet, um die Information daruber zu erhalten, wie der Anteil an links- und rechtshandi-gen � -Leptonen in der Z ! �� -Probe ist. Aus dem Verhaltnis von rechts- und linkshandigen� -Leptonen lasst sich die � -Polarisation in der Probe bestimmen.

Fur die Analyse werden Daten verwendet, die 2012 bei einer Schwerpunktsenergie vonps D

8 TeV mit dem ATLAS-Detektor aufgenommen wurden und einer Luminositat von 20.3 fb�1

entsprechen.

E. Experimentelle Analysen 33

E-7 (A) Messung des CP -Parameters sin.2ˇ/ in Zerfallen vonB0!c NcK0

S mit dem LHCb-ExperimentVANESSA MULLER

Experimentelle Physik V, TU Dortmund

Das LHCb-Experiment am Large Hadron Collider (LHC) beschaftigt sich mit der Suche nachPhysik jenseits des Standardmodells durch Prazisionstests in Zerfallen von B- und D-Mesonen.Eine dieser Prazisionsmessungen ist die experimentelle Bestimmung desCP -Parameters sin.2ˇ/.

Als ”goldener“ Kanal fur die Messung von sin.2ˇ/ wird der Zerfall B0! J= K0S bezeichnet.

Der Endzustand J= K0S kann sowohl von dem B0- als auch von dem B

0-Meson erreicht werden.

Aus der Interferenz zwischen dem direkten Zerfall und dem Zerfall nach B0�B0-Mischung folgt

eine zeitabhangige CP -Asymmetrie zwischen den zeitabhangigen Zerfallsbreiten der B0- undB0-Mesonen

A.t/ D � .B0.t/! J= K0

S / � � .B0.t/! J= K0

S /

� .B0.t/! J= K0

S /C � .B0.t/! J= K0

S /D

S sin.�mt/ � C cos.�mt/cosh

��� t2

�C A�� sinh

��� t2

� :Dabei stehen B0- und B

0fur den jeweiligen Anfangszustand des Mesons zum Zeitpunkt t D 0

und t stellt die Zerfallszeit dar. Die Observablen S , C und A�� stellen CP -Parameter dar. DieMassen- und Zerfallsbreitendifferenz zwischen dem leichten und schweren Masseneigenzustan-des des B0 werden durch�m und�� beschrieben. Die von LHCb gemessene CP -Asymmetriefur den Zerfallskanal B0! J= K0

S ist in Abb. E.2 dargestellt. Das J= -Meson wird dabei be-sonders gut in seinem Zerfall in zwei Myonen rekonstruiert, wahrend das K0

S -Meson in zweientgegengesetzt geladene Pionen rekonstruiert wird.

Die Analyse auf den Run I Daten des LHCb-Experiments mit 3 fb�1 an pp-Kollisionen istaktuell die praziseste Messung dieses Parameters an einem hadronischen Beschleuniger und mitUnsicherheiten ahnlich zu denen der B-Fabriken, BaBar und Belle. Mit den Daten aus RunII, der in diesem Jahr gestartet ist, wird die weltbeste Messung von sin.2ˇ/ erwartet. Um diebisherige Messung von sin.2ˇ/ zu erganzen, konnen bereits mit dem aktuellen Datensatz vonRun I von LHCb weitere B0! c NcK0

S Zerfalle, wie beispielsweise B0! .2S/K0S oder auch

weitere Endzustande des J= in ein Elektron-Positron-Paar, genutzt werden.Die Herausforderungen einer solchen Messung an einem hadronischen Beschleuniger, wie demLHC, sind besonders groß. Die Daten sind durch hohen Untergrund dominiert, sodass spezi-elle Verfahren zur Unterdruckung des Untergrunds und zum gleichzeitigen Erhalt des Signalentwickelt werden mussen. Dabei erschwert der Zerfall des J= in ein Elektron-Positron-Paarzusatzlich die Messung. Aufgrund der geringen Masse der Elektronen und die dadurch bevor-zugte Abstrahlung von Photonen im Detektor, wird die Bestimmung der Impulse der Teilchenerschwert.

Außerdem erweist es sich durch die hohe Teilchenmultiplizitat als schwierig den Produktionszu-stand bzw. -flavour des B-Mesons zum Zeitpunkt t D 0 zu bestimmen. Dies geschieht bei LHCbdurch das sogenannte ”Flavour Tagging“. Es nutzt Algorithmen, die anhand der Zerfallstopologieund den neben dem Signalzerfall entstehenden Teilchen Ruckschlusse auf den initialen Flavour

34 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

t (ps)5 10 15

Signal

yield

asymmetry

−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3

0.4

LHCb

Abbildung E.2.: Gemessene zeitabhangige CP -Asymmetrie fur den Zerfall B0! J= K0S [LH-

Cb collaboration, PhysRevLett.115.031601].

des Signal-B-Mesons zulassen. Das Flavour Tagging funktioniert jedoch nicht unabhangig vondem Anfangszustand des B-Mesons gleich gut, da unter anderem geladene Teilchen, die zurBestimmung des Flavours verwendet werden, unterschiedlich mit dem Detektormaterial wech-selwirken und somit unterschiedlich effizient rekonstruiert werden konnen. Dies fuhrt zu Asym-metrien im Flavour Tagging.

In diesem Vortrag werden die ersten Ergebnisse der Run I Studie fur den Zerfallskanal B0! .2S/K0

S , die in Form einer zeitabhangigen Messungen der CP -Asymmetrie durchgefuhrt wird,vorgestellt und diskutiert.

E. Experimentelle Analysen 35

E-8 (B) Rekonstruktion und Identifikation von geboostetenTau-Paare-Topologien am ATLAS DetektorDAVID KIRCHMEIER

Institut fur Kern- und Teilchenphysik, TU Dresden

Zerfalle mit zwei Tau-Leptonen im Endzustand sind wichtige Kanale fur die Suche nach schwe-ren Resonanzen, die von Theorien jenseits des Standardmodells vorhergesagt werden. Mit demNeustart des LHC in diesem Jahr werden fur solche Suchen noch hohere Energien und Massenals bisher erreichbar sein. Ein genaues Verstandnis hochenergetischer, geboosteter Tau-Paarewird damit fur die Suche nach neuer Physik immer wichtiger.

Die bisherigen Methoden der Tau-Erkennung werden vorgestellt am Beispiel des Zerfalls A !Z C h ! l l C �� . Hier zerfallt ein schweres CP-ungerades Higgsboson A, welches von 2-Higgs-Dublett-Modellen vorhergesagt wird, uber den Zwischenzustand eines Z-Bosons und ei-nes Standardmodell-ahnlichen Higgsbosons h, in ein geboostetes Tau-Paar, sowie in zwei Elek-tronen oder Myonen.

Die Tau-Erkennung am ATLAS Detektor lasst sich aufteilen in einen Rekonstruktionsschritt undeinen darauffolgenden Identifikationsschritt. Die Tau-Rekonstruktion ist auf eine hocheffizien-te Erkennung von, auf Teilchenjets basierenden, Tau-Kandidaten ausgelegt. Die darauffolgendeTau-Identifikation trennt mithilfe multivariater Methoden Tau-Ereignisse von Untergrundereig-nissen, wie beispielsweise QCD-Jets.

Es wird gezeigt, dass es mit den bisherigen Methoden der Tau-Rekonstruktion nicht moglich istzwei sehr nah beieinander liegende Tau-Leptonen getrennt zu rekonstruieren. Ab einer Summeder Tau-Impulse von pT � 500GeV, was etwa einem raumlichen Abstand von �R D 0:4 ent-spricht, werden sie durch den zugrundeliegenden Anti-kt -4-Algorithmus nicht mehr getrennterkannt, sondern als ein gemeinsamer Teilchenjet rekonstruiert. Im zweiten Teil dieses Vor-trags soll daher gezeigt werden wie die bisherige Tau-Rekonstruktion und Identifikation amATLAS-Detektor durch Methoden erganzt werden kann, die auf hochenergetische geboosteteTau-Paare spezialisiert sind. Hierzu wurde eine Di-Tau-Rekonstruktion entwickelt, die Tau-Paar-Kandidaten, innerhalb von Substrukturen großerer Anti-kt -10 Jets erkennt. Bei hohen Impulsenvon bis zu pT � 1200GeV konnen hiermit geboostete Tau-Paare mit hoher Effizienz rekonstru-iert werden. Ein zusatzlicher Identifikationsschritt nutzt Boosted Decision Trees, um Di-Tau-Signal mit hoher Trennkraft von QCD-Jet-Untergrund zu unterscheiden.

36 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-9 (C) Modellunabhangige Suche nach neuer Physikam ATLAS Experiment in Proton-Proton Kollisionen beips D 8 TeV und

ps D 13 TeV

FABIO CARDILLO

Physikalisches Institut, Universitat Freiburg

Seit der Inbetriebnahme des Large Hadron Colliders steht uns eine Vielzahl neuer Moglichkeitenoffen, die physikalischen Phanomene an der TeV Skala zu erforschen. Die Daten, die am ATLASDetektor seit 2008 aufgezeichnet werden, erlauben die Untersuchung vieler Theorien, die eineneue Physik jenseits des Standardmodells in diesem Energiebereich vorhersagen. Die große An-zahl verschiedener Theorien macht es jedoch schwierig, sie alle mit dedizierten Analysen zuprufen. Die Optimisierung von Analysen auf sehr spezifische Szenarien stellt eine zusatzlicheProblematik in der Suche nach neuer Physik dar.

Der Ansatz von modellunabhangigen Analysen am ATLAS Detektor bietet diesbezuglich neueMoglichkeiten die Vorhersagen des Standardmodells ohne modellbezogene Signale zu uber-prufen, indem moglichst viele Ereignistopologien (Kanale) mit der Erwartung des Standard-modells verglichen werden. Dabei werden Ereignisse nach Anzahl und Typ der im Detektorrekonstruierten Objekte klassifiziert und mit einer Monte Carlo basieren Vorhersage verglichen.Dies kann als eine modellunabhangige Kategorisierung der Daten nach ihrem physikalischenInhalt angesehen werden. Ein statistischer Suchalgorithmus untersucht die Verteilungen von ver-schiedenen kinematischen Variablen, wie die effektive Masse, die invariante Masse aller Objekteoder die fehlende transversale Energie systematisch nach Abweichungen von dem erwartetenUntergrund. Dies geschieht indem lokale Wahrscheinlichkeiten fur jede kinematische Verteilungder Ereignistopologien berechnet werden und die Region mit der kleinsten Wahrscheinlichkeitselektiert wird. Diese Wahrscheinlichkeiten konnen als Signifikanzwerte (p-Werte) nach ihrerHaufigkeit sortiert werden. Um nicht sensitiv auf statistische Fluktuationen in den Daten zu sein,wird diese Suche mit simulierten Ereignissen wiederholt, die unter der Nullhypothese gewonnenwerden. Dies spielt insbesondere eine Rolle, da die Wahrscheinlichkeit, dass eine signifikanteAbweichung nur durch eine statistische Fluktuation versusacht wird, bei einer großen Anzahl vonSuchregionen zunimmt. Diskrepanzen zwischen den simulierten und realen Resultaten konnenauf die Existenz unbekannter Phanomene oder auf Fehler in der Vorhersage des Standardmodellshindeuten.

Diese Analysestrategie kann dabei nicht nur Hinweise auf neue Physik geben, sondern kannauch als Test fur verschiedene Methoden der Untergrundabschatzung, sowie fur die Qualitat derVorhersagen verschiedener Monte Carlo Generatoren benutzt werden. Erweiterte Anwendungensind unter anderem die Berechnung modellunabhangiger Ausschlussgrenzen fur verschiedenesupersymmetrische Modelle oder andere Szenarien fur Physik jenseits des Standardmodells.Eine modellunabhangige Suche nach Abweichungen vom Standardmodell wurde bereits wahrendder ersten Phase des LHC innerhalb der ATLAS Kollaboration durchgefuhrt und mit Daten ausProton-Proton Kollisionen bei einer Schwerpunktsenergie von

ps D 8 TeV ausgewertet. In der

zweiten Anlaufphase des LHC, die 2015 begann, stehen aufgrund einer hoheren Schwerpunkts-energie von

ps D 13 TeV nun erweiterte Moglichkeiten zur Verfugung, mit modellunabhangi-

gen Methoden nach neuer Physik zu suchen.

E. Experimentelle Analysen 37

Abbildung E.3.: Anzahl der Ereignisse fur verschiedene Kanale mit Myonen. Die Ereignisto-pologien sind gekennzeichnet anhand der Anzahl und dem Typ der im Detektorrekonstruierten Objekte (Myonen:�, Elektronen: e, Jets: j , b-Jets: b, Photonen: , fehlende transversale Energie: �). Die Daten konnen mit der totalen Erwar-tung des Standardmodells verglichen werden, dessen verschiedene Prozesse inden farbigen Balken dargestellt werden. Die schraffierten Flachen zeigen dietotale Unsicherheit der SM Prozesse

In diesem Vortrag werden die Ergebnisse einer modellunabhangigen Analyse am ATLAS De-tektor prasentiert, die mit Daten aus Proton-Proton Kollisionen bei einer Schwerpunktsenergievon 8 TeV durchgefuhrt wurden. Außerdem werden neue Methoden in der Analysestrategie furPhase II vorgestellt, wie die Erweiterung der Suchalgorithmen auf neue Variablen, erweiterteMethoden in der Untergrundabschatzung, sowie Sensitivitatsstudien fur neue Physik.

38 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-10 (A) Suche nach schweren Top-Squarks mit hadronischemEndzustand am ATLAS-DetektorCHRISTIAN LUDTKE

Physikalisches Institut, Universitat Freiburg

Die Supersymmetrie (SUSY) ist eine der vielversprechendsten und am besten untersuchten Er-weiterungen des Standardmodells der Teilchenphysik (SM). Sie stellt Fermion- und Boson-zustande in Beziehung und sagt fur jedes SM-Teilchen ein SUSY-Partnerteilchen vorraus. MitHilfe von SUSY kann eine ganze Reihe von Problemen, die das SM aufweist, erklart werden:Unter anderem kann das Hierarchieproblem vermieden werden, es gibt einen Kandidaten furdunkle Materie und die Vereinigung der Kopplungskonstanten ist moglich. Bisher konnte keinSUSY-Teilchen entdeckt werden und von der ATLAS- und CMS-Kollaboration wurden bereitshohe untere Grenzen auf die Massen der SUSY-Teilchen gesetzt. Jedoch ist besonders fur dieLosung des Hierarchieproblems die Masse des supersymmetrischen Partners des Top-Quarksentscheidend, da sie mit dem hochsten Gewicht in die Strahlungskorrekturen der Higgs-Boson-Masse eingeht. Dazu sollte das Top-Squark leichter als 1TeV sein. Deshalb ist die Suche nachdem Top-Squark auch in der gerade laufenden, zweiten Datennahmeperiode am Large HadronCollider von großem Interesse.

Supersymmetrische Modelle weisen eine große Anzahl freier Parameter auf. Um dennoch eineSuche zu ermoglichen, behilft man sich mit vereinfachten Modellen. Hier wird ein bestimmtesMassenspektrum gewahlt:m. Q�01/ < m. Q�

˙1 / < m.Qt1/ << m (andere SUSY-Teilchen). Zusatzlich

wird der Parameterraum so eingeschrankt, dass nur m. Q�01/, m.Qt1/ und m. Q�˙1 / verbleiben. Dazumussen Annahmen uber die Verzweigungsverhaltnisse des Top-Squarks in die Kanale Qt1 ! t Q�01und Qt1 ! t Q�˙1 gemacht werden.

Bei einer Schwerpunktsenergie vonp8TeV wurde am ATLAS-Detektor eine Menge von Proton-

Proton-Kollisionen aufgenommen, die einer integrierten Luminositat von L DR20 fb�1 ent-

spricht. Die hier vorgestellte Analyse konzentriert sich auf den Fall, dass das Top-Squark gemaßQt01 ! t Q�01 ! W b Q�01 ! qqb Q�01 zerfallt. Top-Squarks werden paarweise erzeugt, sodass man imEndzustand 6 Jets erwartet, von denen 2 b-Jets sein mussen. Zusatzlich machen sich die Neu-tralinos Q�01 durch fehlende Transversalenergie bemerkbar. Die fehlende Transversalenergie istfur die Analyse von großer Bedeutung, da sie die wichtigste kinematische Große darstellt, umTop-Squark-Eregnisse von t Nt -Produktion zu unterscheiden. Dies funktioniert dann gut, wenn dasTop-Squark schwer und das Neutralino leicht ist, weil dann die Top-Zerfallsprodukte geboostetwerden. Der untersuchte Massenbereich umfasst die hohen Top-Squark-Massen. Fur den Fall,dass das Neutralino leicht ist, konnte durch diese Analyse eine untere Grenze auf die Top-SquarkMasse von ca. 700GeV gesetzt werden.

E. Experimentelle Analysen 39

E-11 (B) Untersuchung der CP-Eigenschaften des Higgs-Bosons durch Optimale Observablen im ZerfallskanalH ! ��

in der Produktion durch Vektorbosonfusion mit dem ATLAS-DetektorDIRK SAMMEL

Physikalisches Institut, Universitat Freiburg

Nach der Entdeckung eines Higgs-Bosons am LHC durch die Experimente ATLAS und CMSbleibt die Frage, ob es sich um das Higgs-Boson des Standardmodells handelt. Die Bestimmungder CP-Eigenschaften des entdeckten Higgs-Bosons liefert dabei einen wichtigen Beitrag zurBeantwortung dieser Frage.

Eine weitere Motivation fur die Untersuchung der CP-Eigenschaften ist die Baryonenasymme-trie im Universum. Mit den Sacharowkriterien existieren drei notwendige Bedingungen fur dieEntstehung dieser Asymmetrie wahrend der Baryogenese. Eines der Kriterien ist die Verletzungder CP-Invarianz, wobei die bisher beobachtete CP-Verletzung nicht ausreicht, um die Baryonen-asymmetrie zu erklaren. Eine CP-Verletzung im Higgs-Sektor wurde einen zusatzlichen Beitragliefern.

Im Standardmodell wird ein CP-gerades Higgs-Boson vorausgesagt. Durch bisherige Analysenkann zwar bereits ausgeschlossen werden, dass das entdeckte Higgs-Boson eine ungerade CP-Quantenzahl besitzt, jedoch besteht die Moglichkeit einer CP-ungeraden Beimischung.

In der vorgestellten Analyse wird die Tensorstruktur der HV V -Kopplung (V D W;Z) in derProduktion des Higgs-Bosons durch Vektorbosonfusion untersucht. Fur den Zerfall des Higgs-Bosons wurde der Kanal H ! �� gewahlt. Es wird angenommen, dass sich die Kopplung desHiggs-Bosons an Fermionen standardmodellartig verhalt, also keine CP-Verletzung im Zerfallnach � -Leptonen oder in der Produktion durch Gluonfusion auftritt.

Ein CP-ungerader Term in der HV V -Tensorstruktur fuhrt zu einem zusatzlichen CP-ungeradenMatrixelement, wobei die Beimischung durch den Parameter Qd quantifiziert wird:

MnonSM DMSM CQd �MCPodd

Hieraus lasst sich eine CP-ungerade Optimale Observable definieren, mit der ein direkter Testauf CP-Verletzung moglich ist:

OO D2<.M �SMMCPodd /

jMSM j2

Die Matrixelemente werden hierbei durch die rekonstruierten Vierer-Vektoren des Higgs-Bosonsund der zwei bei der Vektorbosonfusion auftretenden Jets berechnet.

Der Mittelwert dieser Observablen betragt Null, falls die CP-Quantenzahl erhalten ist. Ein Mit-telwert ungleich Null ist somit ein modellunabhangiger Hinweis auf eine vorliegende CP-Ver-letzung. Eine Asymmetrie der Verteilung der Optimalen Observablen tritt bei Werten von Qd ¤ 0

40 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

auf. In Abbildung E.4 ist die Optimale Observable fur verschiedene Werte von Qd zu sehen.

OO1-10 -8 -6 -4 -2 0 2 4 6 8 10

Ent

ries

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14 SM

d = 0.1

d = -0.1

d = 0.6

d = - 0.6

Abbildung E.4.: Optimale Observable fur verschiedene Werte von Qd

Aus dem Vergleich der Form der beobachteten Verteilung der Optimalen Observablen mit denVorhersagen fur unterschiedliche Qd lassen sich somit Grenzen auf Qd ableiten.

Im Vortrag werden zudem die Selektion des Signalprozesses, die Abschatzung der relevantenUntergrundprozesse und die Bestimmung systematischer Unsicherheiten vorgestellt. Fur dieAnalyse wurden die Daten des ATLAS-Experimentes aus dem Jahre 2012 bei einer Schwer-punktsenergie von

ps D 8 TeV mit einer integrierten Luminositat von

RL dt D 20.3 fb�1 ver-

wendet.

E. Experimentelle Analysen 41

E-12 (C) Suche nach stabilen, geladenen und massiven Teilchenmit dem ATLAS DetektorJOCHEN HEINRICH

Fakultat fur Physik, LMU Munchen

Eine Vielzahl an Erweiterungen des Standardmodells der Elementarteilchenphysik setzen dieExistenz von bisher unentdeckten schweren und langlebigen Elementarteilchen (LLPs) voraus.Neben allgemeinen Erweiterungen des Standardmodells wie Twin-Higgs oder Modellen mituniversellen zusatzlichen Dimensionen (UED), sagen insbesondere supersymmetrische Model-le geladene, langlebige Sleptonen, Squarks, Gluinos oder Charginos vorher. Die Massen derlanglebigen Teilchen konnen dabei im von Proton-Proton Kollisionen mit Schwerpunktsenergieps D 13TeV an CERNs Large Hadron Collider (LHC) zuganglichen Bereich liegen. Die vom

ATLAS Detektor aufgezeichneten Kollisionsdaten erlauben es nun konkrete Teilchen-Hypothesendem experimentellen Test zu unterziehen. Wir sprechen von stabilen, massiven Teilchen (SMPs),falls die Lebenszeit der langlebigen Teilchen groß genug ist, um den gesamten oder einen Groß-teil des Detektors vor dem Zerfall zu durchqueren. Aufgrund ihrer elektrischen Ladung ist essomit moglich eine direkte Suche durchzufuhren. Eine direkte Suche bietet gegenuber indirek-ten Suchen entscheidende Vorteile. Es erlaubt eine großtenteils modellunabhangige Analyse, beider der zu erwartende Untergrund nahezu vollstandig instrumenteller Natur und damit klein ist,verglichen mit ublichen Suchen nach Physik jenseits des Standardmodells.

Farbgeladene, langlebige Squarks und Gluinos wurden nach ihrer Produktion mit Standardmo-dell Quarks und Gluonen hadronisieren um so genannte R-Hadronen zu bilden. Die Signa-tur langlebiger R-Hadronen, sowie stabiler Sleptonen und Charginos im Detektor entsprichtder von schweren Myonen. Sie bilden keine ausgepragten Schauer in den Kalorimeter Sys-temen und werden nicht gestoppt, sodass sie den Detektor verlassen konnen. Aufgrund ihrergroßen Masse durchqueren sie den Detektor alleredings mit deutlich geringerer Geschwindig-keit als Myonen, welche nahezu mit Lichtgeschwindigkeit propagieren. Neben Myonen-Triggernwerden fur die Ereignisselektion Trigger auf fehlende transversale Energie herangezogen, wel-ches hauptsachlich aus Abstrahlprozessen im Ausgangszustand stammt. Die Identifikation vonSMPs geschieht anhand ihrer Masse und kann uber zwei verchiedene Mechanismen erfolgen.Zum Einen macht man sich zu Nutze, dass geladene Teilchen beim Durchqueren des Detek-tors Energie durch Ionisationsprozesse verlieren. Diese Ionisationsenergieverluste konnen in denATLAS Spurkammern und im Myonenspektrometer gemessen werden und sind abhangig vonder Propagations-Geschwindigkeit des Teilchens. Aus der Bethe-Bloch Formel lasst sich dieMasse des SMPs errechnen. Die zweite Option nutzt die langsame Propagationsgeschwindig-keit direkt und errechnet die Masse der SMPs aus der Geschwindigkeit des Teilchens, welchein Flugzeitmessungen im Kalorimeter oder dem Myonenspektrometer bestimmt wurde. Eine zu-verlassige Messung der Geschwindigkeit ist demnach essentiell fur die optimale Masseauflosungdes Signals.

Fur meta-stabile, massive Teilchen, welche zwar die Kalorimeter erreichen, nicht aber das Myo-nenspektrometer wird eine separate Myonenspektrometer agnostische Suche durchgefuhrt. Hier-bei erfolgt die Selektion von Kandidaten ausschließlich uber Signale aus Spurkammern und Ka-lorimetern. Diese Analyse bedient auch die Tatsache, dass R-Hadronen mit dem Detektormate-rial wechselwirken und es dabei zu Ladungsanderungen kommen kann. So ist es moglich, dass

42 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

ein zuvor geladenes R-Hadron beim Durchqueren der Kalorimeter durch Quark-Austausch neu-tral und damit fur das Myonenspektrometer unsichtbar wird. Die Vernachlassigung des Myonen-spektrometer-Signals garantiert somit die Sensitivitat fur R-Hadronen und meta-stabile Teilchen.Die Ergebnisse der Suchen werden unter anderem in vereinfachten GMSB Modellen und imRahmen von LeptoSUSY interpretiert.

E. Experimentelle Analysen 43

E-13 (A) Suche nach dem Standardmodell Higgs Boson inDitau-Endzustanden mit dem ATLAS ExperimentERIC DRECHSLER

II. Physikalisches Institut, Universitat Gottingen

Die Entdeckung des Higgs Bosons im Jahr 2012 markiert einen Meilenstein in der moder-nen Physik, nicht zuletzt reflektiert in medialem Aufruhr, sowie der Verleihung des Physik-Nobelpreises 2013 an Peter Higgs und Francois Englert.Eine grundlegende Vorhersage des Standardmodells der Teilchenphysik ist, dass das HiggsfeldUrsache fur die Massen von sowohl Eichbosonen als auch Fermionen, also insbesondere vonLeptonen ist. Mit den vom ATLAS-Detektor bis dato aufgezeichneten Daten ist die Entdeckungder direkten Kopplung zwischen Higgs Boson und Leptonen noch nicht gelungen, jedoch weisendie bisherigen Analysen das vom Standardmodell erwartete Verhalten auf und geben deutlicheHinweise auf die Existenz dieser Kopplung.

Den erfolgsversprechendensten Kanal fur die Entdeckung besagter Kopplung bietet der direkteZerfall des Higgs-Bosons in zwei � -Teilchen, H ! �� , den schwersten bekannten Leptonen.Die � -Leptonen sind durch ihre Masse von rund 1:7 GeV in der Lage leptonisch, sowie hadro-nisch zu zerfallen. Insbesondere der hadronische Zerfall wird zur Rekonstruktion und Identifi-kation im ATLAS Detektor genutzt. Die resultierenden Jets konnen durch ausgefeilte Methoden- unter Nutzung von Boosted Decision Trees (BDTs) - von Jets aus anderen Prozessen unter-schieden werden. Auch Elektronen konnen die Signatur der � -Leptonen imitieren und bedurfenzusatzlicher Diskriminierungsstrategien, welche im zweiten Lauf des LHCs auf der Likelihoodgeometrisch uberlappender Elektronen beruht.

Mit der 2015/2016 erwarteten Datenmenge wird es moglich sein, statistisch signifikante Aus-sagen uber die Kopplung vom Higgs-Boson zu � -Leptonen zu treffen. Die Suchen nach demProzess H ! �� werden abhangig vom Endzustand der beiden � -Leptonen in 3 Kategorien un-terteilt. Im Vortrag werden neben der � -Identifikation mit ATLAS insbesondere erste Ergebnisseaus 2015 fur den Fall diskutiert, dass beide � -Leptonen hadronisch zerfallen.

44 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-14 (B) Abschatzung des W und t Nt Untergrundes fur die Su-che nach neuer Physik im Endzustand mit Jets und fehlenderTransversalenergie bei CMSARNE-RASMUS DRAEGER

Institut fur Experimentalphysik, Universitat Hamburg

Viele Modelle jenseits des Standardmodells sagen neue Teilchen an der TeV Skala vorher. Einerder dominanten Untergrunde fur Suchen mit Jets und fehlender Transversalenergie im vollhadro-nischen Endzustand sind semi-leptonische t Nt -Ereignisse, bei denen das Lepton nicht identifiziertwird. Ich arbeite an der Weiterentwicklung einer datengetriebenen Methode zur Abschatzungdieses Untergrundes mit speziellem Fokus auf die erhohte Schwerpunktsenergie von 13 TeV.

E. Experimentelle Analysen 45

E-15 (C) Suche nach WIMPs im Mono-Photon-Kanal am ILCMORITZ HABERMEHL

DESY, Hamburg

Weakly Interacting Massive Particles (WIMPs) sind hypothetische Teilchen und Kandidaten furDunkle Materie (DM). Vorgestellt wird eine weitgehend modellunabhangige Beschleunigersu-che mit dem International Large Detector (ILD) [1] am geplanten International Linear Collider(ILC) [2]. Dabei ist der zugrunde liegende Prozess die Paarbildung von DM-Teilchen durch dieAnnihilierung von Teilchen des Standardmodells. Am ILC sollen Elektronen und Positronen zurKollision gebracht werden, wodurch hier die Kopplung zwischen WIMPs und Leptonen unter-sucht werden kann (eCe� ! ��). Aufgrund ihrer schwachen Wechselwirkung konnen WIMPsim Detektor nicht nachgewiesen werden. Wird aber ein Photon im Anfangszustand abgestrahl(initial state radiation - ISR), ist der Prozess als Mono-Photon-Signal beobachtbar (siehe Ab-bildung E.5). Da keine Annahmen uber weitere Teilchen außerhalb des Standarmodells gemachtwerden, ist der Ansatz in hohem Maße modellunabhangig.

Abbildung E.5.: Pseudo-Feynman-Diagramm der WIMP-Paarproduktion mit einem ISR-Photon.

Die Identifizierung des Signals C E= erfordert einen nahezu leeren Detektor, was durch diekleinen systematischen Ungenauigkeiten der elektroschwachen Untergrunde eines Leptonenbe-schleunigers erleichtert wird. Ein weiterer Vorteil des ILC ist die Verwendung von Elementarteil-chen, was genaue Aussagen uber den Ausgangszustand - wie zum Beispiel die Schwerpunkts-energie (

ps) - ermoglicht. Die Verteilung von

ps ist durch das Luminositatsspektrums gegeben.

Der Vortrag wird sich auf folgende drei Bereiche konzentrieren:

Sensitivitat des ILC: Unter der Annahme von Austauschteilchen deren Masse oberhalb vonps liegt, kann die Beschreibung des Prozesses durch die Anwendung von effektiven Operatoren

vereinfacht werden. Verschiedene Grundtypen von Austauschteilchen wurden getestet. Fur dengesamten Schwerpunktsenergienbereich des ILC (250 - 1000 GeV) werden Ausschlussregionenfur WIMP-Massen im Bereich von 10 GeV prasentiert. Dabei wird die Bedeutung der Verwen-dung von polarisierten Teilchen diskutiert. Eine geeignete Wahl fuhrt zu einer Verstarkung desSignals und zur Unterdruckung von Untergrundprozessen. Bei einer Entdeckung erlaubt daruberhinaus eine Messung der polarisierten Produktionsraten Hinweise auf die Natur des zugrunde-liegenden Prozesses.

Luminositatsspektrum des ILC: Um hohe instantane Luminositaten zu erreichen, mussendie Strahlen stark gebundelt werden. In den resultierenden starken elektromagnetischen Felderndes einen Strahls werden die Teilchen des jeweils entgegenkommenden Strahls abgelenkt. Diesfuhrt einerseits zu einer weiteren Fokussierung und damit zu einer weiteren Erhohung der Lu-minositat, andererseits geben die Teilchen bei der Ablenkung Bremsstrahlung ab, die in diesemFall Beamstrahlung heißt. Im Mittel verlieren die Teilchen dadurch einige Prozent ihrer Energie,was sich im Luminositatsspektrum durch Eintrage bei Energien weit unterhalb der nominalen

46 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

Strahlenergie widerspiegelt (siehe Abbildung E.6). In einer vorangegangen WIMP-Analyse hatsich die Unsicherheit auf die Form des Luminositatsspektrums als großter systematischer Fehlerherausgestellt [3]. Der Einfluss verschiedener Parameter des Beschleunigers auf das Lumino-sitatsspektrums wird diskutiert und der Einfluss auf das Energiespektrums des Signal-Photonsabgeschatzt.

Abbildung E.6.: Normiertes Luminositatsspektrum des ILC bei ei-ner nominalen Schwerpunktsenergie von 500 GeVin logarithmischer Skala. Im Mittel verlieren dieeinlaufenden eC=e� einige Prozent ihrer Energiein Form von Beamstrahlung, wodurch

ps deutlich

unterhalb von 500 GeV liegen kann.

Hermitizitat des Detektors: Wird bei dem Prozess eCe� ! eCe� nur das Photon detektiert,wird ein Signalereignis imitiert. Da der Wechselwirkungsquerschnitt fur Leptonen mit kleinenPolarwinkeln am großten ist, bildet die Bhabhastreuung einen der wichtigsten Untergrunde. DieVorwartsrichtung des Detektors, genauer das strahlrohrnahe Kalorimeter BeamCal, ist folglichvon zentraler Bedeutung. Zusatzlich treten gerade in dieser Region Prozesse auf, die auf dieStrahl-Strahl-Wechselwirkung zuruckgehen. Fur den ILD wird erwartet, dass pro bunch cros-sing rund 150 GeV im strahlrohrnahen Kalorimeter BeamCal deponiert werden. Die Effizienzhochenergetische eC=e� von solchen Untergrundereignissen zu trennen wird prasentiert.

[1] T.Behnke, et al., International Linear Collider, Technical Design Report - Volume 4:Detectors (2013) arXiv:1306.6329

[2] International Linear Collider, Technical Design Report (2013)https://www.linearcollider.org/ILC/Publications/Technical-Design-Report

[3] C.Bartels, M.Berggren und J.List, Characterising WIMPs at a Future eCe� Linear Col-lider, arXiv:1206.6639

E. Experimentelle Analysen 47

E-16 (A) Top Quark Rekonstruktion mittels der “Buckets oftops“ Methode im ATLAS ExperimentMATHIS KOLB

Physikalisches Institut, Universitat Heidelberg

Das Top Quark ist das schwerste Quark mit einer Masse auf der elektroschwachen Energieska-la und einer Zerfallsbreite, die so groß ist, dass es zerfallt bevor es hadronisiert. Aufgrund derhohen Schwerpunktenergie des Large Hadron Collider (LHC) wurde eine große Menge an TopQuark Paaren produziert. Diese Rekordzahl an Top Quark Ereignissen bietet die Moglichkeitdieses Elementarteilchen und seine Produktionsmechanismen ausfuhrlich zu studieren.

Nach der Entdeckung des Higgs Bosons spielt die Untersuchung der Kopplung mit Top Quarkseine wichtige Rolle beim Verstandnis des Higgs Sektors wie es z.B. bei der Entwicklung derRenormierungsgruppe zu hoheren Energieskalen ersichtlich wird. Die direkte Messung der TopYukawa Kopplung verlangt unter anderem ein gutes Verstandnis des Top Quark Zerfalls undTechniken diesen zu identifizieren und zu rekonstruieren.

Traditionelle Methoden der Top Quark Rekonstruktion sind durch relativ geringe Effizienz beihoheren transversalen Impulsen der Top Quarks, bei denen die Zerfallsprodukte zu kollimierenbeginnen, begrenzt. Andererseits verlangen Substruktur basierte Top Rekonstruktionen große RJets (fat jets) als Ausgangspunkt. Hieraus resultiert im Allgemeinen eine untere Schwelle fur dentransversalen Impuls der Top Quarks von etwa ptop

T > 200 GeV bei der fat jets identifiziert wer-den konnen. Des Weiteren zerfallen Top Quark Paare in etwa 46% der Falle in vollhadronischeEndzustande. Dieser Zerfallskanal ist daher besonders herausfordernd, da er mit dem großenUntergrund aus QCD multijet Produktion zurechtkommen muss.

In JHEP 02 (2014) 130 wurde ein neuer Ansatz zur Rekonstruktion hadronisch zerfallender TopQuark Paare vorgeschlagen. Er eignet sich vor allem fur moderate transversale Impulse der TopQuarks im Bereich ptop

T D 100 � 400 GeV. Das Ziel dieses Algorithmus besteht darin relativkleine Jets in sogenannte ”Buckets“, die wie Top Quarks aussehen, aufzuteilen, wobei eben-so zusatzliche hadronische Aktivitat wie Anfangszustandsstrahlung im Ereignis berucksichtigtwird. Der Vortrag wird sich mit Monte Carlo (MC) Studien zur Effizienz dieses Algorithmusin experimentellen Umgebungen wie sie am ATLAS Detektor gegeben sind und einem entspre-chenden Daten–MC Vergleich befassen.

Aufgrund des relevanten Impulsbereichs und der hohen Effizienz sollte der Algorithmus in derLage sein bestehende Top Quark Rekonstruktionstechniken, wie sie z.B. fur den Kanal t tH imvollhadronischen Endzustand in ATLAS Verwendung finden konnten, zu erganzen. Wie obenerwahnt erlaubt die Untersuchung der assoziierten Produktion eines Higgs Bosons mit einemTop-Quark Paar (t tH ! bqqbqqbb) die Messung der Top-Yukawa-Kopplung. Fur den Endzu-stand mit mindestens vier b-Jets kann die Methode zur Rekonstruktion hadronisch zerfallenderTop-Quark Paare durch “Jet Buckets” auf diesen Kanal angewendet werden. Nach der Zuordnungder Jets aus den Top-Quark Zerfallen lasst sich aus den verbleibenden b-Jets der Higgskandidatbilden.

48 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

Dieser Higgsproduktionskanal mit vollhadronischen Endzustanden verlangt eine adaquate Re-konstruktion der Top-Quarks zur Unterdruckung des Untergrundes und zur Reduktion der Kom-binatorik. In diesem Zusammenhang werden unter anderem die Triggermoglichkeiten und dieUntergrundmodellierung untersucht. Moglichkeiten die Information der Top-Quark Rekonstruk-tion mit Multivariaten Methoden zu kombinieren werden diskutiert.

E. Experimentelle Analysen 49

E-17 (B) Winkelanalyse und Messung des Verzweigungs-verhaltnisses des Zerfalls B0

s ! ��C�� am LHCb ExperimentMICHAEL KOLPIN

Physikalisches Institut, Universitat Heidelberg

Sogenannte elektroschwache Pinguinzerfalle stellen ein wertvolles Werkzeug bei der Suche nachNeuer Physik jenseits des Standardmodelles dar. Diese Prozesse ermoglichen Ubergange der Artb ! s�C��, wobei sich der Flavour des Quarks verandert, aber die Ladung erhalten bleibt.

Im Standardmodell der Teilchenphysik sind derartige Ubergange stark unterdruckt, da sie nurdurch Prozesse hoherer Ordnung vermittelt werden konnen. Dadurch kann sogenannte NeuePhysik signifikante Beitrage zu diesen Prozessen liefern und Observablen, wie beispielsweiseVerzweigungsverhaltnisse und Polarisationsanteile, signifikant verandern.

Im Fruhjahr diesen Jahres veroffentlichte die LHCb Kollaboration Ergebnisse der Winkelanalysedes Zerfallskanals B0 ! K�0�C��. Dabei wurden fur niedrige Werte des invarianten Di-Myon Massenquadrats q2 signifikante Abweichungen von der Standardmodellvorhersage in derGrossenordnung von 3:7 Standardabweichungen festgestellt.

]4c/2 [GeV2q0 5 10 15

5'P

-1

-0.5

0

0.5

1

preliminaryLHCb

SM from DHMV

Aufgrund seiner vergleichsweise hohen Signalausbeute und deutlichen Signatur ist der Zerfalls-kanal B0s ! ��C�� von besonderem Interesse.Dieser Vortrag stellt die Ergebnisse der Messung des Verzweigungsverhaltnisses sowie eine Win-kelanalyse dieses Zerfallskanals am LHCb Experiment vor. Der dazu verwendete Datensatz von3 fb�1 entspricht der vollstandigen Datenmenge, die wahrend des ersten Datennahmezeitraumsam LHC vom LHCb Experiment gesammelt wurde.

Wahrend dabei die Ergebnisse der Winkelanalyse hervorragend mit den aus dem Standardmodellerhaltenen Vorhersagen ubereinstimmen, zeigt die Messung des Verzweigungsverhaltnisses furniedrige q2 Werte signifikante Abweichungen in Hohe von bis zu 3:5� .

50 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

Ob diese Ergebnisse auf Neue Physik oder beispielsweise unterschatzte Beitrage durch Charmo-nium Schleifenprozesse zuruckzufuhren sind, ist derzeit ein kontrovers disktuiertes Thema dertheoretischen Teilchenphysik.

]4c/2 [GeV2q5 10 15

]4 c-2

GeV

-8 [1

02 q

)/d

µµφ→ s0

BdB

(

0

1

2

3

4

5

6

7

8

9LHCb

SM pred.SM (wide)DataData (wide)

E. Experimentelle Analysen 51

E-18 (C) Uberprufung von Wechselwirkungsmodellen der kos-mischen Strahlung mit 13 TeV LHC-Daten im Vorwartsbereichvon CMSSEBASTIAN BAUR

Institut fur Experimentelle Kernphysik, KIT

Hochenergetische kosmische Strahlung erzeugt in der Erdatmosphare sogenannte ausgedehnteLuftschauer, welche beispielsweise am Pierre-Auger-Observatorium in Argentienien beobachtetwerden. Die Rekonstruktion dieser Luftschauer und die Identifizierung der Energie und Mas-se der Primarteilchen sind abhangig von hadronischen Wechselwirkungsmodellen. Deren Un-terschiede und theoretische Unsicherheiten bei hochsten Energien limitieren die Prazision derLuftschauermessungen.

Am Large Hadron Collider (LHC) am CERN bietet sich die Moglichkeit, diese Modelle beiden aktuell hochsten erreichbaren Energien unter Laborbedingungen zu uberprufen und zu ver-bessern. Insbesondere Messungen im Vorwartsbereich der LHC-Experimente liefern wichtigeInformationen fur das Tuning der Modelle. Das CMS-Experiment zeichnet sich durch eine sehrgute Instrumentierung in Vorwartsrichtung aus. Ein besonderer Fokus liegt in diesem Vortrag da-her auf dem Vorwartskalorimeter CASTOR von CMS. In einer Entfernung von 14 Metern vomInteraktionspunkt entfernt, deckt es einen Bereich von �5:2 � � � �6:6 in Pseudorapiditat abund erlaubt eine Unterscheidung von elektromagnetischer und hadronischer Energie.

Es werden erste Messungen der Teilchenmulitplizitat und Analysen von Energie-Spektren mitdem CMS Experiment bei 13 TeV Schwerpunktsenergie vorgestellt. Dabei soll ein Uberblickuber die experimentelle Instrumentierung und die Methodik der Datenauswertung gegeben wer-den. Die gewonnenen Ergebnisse werden mit Vorhersagen verschiedener Modelle uberpruft.

52 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-19 (A) Suche nach skalaren Quarks im Endzustand mit Jetsund fehlender Transversalenergie mit dem ATLAS ExperimentKATHARINA JAKOBI

Institut fur Physik, Universitat Mainz

Die Entdeckung neuer Physik jenseits des Standardmodell ist eines der wichtigsten Ziele desATLAS-Experiments am Large Hadron Collider des CERN.

Die in diesem Vortrag prasentierte Analyse ist eine generische Suche nach neuen Elementarteil-chen, die bei ihrem Zerfall Jets und fehlende Transversalenergie im Detektor hinterlassen. Sokann sie beispielsweise fur die Suche nach supersymmetrischen Quarks Qq, die in ein Quark qund ein Neutralino Q�01 zerfallen Qq ! q C Q�01 verwendet werden. Dabei konnen verschiedeneQuarkflavour wie beispielsweise Qt ! c C Q�01 angenommen werden.

Der Endzustand ist bei einer Paarproduktion der unbekannten Teilchen somit charakterisiertdurch zwei Quark-Jets und fehlende Transversalenergie.

Zur Extraktion des Signals werden die Formen der Verteilungen von Signal und Untergrund indiskriminierenden Variablen an die Daten angepasst, wobei insbesondere die Verteilung der feh-lenden Transversalenergie sich als sensitiv herausgestellt hat. Um die Sensitivitat, insbesondereim Bereich kleiner Massendifferenzen zwischen Qq und Q�01 noch zu erhohen, wird eine geboosteteTopologie betrachtet, wozu eine harter Jet aus einer Gluonabstrahlung gefordert wird.

Abbildung E.7.: Verteilung der Untergrunde und eines Stop-Signals mit einer Masse von 200GeV in der Variable der fehlenden Transversalenergie nach der Vorselektionund einem Schnitt von Jet1Pt > 250 GeV

Da die Analyse eine minimale Selektion verwendet (fehlende Transversalenergie > 150 GeV,Anzahl der Leptonen = 0, Transversalimpuls des hartesten Jets> 250 GeV) und auf das Flavour-Tagging verzichtet, ist sie vergleichsweise modellunabhangig und komplementar zu bereits exis-tierenden Analysen.

E. Experimentelle Analysen 53

Im Gegensatz zu schnittbasierten Analysen, die hauptsachlich die Formunterschiede im oberenEnde der Verteilung fehlender Transversalenergie ausnutzen, sind hier die Unterschiede bei nied-rigen Werten der fehlenden Transversalenergie von Bedeutung.

Die prazise Modellierung der Verteilungsformen der relevanten Untergrundprozesse, insbeson-dere Z ! �� sowie W ! �� ist grundlegend fur die Fit-basierte Analyse. Daher wurde eineErsetzungs-Methode entwickelt, um diese Untergrunde aus Daten abschatzen zu konnen undsomit unabhangig von Monte-Carlo Simulationen sowie den damit zusammenhangenden syste-matischen Unsicherheiten zu sein.

Dazu werden die Untergrundereignisse durch W ! �� in einer geeigneten Kontrollregion se-lektiert und anschließend der Transversalimpuls des Myons zur fehlenden Transversalenergieaddiert, um Z ! �� Ereignisse zu simulieren. Ahnlich hierzu wird bei UntergrundereignissendurchW ! �� verfahren. Hierbei werden Ereignisse in einerW ! e� Kontrollregion selektiertund das Elektron durch einen Taujet ersetzt.

Die Abweichungen zwischen den Monte-Carlo simulierten Verteilungen und den mit der Erset-zungsmethode aus Daten erzeugten Ergebnissen werden als systematische Unsicherheiten furden jeweiligen Untergrund verwendet.

Die hiermit erreichten Sensitivitaten sind insbesondere entlang der Diagonalen in der Qt - Q�01-Massenebene sehr hoch und erlauben beispielsweise einen Ausschluss von Qt -Massen bis zu 300GeV.

Abbildung E.8.: Vergleich der aktuellen Ausschlussgrenzen mit dem moglichen Limit der Fit-basierten Analyse

54 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-20 (B) Effektive Feldtheorie im Vektorboson-Fusions Kanalmit H ! WW ! `�`� Zerfall mit dem ATLAS-ExperimentADAM KALUZA

Institut fur Physik, Universitat Mainz

Die Entdeckung des Higgs-Bosons am CERN vervollstandigt das Standardmodell (SM) der Teil-chenphysik. Nun ist die primare Aufgabe der Experimente am LHC neue Physik uber das SMhinaus zu finden. Unter der Annahme, dass neue Teilchen, wie die bekannten Teilchen, proportio-nal zur eigenen Masse an das Higgs-Boson koppeln, sollten insbesondere Higgsprozesse sensitivauf neue physikalische Effekte sein. Nach der Gluonfusion hat die Vektorbosonfusion (VBF) dengroßten Wirkungsquerschnitt. Hier fusionieren zwei Vektorbosonen zu einem Higgs-Boson undes entstehen zwei charakteristische im Detektor vorwartsgerichtete Jets. Diese beinhalten im Be-sonderen wichtige kinematische Informationen vom Produktionsvertex, was bei dem Hauptpro-duktionsprozess der Gluonfusion nicht gegeben ist. Der Zerfallskanal H ! WW bietet zudemein großes Verzweigungsverhaltnis was zu einer hohen Statisik fur Run2 des LHCs fuhrt.

Kein spezielles Modell wird durch die Analysen der ersten Datennahme des LHCs favorisiert.Mit der effektiven Feldtheorie (EFT) ist ein systematischer Suchansatz entwickelt worden, wel-cher besonders geeignet ist, modellunabhangig nach neuer Physik zu suchen. Die EFT ist eineErweiterung des SM mit hoherdimensionalen Operatoren, in diesem Fall mit Dimension-6 Ope-ratoren, welche mit der Energieskala � unterdruckt sind:

Leff D LSM0 C

Xn

fn

�2On

Nach der Symmetriebrechung erhalt man verschiedene uber das SM hinaus gehende Operatoren,welche durch einen freien Parameter skaliert werden konnen. Diese freien Parameter lassen sichmithilfe der Verteilungen verschiedener kinematischer Variablen und mithife der Ereignisratenlimitieren (siehe Abb. 1).

Abbildung E.9.: Die Verteilung des Azimutwinkels zwischen den beiden VBF Jets��jj fur verschiede-ne Parameterwerte eines der hoherdimensionalen Operatoren.

E. Experimentelle Analysen 55

Um nicht fur jeden Parameterpunkt eigene Ereignisse simulieren und zeitaufwendig rekonstru-ieren zu mussen, wird das sogenannte Morphing angewendet. Da man das Matrixelement in denfreien Parametern faktorisieren kann, ist es moglich mit wenigen Samples an Ereignissen dieVerteilungen kontinuierlich zu anderen Parameterpunkten zu verformen (siehe Abb. 2).

SM

Mix

BSM

Interference

κ =1

κ =0.9

+1

−1

−1

κ =1.1

Abbildung E.10.: Morphing am Beispiel der SM Koppung und einer zusatzlichen EFT Kopplung. Mit-hilfe drei verschiedener Ereignissamples (SM, BSM, Mix) konnen Verteilungen aufbeliebige Punkte im Parameterraum umskaliert werden.

In diesem Vortrag stelle ich die Konzepte der EFT und des Morphings in der Higgsphysik darund zeige erste Ergebnisse der Studien im VBF H ! WW Kanal.

56 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-21 (C) Suche nach der Produktion des Higgsbosons in Asso-ziation mit einem W-Boson im Zerfallskanal H!WW! `�`�

mit dem ATLAS-ExperimentNATALIE WIESEOTTE

Institut fur Physik, Universitat Mainz

Das Standardmodell der Teilchenphysik ist bisher das erfolgreichste Modell zur Beschreibungdes Aufbaus von Materie und der Wechselwirkungen von Elementarteilchen. Es vereint die star-ke, schwache und elektromagnetische Wechselwirkung in einer Quantenfeldtheorie. Der Higgs-mechanismus fuhrt eine spontane Symmetriebrechung in der schwachen Wechselwirkung einund erklart somit die Massen der Eichbosonen. Weiterhin postuliert er die Existenz eines skalarenTeilchens: das Higgsboson. 2012 wurde seine Existenz mit dem ATLAS- und CMS-Experimentam LHC erstmals nachgewiesen.Das Standardmodell kann allerdings nicht alle experimentellen Beobachtungen erklaren. Es wur-den daher Erweiterungen wie zum Beispiel Modelle mit Supersymmetrie entwickelt, die unteranderem das Hierarchieproblem losen konnten und einen Kandidaten fur dunkle Materie postu-lieren. Solche Modelle fuhren zu Modifikationen im Higgssektor, wobei sich andere Eigenschaf-ten des Higgsbosons ergeben als im Standardmodell. Eine prazise Messung der Eigenschaften istdaher besonders wichtig um solche Modelle zu verifizieren oder zu widerlegen. Spin und Massedes Higssbosons konnten bisher bestimmt werden und sind mit dem Standardmodell kompatibel.Der nachste Schritt ist eine prazise Messung der Kopplung.Zum Test des Standardmodells ist es außerdem wichtig, das Higgsboson in allen Produktions-kanalen nachzuweisen. Im dritthaufigsten Produktionsprozess, der assoziierten Produktion, istdies mit den bisher aufgezeichneten Daten noch nicht gelungen.Fur die Messung der Kopplung an Vektorbosonen eignet sich die assoziierte Produktion beson-ders gut. Ein W- oder Z-Boson strahlt das Higgsboson ab, wobei der erste Fall der dominanteist. Hier ist der Produktionswirkungsquerschnitt etwa doppelt so groß. Betrachtet man den Zer-fall in zwei W-Bosonen, koppelt das Higgsboson ausschließlich an diese und liefert somit einbesonders reines Signal fur die Bestimmung der Kopplungskonstanten fur die Kopplung an W-Bosonen. Der vollleptonische Zerfall der W-Bosonen ergibt den sensitivsten Endzustand mit dreiLeptonen und fehlender Transversalenergie aufgrund der Neutrinos, die nicht detektiert werdenkonnen.Die WZ-Produktion stellt den großten Untergrund dar. Durch Separation des Endzustands nachFlavourkombinationen kann aber ein Großteil dieses Untergrundes unterdruckt werden.Der Vortrag stellt dies, sowie die weiteren Konzepte und bisherigen Ergebnisse der Analyse vor.Weiterhin wird die Analyse fur die erhohte Schwerpunktsenergie nach dem Umbau des LHCdiskutiert. Mit der hoheren Statistik ist es das Ziel, das Higgsboson auch in der assoziiertenProduktion nachzuweisen und die Kopplung prazise zu messen.

E. Experimentelle Analysen 57

E-22 (A) Suche nach Neuer Physik in Endzustanden mit einemElektron und fehlender TransversalenergieMARKUS ZINSER

Institut fur Physik, Universitat Mainz

Am europaischen Kernforschungszentrum (CERN) befindet sich der Large Hadron Collider(LHC), der derzeit leistungsstarkste Teilchenbeschleuniger der Welt. Nach einer zweijahrigenAufrustphase, kollidieren dort seit Juni 2015 Protonen bei einer neuen Rekordenergie von

ps D

13 TeV. Das ATLAS Experiment ist einer der beiden Vielzweckdetektoren, die diese Protonkol-lisionen untersuchen.Mit der Entdeckung des Higgs-Bosons im Juli 2012 durch die Experimente ATLAS und CMSwurde das letzte fehlende Teilchen des Standardmodells gefunden. Das Standardmodell kannaber lange nicht alle offenen Fragen beantworten. So liefert es zum Beispiel keine Losung fur dasHierachieproblem und liefert keinen Kandidaten fur die Dunkle Materie. Es wird daher im All-gemeinen angenommen, dass es weiterfuhrende Theorien jenseits des Standardmodells (BSM,Beyond Standard Model) gibt, die fur die Erklarung dieser Phanomene neue Teilchen einfuhren.Viele Theorien jenseits des Standardmodells (SM) sagen neue schwere Eichbosonen voraus.Diese neuen Eichbosonen verhalten sich wie schwerere Versionen des SM Z- und W -Bosons.Die schwere Version des W -Bosons, genannt W 0-Boson, kann wie sein leichter SM Partner inein Lepton und Neutrino zerfallen. Das Lepton kann prazise vermessen werden, wohingegen dasNeutrino den Detektor verlasst ohne im Detektor wechselzuwirken. Es kann allerdings indirektnachgewiesen werden, indem die Summe aller gemessenen Teilchenimpulse in der Transver-salen Ebene des Detektors gebildet wird. Der fehlende Transversalimpuls entspricht dann demTransversalimpuls des Neutrinos.Im Rahmen dieses Vortrags wird die Suche nach einem solchen Teilchen in Endzustanden miteinem Elektron und fehlender Transversalenergie mit dem ATLAS Experiment vorgestellt. Deruntersuchte Endzustand kann auch genutzt werden um nach einem schwach wechselwirkendenTeilchenkandidaten fur die Dunkle Materie zu suchen (WIMP, Weakly Interacting Massive Par-ticle). WIMPs wurden am LHC in Paaren erzeugt werden und den Detektor ungesehen verlassen,da sie nur sehr schwach mit normaler Materie wechselwirken. Um ein Ergeigniss einer Teilchen-kollision aufzuzeichnen ist es allerdings notwendig, dass irgendetwas gemessen wird. Man kannhier ausnutzen, dass es zur Abstrahlung eines SM W -Bosons kommen kann, welches dann zueinem Lepton und Neutrino zerfallen kann. Dieses Lepton lost in dem Fall die Aufzeichnung desEreignisses aus.

Die analysierten Daten stammen aus ersten Proton-Proton-Kollisionen bei einer Schwerpunkts-energie von

ps D 13 TeV.

Es wird sowohl eine einfuhrende Motivation als auch die Analysestrategie mit ersten Studien zurAbschatzung des Untergrundes und erste Ergebnisse prasentiert.

58 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-23 (B) Studien zur Optimierung der Flavor-Bestimmung vonB-Mesonen im Belle II ExperimentFERNANDO ABUDINEN

Max-Planck-Institut fur Physik / LMU Munchen

Der Elektron-Positron Teilchenbeschleuniger SuperKEKB und der dazugehorige Belle II Detek-tor in Tsukuba, Japan, werden zurzeit gebaut. Die hohe Design-Luminositat, die den Weltrekorddes Vorgangerexperiments Belle uberholen wird, ermoglicht als eines der Hauptziele die Prazi-sionsmessung der Parameter von der zeitabhangigen und mischungsinduzierten CP-Verletzungim B-Mesonen-System.

Die Schwerpunktsenergie entspricht der Masse der � (4S)-Resonanz, die erste hadronische b Nb-Resonanz, ab der ein B NB-Meson-Paar produziert werden kann. Aus diesem Grund werden sol-che Experimente auch “B-Factories” genannt. Die � (4S)-Resonanz, die eine antisymmetrischeWellenfunktion aufweist, zerfallt je zur Halfte in geladene (BCB�) und neutrale (B0 NB0) B-Meson-Paare.

Da die Wellefunktion des B0-Meson-Paares ebenso antisymmetrisch sein muss, befinden sichbeide Mesonen in einem quantenmechanisch verschrankten Zustand. Zerfallt nun eines der Me-sonen, mit dem Flavor q zum Zeitpunkt t1 (siehe Abbildung E.11), ist dann der Flavor des An-deren zu diesem Zeitpunkt mit �q eindeutig bestimmt. Das zweite Meson oszilliert dann freizwischen q D 1 und q D �1 bis zu seinem eigenen Zerfall zum Zeitpunkt t2. Hier bezieht sichdie Flavor-Quantenzahl q D C.�1/ auf den Quark-Inhalt Nb.b/ des jeweiligen Mesons.

�z

� (4S)

e� eC

BCP

Btag

J=

�C

��

`� K�

��

�C

K0S

Boost�t � �z

hˇ ic

Abbildung E.11.: Vereinfachte Darstellung eines B0 NB0-Zerfalls im Falle des sog. goldenen CP-Kanals J= K0

S . Die elektrische Ladung des mit hohem Impuls erzeugten Elek-trons l� bestimmt den Flavor-Zustand des Btag-Mesons.

Um die Zeitdifferenz �t D t2 � t1 von der Großenordnung O(ps) auflosen zu konnen, wirddas B0-Meson-Paar mit einem Lorentz-Boost (asymmetrische Strahlenergien) erzeugt, das dieZerfallszeit in eine Zerfallslange uberfuhrt. Eine Messung des Abstands �z zwischen Zerfalls-vertices in der Richtung des Lorentz-Boostes ermoglicht eine hinreichend genaue Messung von�t , da sich die B-Mesonen im Schwerpunktsystem in Ruhe befinden.

E. Experimentelle Analysen 59

Fur die dazugehorige Analyse benotigt man zusatzlich zur Zeitdifferenz �t einerseits die Re-konstruktion eines der beiden B-Mesonen zu dem untersuchten CP-Eigenzustand und anderer-seits die Flavor-Bestimmung des Anderen. Aufgrund der vielen Zerfallsmoglichkeiten ist dievollstandige Rekonstruktion des B-Mesons, das fur die Flavor-Bestimmung zur Verfugung steht,nicht moglich. Stattdessen werden inklusive multivariate Methoden eingesetzt, welche die spe-zifische Flavor-Signaturen von B-Zerfallen nutzen. Der erste Teil dieser Dissertation befasst sichmit der Entwicklung des dazugehorigen Software-Moduls.

Der Ansatz basiert auf der Software vom BaBar-Experiment und erfolgt in drei Stufen: Track-Stufe, wo ein Target-Track fur jede Event-Kategorie ausgewahlt wird, Event-Stufe, wo die Flavor-Signaturen der Target-Spuren ausgewertet werden, und der Combiner, welcher die Informationenaller Event-Kategorien kombiniert. Die Ausgabe des Combiners y D q �r entspricht dem Flavourq des B-Mesons und dem sogenannten Dilution-Faktor r , welcher sich auf die Entscheidungssi-cherheit bezieht.

Mit der im Rahmen dieser Arbeit entwickelten Software konnte bereits auf Monte-Carlo-Eventseine effektive Effizienz erreicht werden, die leicht uber der des Vorganger-Experiments liegt.

60 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-24 (C) Suche nach schweren und langlebigen Teilchen mitversetzten Dileptonpaaren am ATLAS Detektor des LHCDOMINIK KRAUSS

Max-Planck-Institut fur Physik / TU Munchen

Supersymmetrie (SUSY) ist eine der am besten untersuchten Erweiterungen des Standardmo-dells. Sie fuhrt zu jedem Teilchenfreiheitsgrad des Standardmodells einen supersymmetrischenPartner ein, dessen Spin sich um 1=2 unterscheidet, sonst aber identische Eigenschaften besitzt.Da das Standardmodell keine solchen Paare aufweist, mussen die SUSY Teilchen deutlich hohe-re Massen haben als deren Standardmodellpartner. Mit dem Large Hadron Collider (LHC) amCERN, in dem Protonen auf Energien von bis zu 6.5 TeV beschleunigt und in Detektoren zurKollision gebracht werden, wird mit großer Anstrengung nach solchen Teilchen gesucht. Einerder beiden Mehrzweckdetektoren des LHC ist der ATLAS-Detektor.

Die meisten ATLAS-Suchen nach SUSY konzentrieren sich auf Modelle bei denen die SUSYTeilchen in Paaren erzeugt werden und dann in Zerfallkaskaden zum leichtesten SUSY Teilchen(LSP) zerfallen, das stabil ist. Hierbei werden in der Regel sehr kurze Lebensdauern der SU-SY Teilchen angenommen, so dass deren Zerfalle nicht vom ATLAS-Detektor aufgelost werdenkonnen und damit am primaren Interaktionsvertex stattfinden. Daher sind die Standardalgorith-men zur Ereignisrekonstruktion auf diesen Fall optimiert.

Aber es gibt keine experimentellen Beobachtungen oder theoretische Uberlegungen, die dieMoglichkeit ausschließen, dass SUSY Teilchen nicht auch hohere Lebensdauern aufweisen kon-nen, bei denen ihr Zerfall als eigener Vertex, der vom primaren Interaktionsvertex versetzt ist, imDetektor aufgelost werden kann. Die große Herausforderung bei Suchen nach solchen Szenari-en ist, dass die Rekonstruktion der Teilchenspuren und Zerfallsvertices entsprechend angepasstwerden muss und alle relevanten Ereignisse nochmal reprozessiert werden mussen bevor sie ana-lysiert werden konnen, was sehr speicher- und laufzeitintensiv ist.

Eine der Suchen nach solchen Szenarien betrachtet versetzte Vertices mit exakt zwei leichten ge-ladenen Leptonen (Elektronen oder Myonen). Die Besonderheit dieser Suche ist, dass es keineStandardmodellprozesse gibt, die eine solche Signatur besitzen. Dennoch gibt es einen sehr ge-ringen Untergrund, der von zufalligen Kreuzungen von Teilchenspuren stammt, die als Verticesrekonstruiert werden.

In diesem Vortrag werden die Details und bisherigen Ergebnisse dieser Suche diskutiert.

E. Experimentelle Analysen 61

E-25 (A) Die Suche nach �b ! �K

HARALD VIEMANN

Institut fur Physik, Universitat Rostock

Der Zerfall �b ! �K kann entweder uber einen Pinguin-Graphen (b!s) oder Baum-Graphen(b!u) erfolgen. Aus der Interferenz beider Graphen resultiert eine schwache Phasendifferenzproportional zum Winkel eines Unitaritatsdreiecks der CKM-Matrix. Folglich ware es moglichmit diesem Zerfall CP-Verletzung zu messen.

Der Zerfall wird in den vom LHCb-Detektor am LHC aufgenommenen Daten gesucht. Die Tren-nung von Signal und Unergrund erfolgt mit Hilfe einer Multi-Variate-Analysis. Fur das Trainingdient als Signal-Sample eine Monte-Carlo-Simulation und als Untergrund-Sample das rechteSeitenband der Daten.

Der Zerfall des� erfolgt aufgrund der Lebensdauer �� D .2:632˙ 0:020/ � 10�10s entweder imVertex-Detektor des LHCb, oder außerhalb, zu p� . Ersteres resultiert in eine bessere Massen-Auflosung des � und letzteres in eine hohere Statistik.

Die Vorstellung der vorlaufigen Ergebnisse erfolgt im Vortrag.

62 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

E-26 (B) Messung des t Nt Wirkungsquerschnitts im semi-leptonischen Zerfallskanal am ATLAS ExperimentARWA BANNOURA

Fachbereich C, Physik, Universitat Wuppertal

Das Top Quark spielt im Standardmodell eine besondere Rolle, weil es eine große Masse hat unddadurch von allen Elementarteilchen am starksten an das Higgs Boson koppelt. Außerdem ist dieTop-Paar-Produktion ein wichtiger Untergrundprozess fur Physik jenseits des Standardmodells.Aus diesem Grund ist eine sehr genaue Messung der Eigenschaften dieses Prozesses von großerBedeutung.In dieser Analyse wird der t Nt -Wirkungsquerschnitt mit Hilfe von Event-Shape-Variablen gemes-sen, welche t Nt Ereignisse vom Untergrund diskriminieren.Um die Separation zwischen Signal und Untergrund zu verbessern, wird ein Neuronales Netzverwendet und die Ausgabe-Verteilungen an die Daten gefittet. Dadurch lasst sich die Anzahlder t Nt Ereignisse erhalten.Eine Besonderheit der Analyse ist, dass der Hauptuntergrund W C Jets mit einer neuen Me-thode, die nur auf Daten basiert, abgeschatzt wird. Auch werden neue Ideen vorgestellt, um diesystematischen Unsicherheiten der Messung zu verkleinern.

T. Theorie

T-1 (A) Matching von Dimension-6 Operatoren zu b!sUbergangenJASON AEBISCHER

Institut fur theoretische Physik, Universitat Bern

Das Standardmodell (SM) der Teilchenphysik beschreibt die Phanomene der Natur mit einererstaunlichen Genauigkeit. Beispielsweise lasst sich der g-Faktor des Elektrons bis auf einePrazision von einem Teil pro Billion (10�12) genau bestimmnen. Jedoch kann man im Rahmendes Standardmodells nicht alle Probleme erklaren. Dunkle Materie, Neutrino-Oszillation sowiedunkle Energie werden durch die Standardtheorie nicht beschrieben. Das SM kann aber als ei-ne niederenergetische effektive Feldtheorie angesehen werden, welche die Physik bei den unszuganglichen Energien gut beschreibt. Diese effektive Feldtheorie resultiert aus einer “vollen“Theorie Lvol l , welche alle Phanomene der Natur ganzlich beschreibt.Zur Beschreibung der Physik an der elektroschwachen Skala �W .�MW / genugt es, nur die SMTeilchen zu berucksichtigen. Durch das Integrieren uber die schweren Freiheitesgrade der vollenTheorie ergeben sich hoherdimensionale Operatoren, welche die SM-Lagrangedichte erweitern.

LW D L.4/SM C1

Xk

QC.5/

kQ.5/

kC

1

�2

Xk

QC.6/

kQ.6/

kCO. 1

�3/

Der Effekt der unbekannten schweren Teilchen manifestiert sich in den Koeffizienten der hoher-dimensionalen Operatoren.Diese effektive Theorie lasst sich an der B-Skala �b.� mb/ weiter vereinfachen, indem dieschweren Felder des SM ausintegriert werden. Die daraus resultierende Theorie, welche B-Zerfalle beschreibt, wird traditionsgemaß durch effektive Hamilton-Dichten Heff beschrieben.Ein Uberblick uber die verschiedenen effektiven Theorien ist in Abbildung T.1 gegeben.In meinem Vortrag werde ich uber das Matching der effektiven Theorie LW auf die verschie-denen Hamilton-Dichten der B-Physik sprechen. Einige der 59 eichinvarianten Dim-6 Opera-toren liefern entweder auf tree-level oder auf 1-loop einen Beitrag zu den Wilsonkoeffizientender Hamiltonians, wobei der einzige Dimension-5 Operator nur fur Neutrinomassen eine Rollespielt. Durch das Laufen der skalenabhangigen Wilsonkoeffizienten von der elektroschwachenzur B-Skala lassen sich die fuhrenden logarithmischen Korrekturen aufsummieren. Des Weite-ren werde ich kurz auf die moglichen Observablen und die damit verbundenen Einschrankungender Wilsonkoeffizienten eingehen.

64 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

Energieskala

Λ

Theorie

µW

µb

LW = L(4)SM + 1

Λ∑k C

(5)k Q

(5)k + 1

Λ2∑k C

(6)k Q

(6)k

Lvoll =?

Heff = −4GF√2

∑iCiOi

Ausintegrieren derunbekannten Freiheitsgrade

Ausintegrieren der schwerenSM Felder Z,W,h,t

Abbildung T.1.: Uberblick uber die effektiven Theorien an den verschiedenen Skalen

T. Theorie 65

T-2 (B) Produktion steriler Neutrinos bei großer Leptonasym-metrieMANDY MARIA WYGAS

Fakultat fur Physik, Universitat Bielefeld

Das Standardmodell der Elementarteilchenphysik (SM) und die allgemeine Relativitatstheorie(ART) bilden das Grundgerust der modernen Physik. Mit ihnen kann man fast alle beobachtetenPhanomene in der Natur erklaren. Zu den Beobachtungen, die nicht im Rahmen des SMs+ARTerklart werden konnen, zahlt die Zusammensetzung und der Ursprung der beobachteten dunklenMaterie (DM) im Universum. Diese macht knapp 27% der Energiedichte unseres Universumsaus und dominiert stark uber die gewohnliche Materie, die nur 5% ausmacht.

Die Bestandteile dunkler Materie sind unbekannt, konnen aber relativ ”einfach“ durch neue mas-sive, elektrisch neutrale, lang lebende (� � tUniversum), kollisionsfreie Teilchen beschriebenwerden. Sterile (oder auch rechtshandige) Neutrinos mit Massen im keV-Bereich erfullen dieseAnforderungen und stellen somit DM-Kandidaten dar. Des Weiteren mussen die Eigenschaftender sterilen Neutrinos in Einklang mit der Strukturbildung im Universum, Phasenraumanaly-sen (Tremaine-Gunn-Grenze: MI > 1 keV) und Rontgenbeobachtungen des Universums sein.Im letzten Jahr wurde moglicherweise eine unidentifizierte 3:55 keV-Linie im Rontgenspek-trum mehrerer Galaxien und Galaxienhaufen gefunden, die ein Zeichen eines zerfallenden DM-Kandidaten darstellen konnte, und so zu vielen Konsistenzprufungen und Anpassungen der ver-schiedenen DM-Modelle fuhrte.

Ein weiterer guter, wie auch aus mathematischer Sicht asthetischer Grund fur sterile Neutrinosist, dass Neutrinos ausschließlich linkshandig (links-chiral) beobachtet wurden. Alle anderen be-kannten elementaren Fermionen, wurden sowohl links- als auch rechtshandig (links- bzw. rechts-chiral) beobachtet. Der Grund dafur kann sein, dass keine rechtshandigen Neutrinos existierenoder dass sie nur noch nicht beobachtet wurden, da ihre Wechselwirkung sehr klein ist. Da dielinkshandigen Neutrinos nur uber die schwache Wechselwirkung, welche nicht an rechtshandigeFelder koppelt, wechselwirken, liegt es nahe, dass zusatzliche rechtshandige Neutrinos Singulettsunter der Eichgruppe SU.3/�SU.2/�U.1/ des SMs sind. Die sterilen Neutrinos koppeln dannnur uber die Yukawa-Wechselwirkung mit den linkshandigen Neutrinos, analog zu der Wechsel-wirkung zwischen den geladenen Leptonen.

Im Vortrag wird die resonante thermische Produktion steriler Neutrinos behandelt. Ein wichtigerParameter dieses Produktionsmechanismus ist eine große Leptonasymmetrie �L � O.10�5/.Durch diese Leptonasymmetrie gibt es einen Ubergang zwischen den Dispersionsrelationen deraktiven und sterilen Neutrinos, welcher in einer verstarkten Produktionsrate resultiert. Nach einerSkizzierung der Herleitung der Produktionsrate wird auf das Impulsspektrum der durch diesenMechanismus produzierten sterilen Neutrinos eingegangen. Dieses ist nicht thermisch sondernzu kleineren Energien hin verschoben. Außerdem erfolgt eine Analyse weiterer Wechselwir-kungsraten, die einen Einfluss auf die Produktion haben konnten. Durch die Produktion sterilerNeutrinos wird die anfangliche Leptonasymmetrie aufgebraucht. Dies hat einen Ruckkopplungs-effekt auf die Produktionsrate, die vom chemischen Potential der Leptonen abhangt. Es ist somitnotwendig die Relationen zwischen der Leptonasymmetrie und den chemischen Potentialen zu

66 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

finden. Es zeigt sich, dass die Produktion steriler Neutrinos am effektivsten bei TemperaturenT � O.200 MeV/ ist, wo der Phasenubergang der Quantenchromodynamik stattfindet. Auf diedamit verbundenen Schwierigkeiten und deren Bewaltigung wird im Vortrag eingegangen.

T. Theorie 67

T-3 (C) Wie bewegen sich geladene Teilchen in der Galaxie?ANNIKA REINERT

Bethe Center for Theoretical Physics, Bonn

Eines der großten ungelosten Probleme der Physik unserer Zeit ist das Verstandnis von DunklerMaterie (DM). In vielen Modellen gibt es eine schwache Wechselwirkung zwischen DM undTeilchen des Standard Modells. Solche Teilchen werden WIMPs (Weakly Interacting MassiveParticles) genannt. Es gibt im wesentlichen drei Ansatze um diese nachzuweisen, bestehend ausder Analyse von Prozessen an Teilchenbeschleunigern, zweitens sogenannter direkter Detekti-on (Streuung von DM mit Atomkernen) und drittens indirekter Detektion (Suche nach Zerfalls-oder Annihilations- Produkten von DM in der Galaxie). Fur letztere Technik gibt es Experimenteaußerhalb der Erdatmosphare die kosmische Strahlung verschiedener Teilchenarten messen undden Fluss als Funktion der Energie aufzeichnen. Dem gegenuber stehen theoretische Berechnun-gen der erwarteten Hintergrundsignale astrophysikalischer Herkunft. Aus der Diskrepanz vonTheorie und Messung lassen sich Hinweise beziehungsweise Einschrankungen an Modelle derDM erschließen.

Ein wesentlicher Bestandteil dieser Analyse ist also die genaue Vorhersage des astrophysikali-schen Hintergrundes. Fur Antiteilchen ist dieser wesentlich einfacher zu ermitteln als zum Bei-spiel fur Elektronen oder Protonen, die viele unterschiedliche Ursprunge haben. Positronen oderAnti-Protonen hingegen entstehen hauptsachlich durch inelastische Streuung von Hochenergie-Protonen mit dem Interstellaren Medium. Dieser als ”sekundar“ bezeichnete Beitrag lasst sichberechnen und es bleibt die Frage wie diese Teilchen zur Erde in unseren Detektor gelangen.Die Beschreibung dieses Propagations-Prozesses erfolgt zumeist in einem Diffusionsmodell, indem geladene Teilchen sich durch die Streuung am galaktischen Magnetfeld fortbewegen. UnterBerucksichtigung von Energieverlusten lasst sich fur den Teilchenfluss eine partielle Differenti-algleichung aufstellen, deren Losung es analytisch oder numerisch zu ermitteln gilt.

Der gemessene Fluss von Positronen lasst sich jedoch bisher nicht alleine durch diesen astrophy-sikalischen Hintergrund erklaren, sodass zusatzliche Positron-Quellen wie DM oder Pulsare vor-geschlagen wurden. Da Positronen durch Synchrotron-Strahlung und Compton-Streuung großeEnergieverluste erleiden ist der Propagations-Prozess ein entscheidender Faktor fur die theoreti-sche Vorhersage. Dementsprechend untersuchen wir ob durch eine Modifizierung dieses Modellsseine Interpretation der Daten durch rein sekundare Positronen moglich ist. Die Auswirkung vonVeranderungen der Diffusionsgleichung auf das vorhergesagte Spektrum wird in unserer Arbeitdiskutiert. Im Hinblick auf die Erforschung Dunkler Materie interessiert insbesondere die Fra-gestellung wie genau der Beitrag des astrophysikalischen Hintergrundes im Positron-Spektrumeingeschrankt werden kann und wie glaubwurdig die derzeitig verwendeten Abschatzungenssind.

68 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-4 (A) Tests asymptotisch sicherer Gravitation am LHCMAGDALENA ZENGLEIN

Theoretische Physik IV, TU Dortmund

Schon 1998 schlugen Arkani-Hamed, Dimopoulos und Dvali die mogliche Existenz großer Ex-tradimensionen, welche von den fundamentalen Wechselwirkugnen nur der Gravitation zugang-lich sind, vor. Deren Existenz konnte einerseits erklaren, weshalb die Planck-Skala soviel großerals die Elektroschwache Skala erscheint, andererseits wurde sie erlauben, Quantengravitation mitHilfe des Large Hadron Colliders direkt zu studieren. Im Rahmen effektiver Theorien wurdenhierzu entsprechende Studien durchgefuhrt.

Wir mochten diesen Ansatz mit der asymptotisch sicheren Gravitation, einer nicht-perturbativenRenormierung, verbessern. Die asymptotisch sichere Gravitation bietet die Moglichkeit einerQuantenfeldheorie der Quantengravitation, die bis zur Planck Skala und im Prinzip bis zu belie-big hohen Skalen gultig ist. Wir werden das Laufen der Gravitationskonstante, in asymptotischsicherer Gravitation skizzieren und drei verschiedene Naherungen einfuhren.

Anschließend werden wir die Implementierung des pp ! -Kanals am LHC auf Baum-Graphen-Niveau fur das Standard Modell und den Austausch virtueller Gravitonen in Pythia8 vorstellen. Diese Implementierung wird dazu genutzt um Schranken aus der Quantengravita-tion in effektiver Theorie, fur welche es bereits experimentelle Analysen gibt, in Schranken derasymptotisch sicheren Gravitation zu interpretieren. Zusatzlich geben wir eine Ubersicht uberweitere existierende Implementierungen der asymptotisch sicheren Gravitation in Pythia 8.

Zuletzt mochten wir einen vergleichenden Ausblick auf die Produktion virtueller schwarzerLocher in asymptotisch sicherer Gravitation und in effektiver Theorie geben.

T. Theorie 69

T-5 (B) Effektive Feldtheorie zur Beschreibung von Higgs-Physik jenseits des StandardmodellsMARTIN ROTZINGER

Physikalisches Institut, Universitat Freiburg

Seitdem ein Higgs-ahnliches Teilchen mit einer Masse von ca. 125 GeV im Juli 2012 von ATLASund CMS entdeckt wurde, scheint der letzte fehlende Bestandteil des Standardmodells der Teil-chenphysik (SM) gefunden. Die Frage, ob dieses Teilchen genau das Higgs Boson des Standard-modells ist, oder aber das bekannte Standardmodell einen Niederenergiegrenzfall einer Theoriemit erweitertem Teilchenspektrum hoherer Energieskala darstellt, ist noch nicht geklart.

Unter der Voraussetzung, dass eine ubergeordnete Theorie die Eichgruppe SU.3/C � SU.2/L �U.1/Y des Standardmodells respektiert, neue massive Teilchen an mindestens ein Teilchen desStandardmodells uberhaupt koppeln, nur Teilchen des Standardmodells als Anfangs- und End-zustande in Betracht kommen – neue Teilchen also insbesondere nicht direkt erzeugt werden –und die Energieskala des Experimentes klein ist gegenuber der Skala � bei der neue, schwereTeilchen zu erwarten sind, so kann diese erweiterte Theorie durch eine effektive Lagrangedichte

Leff D L.�4/SM C

1XdD5

Xid

1

�.d�4/˛.d/id

O.d/id

beschrieben werden. Dabei ist L.�4/SM die Lagrangedichte des Standardmodells, die O.d/i eine

unabhangige, vollstandige Basis effektiver Operatoren der Massendimension d � 5 mit zu-gehorigen im allgemeinen komplexen Entwicklungskoeffizienten (Wilsonkoeffizienten) ˛id . Je-der Operator ist ein eichinvariantes Produkt der Feldoperatoren des Standardmodells.

Unabhangig einer konkreten Theorie zur Physik jenseits des Standardmodells, stellt eine solcheReihenentwicklung auch eine moglichst allgemeine und auf wenigen Grundlagen basierende ef-fektive Parametrisierung der S-Matrix dar.

Die Operatoren der Massendimension 5 generieren nach elektroschwacher Symmetriebrechungmassive Majorananeutrinos und konnen aufgrund zu hoher zugehoriger Energieskala� fur LHC-Physik ignoriert werden.

Einige der Operatoren mit Massendimension 6 geben nach elektroschwacher spontaner Symme-triebrechung zusatzliche Beitrage zu den linearen und quadratischen Termen der Lagrangedichtedes Standardmodells. Der ubliche Weg ist diese Terme durch Feld- und Massenredefinitionenaus der Lagrangedichte zu entfernen. Es ist allerdings moglich, diese als zusatzliche Kopplun-gen beizubehalten. Es ergeben sich dann erweiterte Beitrage zu den Countertermen bei der Re-normierung. In beiden Fallen wird eine Renormierung durchgefuhrt. Der Vorteil der ”Counter-termmethode“ ist, dass die Beitrage effektiver Operatoren immer in definierter Storungsordnungauftauchen.

Um Auswirkungen effektiver Kopplungen uberhaupt von der Standardmodellvorhersage trennenzu konnen, diese uberhaupt als neue Physik wahrzunehmen, ist eine prazise Standardmodellvor-

70 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

hersage wichtig. Um die Großenordnung des Einflusses effektiver Operatoren auf Wirkungsquer-schnitte abschatzen zu konnen, ist es ebenfalls wichtig, die Vorhersagen nicht nur in fuhrenderOrdnung effektiver Theorie O

�1�2

�sondern auch in nachst hoherer Storungsordnung O

�˛s

�2 I˛�2

�zu treffen.

Die benotigten Feynmanregeln wurden als FeynArts-Modelldateien mittels FeynRules erstellt.Dabei wurden zuvor Renormierungskonstanten sowohl in den Standardmodellteil, als auch indie effektiven Kopplungen eingefugt. Ziel meiner weiteren Arbeit ist neben der Renormierung,Higgs-Erzeugungs-Wirkungsquerschnitte und -zerfallsbreiten zumindest in erster Ordnung(NLO) des Standardmodells O.˛s; ˛/, erganzt um effektive Beitrage sowohl in fuhrender Ord-nung als auch mit QCD-Korrekturen, O. ˛s

�2 /, auszurechnen. Die Erweiterung auf elektroschwa-che Korrekturen zu den effektiven Kopplungen ist angestrebt. Als erster Prozess dient H ! b Nb.

T. Theorie 71

T-6 (C) Korrekturen zur thermischen Entwicklung von Dunk-ler MaterieTOBIAS BINDER

Institut fur Theoretische Physik, Gottingen

Kosmologische und astrophysikalische Beobachtungen bestatigen die Existenz von dunkler Ma-terie (DM) auf verschiedenen Skalen mit standig verbesserter Prazision. Zum Beispiel ist dierelative Haufigkeit der DM durch die diesjahrigen Planck-Satelliten CMB-Ergebnisse mit einersubprozentualen Genauigkeit vermessen. Aus der Sicht der Teilchenphysik ist die Natur die-ser kalten, nichtbaryonischen Materieform jedoch bis heute ein Ratsel und aus kosmologischenGrunden definitiv Physik, welche uber das Standardmodell der Teilchenphysik (SM) hinaus geht.

Eine breit akzeptierte Vorhersage der relativen Haufigkeit von DM, basierend auf dem thermi-schen Entkopplungsmechanismus im fruhen und heißen Universum, motiviert auf eine naturli-che Art und Weise als aussichtsreichste Kandidaten schwach wechselwirkende massive Teilchen(WIMPs). In typischen, testbaren WIMP Modellen findet die thermische Entkopplung von dunk-ler Materie im strahlendominierten Universum bei Temperaturen im Bereich von Sub-GeV bis zumehreren TeV statt. Nach der thermischen Entkopplung bleibt die mitbewegte Teilchenzahldich-te der DM konstant und bestimmt damit die heutige relative Haufigkeit. Der genaue Zeitpunktder Entkopplung hangt sowohl vom WIMP Modell ab, als auch von der Expansionsrate des Uni-versums zu diesem Zeitpunkt.

Des Weiteren beeinflusst der Zeitpunkt der Entkopplung das Power-Spektrum der Dichtefluktua-tionen von DM auf kleinen Skalen. Der Entkopplungszeitpunkt setzt aufgrund von Dampfungs-effekten einen temperaturabhangigen Schnitt auf einer Langenskala im Power-Spektrum undunterdruckt damit DM Halos, welche kleiner sind als diese Langenskala. Aus der Entkopplungs-temperatur lasst sich also eine minimale Masse von DM Halos berechnen. Fur sehr massive Aus-tauschteilchen zwischen WIMPs und SM-Teilchen liegt dieser Schnitt bei einer Großenordnungvon Planetenmassen. Solch kleine DM Halos sind bislang noch unentdeckt geblieben. Dennochenthalt das DM Powerspektrum auf kleinen Skalen prinzipiell Informationen uber die Wechsel-wirkung von WIMPs. Wahrend meiner Masterarbeit haben wir den Einfluss einer modifiziertenExpansionsrate zum Zeitpunkt der Entkopplung auf die minimale DM Halogroße untersucht.Die Ergebnisse werden in einem Teil des Vortrags vorgestellt.

Aus kosmologischer Sichtweise wird es sehr interessant, wenn das Austauschteilchen eine gerin-ge Masse hat im Vergleich zum WIMP und an Neutrinos koppelt. Dadurch bleiben die WIMPslange im Temperaturgleichgewicht mit dem thermischen Bad und der Langenskalenschnitt kannsich in große Langenbereiche von Zwerggalaxien verschieben. Die Entstehung von Zwerggala-xien, welche eine erhohte Ansammlung von dunkler Materie zeigen, wird dadurch unterdruckt.Diese Teilcheneigenschaften von DM konnten vorhandene Probleme des kosmologischen Stan-dardmodells auf kleinen Skalen, wie zum Beispiel das Haufigkeitsproblem von Zwerggalaxien,losen.

Da WIMPs fruhzeitig nach der Entkopplung nicht-relativistisch sind, bewirkt ein leichtes Aus-tauschteilchen zusatzlich eine signifikante Erhohung des Annihilationsquerschnittes. Diese Som-merfeld-Verstarkung hat einen starken Einfluss auf die thermische Entwicklung und die Haufig-

72 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

keit von DM. Der erhohte Wirkungsquerschnitt wird nicht-perturbativ durch das Losen einerSchrodingergleichung im Vakuum berechnet, welche sich aus einer nicht-relativistischen Re-duktion der vollen Quantenfeldtheorie ergibt. Der thermische Hintergrund wurde bei dieser Pro-zessberechnung bislang vernachlassigt.

Wir verwenden Methoden der Quantenfeldtheorie bei endlicher Temperatur um den Einflussdes thermischen Hintergrundbades auf die Sommfeld-Verstarkung zu untersuchen. Ein thermi-sches Bad erzeugt unter anderem eine zusatzliche temperaturabhangige Masse (Debye-Masse)des leichten Austauschteilchens, wodurch sich der Sommerfeld-Effekt verringert. Wir erwartenKorrekturen der DM Haufigkeit im Prozentbereich.

Das Verstandnis von signifikanten Korrekturen zur thermischen Entwicklung von DM ist fur dieZukunft wichtig, falls sich das WIMP-Paradigma durch direkte, indirekte Suchen oder Beschleu-nigerexperimente bestatigen und vermessen lasst. Durch die exakte Kenntnis des WIMP Modellsließen sich Vorhersagen des Standardmodells der Kosmologie auf einer neuen Energieskala (zumZeitpunkt der Entkopplung von DM) prufen.

T. Theorie 73

T-7 (A) Prazise Vorhersagen fur differentielle Wirkungsquer-schnitte des Higgs-Bosons am LHC.MARKUS EBERT

Theorie-Gruppe, DESY Hamburg

Die Entdeckung eines neuen Bosons am LHC 2012 war ein spektakularer Erfolg fur die Teilchen-physik. Sollte es sich bei dem Teilchen tatsachlich um das vom Standardmodell (SM) postulierteHiggs-Boson handeln, wurde dies das SM komplettieren. Obwohl alle bisherigen Messungen mitdieser Interpretation kompatibel sind, ist noch nicht sicher geklart, ob dieses Teilchen stattdessenaus einer Erweiterung des Standard Modells hervorgeht. Da die meisten vorgeschlagenen Theo-rien fur neue Physik den Higgs-Sektor beeinflussen, ist eine prazise Vermessung dieses Higgs-ahnlichen Bosons daher wichtig, um diese Theorien entweder auszuschließen oder zu bestatigen.

Eine besonders interessante Observable ist die Transversalimpuls-Verteilung des Higgs-Bosons,da der Großteil der produzierten Higgs-Teilchen sehr geringen Transversalimpuls qT aufweist.Ein gutes theoretisches Verstandnis dieser Verteilung ist daher notwendig, um prazise Mes-sungen vornehmen zu konnen. Dies ist insbesondere auch fur die Entdeckung neuer Physikwichtig, da die dominanten Unsicherheiten durch QCD-Korrekturen entstehen. Kleine ImpulseqT � mH entstehen namlich durch QCD-Strahlungskorrekturen, die zu großen Logarithmen derForm L D ln mH

qTfuhren, die in der Literatur ublicherweise als Large Logs bezeichnet werden.

Diese Logarithmen fuhren zu einem Zusammenbrechen der ublichen perturbativen Entwicklungin der Kopplungskonstante ˛s und mussen deshalb resummiert, d.h. zu allen Ordnungen in ˛saufsummiert, werden. Diese Resummation wird ublicherweise nicht direkt im Impulsraum qT ,sondern im dazu Fourier-konjugierten Ortsraum bT durchgefuhrt. Bei der Rucktransformationtreten jedoch wohlbekannte Probleme auf. Da die Fourier-Transformation uber alle reellen Zah-len lauft, wird die Kopplungskonstante ˛s zwangslaufig im nicht-perturbativen Bereich ausge-wertet. Zudem treten Divergenzen an der Integrationsgrenze bT ! 0 auf, die zu großen qT !1korrespondieren und deshalb unphysikalisch sind. Beide Probleme werden in der Literatur durchverschiedene Methoden umgangen und fuhren zu unterschiedlichen Vorhersagen. Bislang gibtes jedoch noch keine umfassende Studie zu den Ursachen dieser Unterschiede, die ein grundle-gendes Problem der Theorie sind und wohlmotiviert gelost werden sollten.

In meinem Vortrag werde ich eine kurze Einfuhrung in das Auftreten von großen Logarithmenbei der Berechnung von Wirkungsquerschnitten geben, das fur viele Messgroßen an Teilchen-beschleunigern relevant ist. Anschließend werde ich fur den spezifischen Fall der qT -Verteilungerortern, wie diese großen Logarithmen resummiert werden. Hierbei treten oben genannte Pro-bleme auf, deren verschiedene Losungsansatze ich anschließend diskutieren und vergleichenwerde.

74 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-8 (B) Nielsen-Identitaten und die Renormierung der Quark-Mischungs-MatrixANNE ERNST

Universitat Hamburg

Die Cabbibo-Kobayashi-Maskawa-Matrix beschreibt die Mischung der Quarks im elektroschwa-chen Sektor des Standardmodells. Ein wichtiges theoretisches Problem im Standarmodell ist dieRenormierung der CKM-Matrix - damit verbunden ist die Bestimmung von Renormierungster-men fur die Propagatormatrix der Quarks. In der Vergangenheit wurden bereits verschiedeneVorschlage fur diese Renormierungsterme gemacht- diese beseitigten zwar die UV-Divergenzen,hatten jedoch unerwunschte Eigenschaften: sie zerstorten die Unitaritat der CKM-Matrix oderwaren nicht eichinvariant.

Der von Kniehl und Sirlin [2009] vorgeschlagene Renormierungsterm erfullt die Bedingungender Unitaritat der CKM-Matrix und der Eichinvarianz zur ersten Ordnung der Storungstheorie- dies kann entweder direkt in der allgemeinen R�-Eichung gezeigt werden, oder mit Hilfe dersogenannten Nielsen-Identitaten.

Bei den Nielsen-Identitaten handelt es sich um eine Verallgemeinerung der Slavnov-Taylor-Identitaten, sie folgen aus einer verallgemeinerten BRST-Invarianz der Lagrangedichte des Stan-dardmodells.

In meiner Masterarbeit beschaftige ich mich mit der Anwendung der Nielsen-Identitaten aufdie 2-Schleifen-Renormierung der CKM-Matrix. Im Vortrag werden die Nielsen-Identitaten amBeispiel von QED hergeleitet und auf das Standarmodell verallgemeinert. Des Weiteren wird dieAnwendung zur Bestimmung der Eichinvarianz der Renormierungsterme vorgestellt.

T. Theorie 75

T-9 (C) Automatisierung von NLO-akkuraten Eventsimulatio-nen mit WHIZARDCHRISTIAN WEISS

Theorie-Gruppe, DESY Hamburg

Die heutige Teilchenphysik ist nicht ohne den intensiven Einsatz von computergestutzten Rech-nungen und Simulationen zu denken. Die dominante Methode in diesem Gebiet sind Monte-Carlo-Simulationen, welche detaillierte phanomenologische Studien durch die statistische Ge-nerierung von Teilchenreaktionen ermoglichen.In diesem Gebiet gibt es prinzipiell zwei verschiedene Ansatze: Spezialisierte prozess-spezifischeProgramme und universelle Eventgeneratoren. Wahrend die ersten im Regelfall eine bessere Per-formance aufweisen, ermoglichen Universaltools eine weitaus hohere Flexibilitat, was insbeson-dere fur BSM-Studien sowie Beschleuniger- und Detektor-R&D bedeutsam ist.

WHIZARD ist ein solcher universeller Eventgenerator, welcher allerdings auch Spezialisierungenfur ausgewahlte Prozesse ermoglicht. Seine Hauptkomponenten sind der Phasenraumgenera-tor, O’Mega, ein Matrixelementgenerator der auf direkten azyklischen Graphen basiert, VAMP,ein adaptiver Multi-Channel-Integrator, sowie Sindarin. Letzteres ist WHIZARDs eigene Skript-sprache, welche die bequeme Spezifikation, Simulation und Analyse von Colliderexperimentenermoglicht.Das Programm ist speziell fur die Bedurfnisse von Studien an Leptoncollidern zugeschnitten,so sind z.B. Beamstrukturfunktionen via CIRCE oder die Verwendung von polarisierten Beamszentrale Bestandteile. WHIZARD lasst sich allerdings ebenso fur Experimente an Hadroncollidernwie dem LHC verwenden.Ferner besitzt WHIZARD Interfaces zu diversen ublichen Programmen der Hochenergiephysik,z.B. FastJet, LHAPDF oder PYTHIA(6).

Meine Arbeit besteht darin, Rechnungen und Simulationen auf next-to-leading-order(NLO)-Genauigkeit mit WHIZARD zu ermoglichen. Strahlungskorrekturen konnen sowohl die Wirkungs-querschnitte als auch die Eventshapes vieler Prozesse nennenswert beeinflussen, weshalb es vorallem fur die prazise Vermessung von Teilcheneigenschaften relevant ist, diese zu kontrollieren.Die großte Herausforderung besteht hierbei in der Handhabung der Divergenzen, die reelle undvirtuelle Matrixelemente mit sich bringen. Diagramme mit einer zusatzlichen Kopplung konnenultraviollette (Teilchenimpuls!1) und infrarote (Teilchenimpuls! 0) Singularitaten beinhal-ten. UV-Divergenzen konnen durch Renormierung behoben werden. IR-Divergenzen hingegenheben sich automatisch in der Summe von virtuellem und reellem Matrixelement weg, sofernsie auf passende Weise regularisiert werden (KLN-Theorem). Dies erfordert allerdings die Er-weiterung des Phasenraums auf einen hoherdimensionalen komplexen Raum. Da die numerischeRechnung intrinsisch auf den vierdimensionalen Phasenraum eingeschrankt ist, muss hier eineandere Methode gewahlt werden, namlich die numerische Eliminierung der Divergenzen durchdas Anwenden passender Subtraktionsterme.WHIZARD verwendet das FKS-Subtraktionsschema in einer automatisierten Form.

Weitere Aspekte bei der NLO-Erweiterung von WHIZARD sind u.a. die Berechnung von virtu-ellen Matrixelementen sowie das Matching der Events an den Partonschauer. Da O’Mega nurTree-Level-Matrixelemente berechnen kann, wurde WHIZARD so erweitert, dass es Interfaces zu

76 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

den One-Loop-Providern GoSam und OpenLoops besitzt. Das Partonschauer-Matching ist durchunsere eigene Implementierung der Powheg-Methode moglich.

In meinem Vortrag werde ich die erwahnten Aspekte weiter ausfuhren und erklaren. Weiterhinwerden Ergebnisse prasentiert, welche die Funktionalitat von WHIZARD+NLO darstellen. Insbe-sondere wird die Phanomenologie des Prozesses eCe� ! b NbW CW � auf next-to-leading-orderuntersucht, welcher fur die Vermessung von Eigenschaften des Top-Quarks an einem zukunfti-gen Leptoncollider (ILC, CLIC) von zentraler Bedeutung ist.

T. Theorie 77

T-10 (A) Berechnung der NLO Korrekturen aus dem Higgssek-tor des Zwei-Higgs-Doublet-Modells zu B ! s CHRISTOPH WIEGAND

Institut fur theoretische Teilchenphysik, KIT

Die Suche nach neuer Physik am LHC steht auf zwei Saulen: Zum einen der direkten Suchenach unbekannten Teilchen durch deren Produktion und Nachweis ihres Zerfalls bzw. Nachweisfehlender Energie, sollten sie dem Detektor entweichen. Zum anderen der indirekten Suche, derprazisen Messung und Berechnung von Flavourobservablen und Zerfallsraten seltener Zerfalle.Fur seltene Zerfalle, die im Standardmodell unterdruckt sind und somit kleine Verzweigungs-verhaltnisse haben, konnen schwere unbekannte Teilchen in Quantenkorrekturen einen wich-tigen Beitrag zu den Zerfallsraten liefern und so die indirekte Messung unbekannter Teilchenermoglichen.

Dieser Vortrag wird auf einen Aspekt der indirekten Suchen nach neuer Physik eingehen. In denletzten Jahren und Jahrzehnten wurden die QCD-Korrekturen zu seltenen Zerfallen im Standard-modell und einigen Erweiterungen des Standardmodells teilweise bis zu NNLO ausgerechnet.Wahrend dies fur den Standardmodellfall Tests der Theorie zu hoher Prazision erlaubt, gibt esfur Erweiterungen des Standardmodells eine zusatzliche Komplikation. Die Vernachlassigungweiterer Beitrage neben denen der QCD ist im Standardmodell gut begrundet, da die Kopp-lungskonstanten der elektroschwachen Wechselwirkung bekanntermaßen klein gegenuber derstarken Kopplung ist. Die neuen Kopplungen in Erweiterungen des Standardmodells sind hin-gegen schwerer Einzugrenzen und konnen so im Allgemeinen nichtvernachlassigbare Beitrageliefern.

Dies wird am Beispiel des Zwei-Higgs-Doublet-Modells betrachtet. Die Kopplungen im Higgs-sektor des 2HDM sind bislang, mit Ausnahme der Kopplungen des leichtesten CP geradenHiggsbosons, das mit dem am LHC gefundenen Skalarteilchen identifiziert wird, allein durchtheoretische Uberlegungen eingeschrankt. Innerhalb der erlaubten Grenzen konnen sie jedochmit der starken Kopplung konkurrieren. Bedenkt man, dass die QCD Korrekturen oft bis zurZweiten Ordnung in Storungstheorie (NNLO) bekannt sind, muss geschlossen werden, dass imAllgemeinen die Quantenkorrekturen zu erster Ordnung aus dem Higgssektor nicht wie bisherzu vernachlassigen sind. Das schrankt die Gultigkeit von Ausschlussgrenzen an die Parameterdes Modells ein. Im speziellen werden die Beitrage zu B ! s die durch die Kopplungen derschweren Higgsbosonen untereinander erzeugt werden betrachtet. Aus diesem Prozess stammtdie beste untere Schranke an die Masse des geladenen Higgsbosons im 2HDM. Das Ziel istallgemeine Grenzen an die Massen und Kopplungen zu erhalten um die Bewertung dieser Er-weiterung des Standardmodells zu erleichtern.

Es wird am Beispiel des 2HDM die Idee eines Programmpakets vorgestellt mit dem die Berech-nung der Beitrage neuer Physik verschiedenster Modelle zu einem gegebenen seltenen Zerfalleinfach zu bewerkstelligen ist.

78 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-11 (B) O.˛t˛s/-Korrekturen zu den trilinearen Higgs-Kopplungen im komplexen NMSSMHANNA ZIESCHE

Institut fur theoretische Physik, KIT

Am 4.Juli 2012 wurde von den beiden Experimenten ATLAS und CMS am Large Hadron Col-lider (LHC) am CERN die Entdeckung eines neuen Teilchens verkundet. Nach bisherigen Mes-sungen der CP-Eigenschaften, des Spins und der Kopplungen des neuen Bosons ist dieses gutmit dem vom Standardmodell der Teilchenphysik (SM) vorhergesagten Higgsboson kompatibel.Jedoch weisen die Messungen noch zum Teil große Unsicherheiten auf und lassen daher Spiel-raum fur Abweichungen vom SM. Solche Abweichungen wiederum konnten ein Hinweis aufeinen erweiterten Higgs-Sektor sein, wie er in zahlreichen Erweiterungen des SM vorkommt.Um die Natur des entdeckten Teilchens zu bestimmen, sind daher prazisere Messungen seinerEigenschaften und Kopplungen notwendig.

Ebenso wichtig ist jedoch auch eine genauere theoretische Vorhersage dieser Großen, weshalbdie Berechnung von Korrekturen hoherer Ordnung notwendig ist.Bei den zukunftigen Untersuchungen des Higgs-Sektors am LHC oder dem geplanten interna-tionalen Linearcollider (ILC) wird insbesondere die Messung der Starke der Higgs-Selbstkopp-lungen eine wichtige Rolle spielen. Denn diese stehen in direktem Zusammenhang mit demHiggspotential, sodass eine Messung der Higgs-Selbstkopplungen einer Bestimmung des Poten-tials gleichbedeutend ist. Da viele Erweiterungen des SM, wie z.B. supersymmetrische Erweite-rungen, ein vom SM abweichendes Higgspotential besitzen, ist dessen genaue Bestimmung vongroßem Interesse.

Eine sehr interessante und gut motivierte Erweiterung des SM ist das sog. NMSSM (“Next toMinimal Supersymmetric Model”), eine der zahlreichen Realisierungen supersymmetrischer Er-weiterungen des SM. Verglichen mit dem MSSM (dem Minimalen Supersymmetrischen Mo-dell) enthalt das NMSSM genau ein weiteres skalares Teilchen und dessen supersymmetrischenPartner, d.h. ein zusatzliches Neutralino. Diese neuen Teilchen ermoglichen einerseits neue Mi-schungseffekte und eroffnen neue Zerfallskanale, was zu interessanten phanomenologischen Re-sultaten fuhren kann. Andererseits konnen sie aber auch dabei helfen, einige der Unzulanglich-keiten des SM und auch des MSSM zu uberwinden. Als Beispiele seien hier das “kleine Hierar-chie Problem” der Higgsmasse und das �-Problem genannt.

In diesem Vortrag diskutiere ich die Berechnung der Korrekturen der Ordnung O.˛t˛s/ zu dentrilinearen Higgs-Kopplungen im Rahmen des komplexen NMSSM. Nach einer Einfuhrung indas Modell gebe ich Einblicke in Details der Rechnung. Anschließend zeige und erlautere icheinige Resultate.

T. Theorie 79

T-12 (C) Die Nutzung effektiver Feldtheorien zur Charakteri-sierung des ”Higgs“-Teilchens.CLAUDIUS KRAUSE

Fakultat fur Phyik, LMU Munchen

Im Juli 2012 wurde am Large Hadron Collider (LHC) am CERN bei Genf die Entdeckung einesneuen Teilchens bekanntgegeben. Die bisher vermessenen Eigenschaften dieses Teilchens, wieKopplungen, Spin und CP Eigenwerte, entsprechen den des im Standard Modell vorhergesagtenHiggs-Bosons. Aktuell, im Sommer 2015, sind die Messunsicherheiten der gemessenen Kopp-lungen noch von der Großenordnung O.10%/. Daraus ergibt sich die folgende Frage:Ist das entdeckte skalare Teilchen tatsachlich das Standard Modell Higgs-Boson oder ist es nurein ”Higgs-ahnliches“ Teilchen, welches einen anderen theoretischen Ursprung hat?Um diese Frage modellunabhangig zu klaren, werden effektive Feldtheorien (EFTs) genutzt.Besonders geeignet ist der ”bottom-up“ Ansatz, in dem die Theorie ”von unten nach oben“konstruiert wird. Dazu werden alle bei niedrigen Energien bekannten Teilchen und Symmetri-en genutzt, um Effekte zu parametrisieren, die von hoheren Energien kommen. Als letzte Zutatmuss noch eine konsistente Entwicklung in einem kleinen Parameter, ein sogenanntes ”powercounting“, definiert werden. Ich werde zeigen, dass man abhangig von den gewahlten Teilchenund Symmetrien verschiedene konsistente Entwicklungen definieren kann und welche Implika-tionen diese Wahl auf die Interpretation von Fits auf Daten hat.Konkret werde ich uber die folgenden zwei Szenarien sprechen:1) Die elektroschwache Symmetrie SU.2/ � U.1/ ist linear realisiert. Das heißt, dass die dreiGoldstone-Bosonen der spontanen Symmetriebrechung zusammen mit dem physikalischen Higgsein komplexes Dublett bilden. Die Entwicklung in der effektiven Theorie ist durch eine Ent-wicklung in kanonischen Energiedimensionen gegeben. Auf fuhrender Ordnung erhalt man dasStandard Modell mit allen Termen der Energiedimension 4. Auf nachstfuhrender Ordnung rele-vant fur Higgs–Physik erhalt man Terme der Energiedimension 6. Sie sind um einen Faktor derGroßenordnung O.v2=�2/ relativ zur fuhrenden Ordnung unterdruckt. Dabei ist v D 246 GeVdie elektroschwache Skala und � die (noch unbekannte) Skala der neuen Physik. In der sche-matischen Darstellung in Abbildung T.2 entspricht dies einer Entwicklung Zeile fur Zeile, vonunten nach oben.2) Die elektroschwache Symmetrie SU.2/�U.1/ ist nicht-linear realisiert. In diesem Fall gibt eskeine Relation zwischen den drei Goldstone-Bosonen der spontanenen Symmetriebrechung unddem physikalischen Higgs – das Higgs ist ein Singlett unter den Eichgruppen. Diese effektiveTheorie ist unter dem Namen ”elektroschwacher chiraler Lagrangian“ bekannt und die Entwick-lung ist gegeben durch eine Entwicklung in Quanten-Schleifen (”loops“). Der elektroschwachechirale Lagrangian ist auf fuhrender Ordnung allgemeiner als der Lagrangian des Standard Mo-dells. Hier liegt der entscheidende Vorteil in der Nutzung des chiralen Lagrangians: Die fuhren-de Ordnung fokussiert auf potentiell große Effekte (Großenordnung O.10%/) im Higgs-Sektor,wahrend die Korrekturen zu den von LEP I + II Messungen stark eingeschrankten Effektenim elektroschwachen Sektor nur auf nachstfuhrender Ordnung auftreten. Diese nachstfuhrendeOrdnung ist mit einem relativen Faktor der Großenordnung O.1=16�2/ unterdruckt und kannsystematisch entwickelt werden. In der schematischen Darstellung in Abbildung T.2 entsprichtdies einer Entwicklung Spalte fur Spalte, von links nach rechts.

80 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

0 1 2 3 # loops

4

6

8

10

d

Abbildung T.2.: Schematische Darstellung der verschiedenen Entwicklungen der effektivenFeldtheorie im Higgs Sektor. Als Abszisse sind die Anzahl der Schleifen auf-getragen, als Ordinate die kanonische Dimension d . Jeder Punkt reprasentiertKlassen verschiedener Operatoren im Lagrangian oder alternativ Terme in phy-sikalischen Amplituden.

Phanomenologisch besonders motiviert ist nun ein Szenario, welches die elektroschwache Sym-metrie nicht-linear realisiert und bei einer Skala f > v liegt. Man erhalt zwei Entwicklungspa-rameter: Durch die nicht-lineare Symmetrie entwickelt man in Schleifen (und damit in 1=16�2)und durch die Hierarchie der Skalen v und f kann man zusatzlich in kanonischen Dimensionen(und damit in � D v2=f 2) entwickeln.Basierend auf diesen Uberlegungen und den aktuell verfugbaren Daten des LHC empfiehlt sichdie Nutzung des folgenden Lagrangians zur Untersuchung der Higgskopplungen:

L D 2cV�m2WW

C� W

�� C12m2ZZ�Z

�� hv� ctyt Nt th � cbyb Nbbh � c�y� N��h

Ce2

16�2c F��F

��h

vC

g2s16�2

cgghG��G��i

h

vC Lkin

(T.1)

Er entspricht einer systematischen Naherung auf Basis einer EFT mit relativ wenigen freienParametern. Diese freien Kopplungen cV ; ct ; cb und c� sind von der Großenordnung .1CO.�//,die Kopplungen c und cgg sind von O.�/. Ich werde am Ende meines Vortrages einen Fit derLHC Daten auf diese Parameter prasentieren.

T. Theorie 81

T-13 (A) Globale Untersuchung von Composite Higgs ModellenCHRISTOPH NIEHOFF

Excellence Cluster Universe, TU Munchen

Durch die Messung der Higgsmasse von 125 GeV wurden die Vorhersagen des Standard Mo-dells (SM) auf beeindruckende Weise bestatigt. Nichtsdestotrotz fuhrt der relativ geringe Wertder Higgsmasse zu großen konzeptionellen Problemen, wenn man versucht, das SM in Model-le Neuer Physik (NP) einzubetten, da naiv erwartet wird, dass die NP-Beitrage von einer sehrviel hoheren Skala sind, als der gemessene Wert. Somit ist ein relativ großes Maß an Finetuningnotwendig, um die großen Quantenkorrekturen wegzuheben. Dieses wird als Hierarchieproblembezeichnet, von dem erwartet wird, dass dass es durch NP gelost wird.

Heutzutage existieren im Wesentlichen zwei Mainstream-Moglichkeiten zur Losung des Hierar-chieproblemes:

� Man fuhrt eine neue Symmetrie ein, um die Higgsmasse an eine Fermionmasse zu koppeln,welche dann durch chirale Symmetrie geschutzt wird. Dieses sind supersymmertische Mo-delle.

� Man nimmt an, dass das Higgsboson ein gebundener Zustand einer neuen starken Wechsel-wirkung ist, welcher bei hohen Energien in seine Konstituenten zerfallt. Diese bezeichnetman als Composite Higgs Modelle (CHM).

Im folgenden untersuchen wir eine Unterklasse der CHM, in denen das Higgsboson als pseudo-Nambu-Goldstone Boson (pNGB) betrachtet wird, sodass seine Leichtigkeit durch eine kleineexplizite Brechung der Goldstone-Symmetrie erklart wird. Weiterhin betrachten wir Modelle mitPartial Compositeness, in denen alle SM-Teilchen eine Beimischung von ebenfalls zusammenge-setzten Teilchen haben, sodass eine naturliche Erklarung der Flavourhierarchien gegeben werdenkann. Modelle mit all diesen Eigenschaften sind in naturlicher Weise durch 4D-Formulierungenvon extradimensionalen Theorien gegeben, in denen das Higgsboson als skalare Komponenteeines hoherdimensionalen Eichfeldes gegeben ist; sie sind aber nicht auf diese beschrankt.

Große Einschrankungen an solche Modelle sind durch elektroschwache Prazisionsobservablenwie z.B. dem S - und T -Parameter gegeben, sodass meistens angenommen wird, dass die NP-Skala relativ hoch ist. Dieses steht in leichter Spannung zur Higgsmasse, die in CHM rein durchQuanteneffekte erzeugt wird und eine leichte NP-Skala fordert. Als Konsequenz daraus ist auchin CHM ein gewisses (wenn auch sehr viel schwacheres) Finetuning zwischen den Eich- undFermionbeitragen zur Higgsmasse notwendig, was somit zu einer sehr starken Korrelierung derEich- und Fermion-Constraints fuhrt.

Zur Untersuchung dieser Effekte haben wir einen globalen Parameter-Scan einer bestimmtenCHM-Klasse durchgefuhrt, in dem alle relevanten Eich-Einschrankungen (wie z.B. elektroschwa-che Prazisionstests) und Fermion-Einschrankungen (z.B. Flavourobservablen wie Meson-Mischungoder seltene Zerfalle) sowie direkte Massengrenzen auf NP-Teilchen berucksichtigt wurden. Diedadurch gefundenen Parameterpunkte erfullen alle aktuellen experimentellen Einschrankungenund erlauben es, Vorhersagen fur noch ungemessene Prozesse aufzustellen.

82 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-14 (B) Quanteneffekte im Standardmodell mit einem zusatz-lichen Higgs-SingletCYRIL PATRICK PIETSCH

Max-Planck-Institut fur Physik / TU Munchen

Auch wenn die experimentellen Befunde an Teilchenbeschleunigern wie dem ’Large HadronCollider’ (LHC) bisher hervorragend mit den Vorhersagen des Standardmodells der Teilchen-physik (SM) ubereinstimmen, sind einige wichtige offenstehende Fragen der Teilchenphysikmit letzterem nicht zu erklaren. Aus diesem Grund beschaftigt man sich unter anderem mit gutmotivierten (minimalen) Erweiterungen des SM. Auch nach der Entdeckung eines Higgs-artigenTeilchens am LHC im Jahr 2012 spielen dabei Modelle mit erweitertem Higgs-Sektor eine großeRolle. Im Rahmen dieses Vortrags stelle ich eine vielversprechende minimale Erweiterung desSM Higgs-Sektors vor. Ursprunglich eingefuhrt um einen Kandidaten fur Dunkle Materie zu bie-ten, kann dieses renormierbare Modell auch zu einer Stabilisierung des elektroschwachen Vaku-ums bis hin zur Planck-Skala fuhren. Es erweitert den SM Higgs-Sektor (standard Higgs-Dublet˚s) um ein komplexes Singlet ˚h. Dieses transformiert nicht unter der Eichgruppe des SM, kannaber geladen sein unter einer versteckten nicht-standard Eichgruppe. Das zugehorige Higgs-Potential V.˚s; ˚h/ beinhaltet einen biquadratischen Term der Form ˚

�s˚s˚

h˚h, welcher zu

einer Wechselwirkung zwischen dem standardartigen und dem versteckten Sektor fuhrt. Weiter-hin sorgt V.˚s; ˚h/ dafur, dass auch ˚h einen nicht-verschwindenden Vakuumerwartungswerterhalt. Dies fuhrt zu einer Mischung der neutralen Komponentenfelder in ˚s und ˚h, welchedurch den Mischungswinkel ˛ parametrisiert wird. Die zugehorigen MasseneigenzustandeH1=2

mit MassenMH1=2tragen sowohl eine standardartige als auch eine nicht-standardartige Feldkom-

ponente. Wir gehen davon aus, dass eines dieser beiden physikalischen Felder verantwortlich istfur die im Juli 2012 entdeckte Resonanz am LHC und setzen MH1

D 125 GeV. Die nicht-standard Parameter ˛ und MH2

lassen sich mit Hilfe von elektroschwachen Prazisionsobserva-blen (EWPOs) einschranken. Fur eine genaue Vorhersage von EWPOs mussen hohere Ordnun-gen in Storungstheorie betrachtet werden, diese hangen wiederum von den nicht-standard Para-metern der erweiterten Theorie ab. Somit kann sich das FeldH2 durch zugehorige Quanteneffek-te indirekt bemerkbar machen, auch wenn es am LHC (noch) nicht direkt nachgewiesen wurde.In diesem Vortrag prasentiere ich unter anderem Vorhersagen fur verschiedene EWPOs wobeiNext-to-Leading-Order (NLO) Beitrage des erweiterten Higgs-Sektors berucksichtigt werden.Damit gelingt es, wichtige Aussagen uber den zugehorigen nicht-standard Parameterraum zumachen, auch wenn (noch) keine direkten experimentellen Indizien fur solch eine Erweiterungdes SM existieren.

T. Theorie 83

T-15 (C) Verletzung von Lepton Flavour Universalitat in Com-posite Higgs ModellenPETER STANGL

Excellence Cluster Universe, TU Munchen

Im vergangenen Jahr haben verschiedene Abweichungen von Vorhersagen des Standard Modells(SM), die am LHCb Experiment gemessen wurden, viel Aufmerksamkeit in der Flavour Physikerhalten. Eine dieser sogenannten LHCb Anomalien ist die 2:6� Abweichung in RK . RK ist dasVerhaltnis des BC ! KC�C�� und des BC ! KCeCe� Verzweigungsverhaltnisses, fur dasim SM aufgrund von Lepton Flavour Universalitat (LFU) in sehr guter Naherung R.SM/

K D 1

gilt. Falls die LHCb Messung mit ihrem zentralen Wert RLHCbK � 0:75 besatigt wird, ware dasein deutlicher Hinweis auf die Verletzung von Lepton Flavour Universalitat.

Es soll hier eine mogliche Erklarung der Abweichung in RK im Rahmen von Composite HiggsModellen (CHMs) vorgestellt werden. Diese Klasse von Modellen ist neben der Supersymmetrieeiner der wohl meist beachtetsten Losungsversuche des Hierarchie Problems im SM und kannals effektive Theorie einer neuen starken Wechselwirkung oder einer Theorie mit Extradimen-sionen aufgefasst werden. Neue schwere Teilchen, die in CHMs vorhergesagt werden, fuhren zuAnderungen von SM Kopplungen und konnen so prinzipiell Abweichungen vom SM erklaren.

Im Vortrag werden zuerst die entscheidenden Eigenschaften von CHMs und des seltenen Zer-falls BC ! KClCl� dargelegt. Anschließend werden die notwendigen Voraussetzungen fur dieKonstruktion eines CHM besprochen, das eine Erklarung fur die RK Anomalie liefern konnte.

84 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-16 (B) Berechnung der Relikdichte dunkler MaterieSASKIA SCHMIEMANN

Institut fur Theoretische Physik, Universitat Munster

Ein immer noch nicht geklartes Problem der Hochenergiephysik ist die Frage nach der dunklenMaterie. Viele Experimente weisen auf die Existenz von dunkler Materie hin. So entspricht dieKinematik der Galaxien im Universum nicht der, die nach dem newtonischen Gravitationsgesetzvorhergesagt wird. Das newtonische Gravitationsgesetz wurde die Kinematik der Galaxien imUniversum erklaren, wenn neben der sichtbaren Materie eine dunkle Materie existiert. DurchAufnahmen der kosmischen Hintergrundstrahlung und deren Anisotropien, kann die Dichte derdunklen Materie bestimmt werden.Als Kandidat fur die dunkle Materie wird ein einzelnes Elementarteilchen vermutet, das diedunkle Materie hauptsachlich ausmacht. Ein Kandidat fur dunkle Materie muss, dem bisherigenWissensstand nach, langlebig und massiv sein. Zusatzlich weiß man uber dieses Teilchen, dasses nicht elektromagnetisch wechselwirkt.

In dem Standardmodell existiert kein passender Kandidat fur die dunkle Materie. Daher mussdas Standardmodell erweitert werden um einen passenden Kandidaten zu finden. Eine moglicheErweiterung des Standardmodells ist das supersymmetrische Standardmodell. Hierbei wird eineneue Symmetrie zwischen halbzahligen und ganzzahligen Spin eingefuhrt. Ursprunglich wur-de Supersymmetrie (SUSY) nicht zur Erklarung der dunklen Materie entwickelt, sondern zurLosung des Hierachieproblems. Dennoch liefert die Supersymmetrie einen Kandidaten fur diedunkle Materie. Im minimalen supersymmetrischen Standardmodell (MSSM) wird eine neueQuantenzahl eingefuhrt, die R-Paritat. Wenn diese erhalten ist, wie es aus phenomenologischenGrunden anzunehmen ist, dann kann ein supersymmetrisches Teilchen nur in ein anderes super-symmetrisches Teilchen zerfallen oder mit einem anderen supersymmetrischen Teilchen annihi-lieren. Daraus folgt, dass es ein leichtestes supersymmetrisches Teilchen (LSP, “lightest super-symmetric particle”) geben muss. In den meisten Fallen ist das LSP das leichteste Neutralino Q�01.

Im Zusammenhang mit meiner Masterarbeit habe ich an dem Projekt DM@NLO (“Dark Matterat Next-to-Leading Order”) mitgearbeitet. DM@NLO ist ein numerischer Code zur Berechnungder Reliktdichte der dunklen Materie. Hierbei werden die fur die Reliktdichte relevanten Wir-kungsquerschnitte im MSSM nicht nur auf Born-Niveau sondern inklusive O.˛S/ SUSY QCD-Korrekturen berechnet. Die Prazision der NLO Korrekturen bei der Berechnung der Reliktdichtedient dem verbesserten Abgleich mit experimentellen Daten.

In meinem Vortrag werde ich das Projekt DM@NLO detaillierter vorstellen. Insbesondere werdeich auf die Losung der Boltzmann-Gleichung eingehen, durch die die Reliktdichte bestimmtwird.

T. Theorie 85

T-17 (A) Der phanomenologische Nutzen des ZerfallsNBs ! K�.! K�/` N�`

BASTIAN MULLER

Theoretische Physik 1, Universitat Siegen

Unser gegenwartiges Wissen uber die Grundbausteine des Universums ist in dem sogenanntenStandardmodell der Teilchenphysik (SM) zusammengefasst. Dieses Modell liefert eine konsis-tente Beschreibung des Aufbaus der Materie, und es besteht weitgehend eine Ubereinstimmungzwischen Theorie und Beobachtung.Die Große jVubj der Quarkmischungsmatrix ist einer der freien Parameter des SMs, und ist apriori unbekannt. Er kann aus semileptonischen B-Zerfallen bestimmt werden. Jedoch ist jVubjnicht nur einer der am wenigsten prazise gemessenen Parameter des SM, sondern es besteht so-gar eine Diskrepanz zwischen den Werten, die sich aus den exklusiven (B ! �`�; B ! �`�

etc.) und inklusiven Zerfallen (B ! Xu`�) bestimmen lassen.Unabhangige, phanomenologische Informationen aus anderen b ! u Ubergangen konnten hel-fen, mehr Licht auf den Ursprung dieser Diskrepanz zu werfen. So stellen z. B. Effekte neuerPhysik (NP) eine mogliche Losung dieses ”Ratsels“ dar.

In diesem Vortrag wird der Zerfall NBs ! K�` N�` vorgestellt, der bisher noch nicht gemessenwurde. Einserseits erlaubt dieser Kanal eine von bisherigen Messungen unabhangige, exklusiveBestimmung des Parameters jVubj im SM. Andererseits generiert der sekundareK� ! K� Zer-fall eine Zerfallsverteilung mit 12 sogenannten Winkelobservablen. Diese konnen dazu genutztwerden, um nach Effekten NP zu suchen sowie Verhaltnisse von hadronischen Matrixelementenzu studieren. Ein weiterer Nutzen, der aus der Beschaftigung mit NBs ! K�` N�` hervorgeht, istdie Moglichkeit, ihn mit dem seltenen Zerfall NB ! NK�`` zu kombinieren. Die dadurch konstru-ierten ”optimierten“ Observablen konnen dazu verwendet werden theoretische Unsicherheitenzu reduzieren.

86 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-18 (B) Zerfallseigenschaften von Zc-MesonenMATTHIAS KESENHEIMER

Institut fur Theoretische Physik, Universitat Tubingen

Der Schlussel zum Verstandnis der Zusammensetzung eines gebundenen Systems ist das Spek-trum seiner Quantenzustanden. Die einfachsten durch die starke Wechselwirkung gebundenenSysteme sind die Mesonen, die aus Quarks, Antiquarks und Gluonen aufgebaut sind. Die Me-sonspektroskopie im niederenergetischen nicht-perturbativen Bereich ist wegen der Einfachheitdieser Systeme von fundamentaler Bedeutung. Erst wenn das Spektrum der Mesonen quantitativerklart ist, kann der Anspruch erhoben werden, dass die Theorie der starken Wechselwirkungunsere Natur korrekt beschreibt.

Ahnlich wie in der Atomphysik konnen mit spektroskopischen Methoden in der Hadronphysikneue Teilchenzustande und -resonanzen identifiziert und vermessen werden. Detaillierte Infor-mationen uber die innere Struktur von Hadronen lassen sich so erschließen. In der Mesonspek-troskopie konnen Masse und Zerfallsbreite sowie Spin und Paritat eines Teilchenzustandes be-stimmt werden. Durch die Vermessung verschiedenster Zerfallskanale erfahrt man außerdem,welchen Quarkinhalt die Resonanzen haben. Aus diesen Großen lasst sich die innere Strukturdieser Hadronen rekonstruieren und auf mogliche exotische Zustande schließen. Von besonde-rem Interesse sind zur Zeit exotische Charmonium-Teilchenzustande mit der Bezeichnung X , Yund Z, da sie Einsicht in die nicht-Abelsche Struktur der QCD gewahren.

Mit der Entdeckung neuer exotischer hadronischer Teilchen an Beschleunigerexperimenten inden letzten Jahren wurde es notwendig, die neuen Zustande, die mit X und Y bezeichnet wer-den, in theoretischen Modellen zu verstehen und zu beschreiben. Einige dieser Teilchenzustandepassen nicht als q Nq-Mesonen in das gut etablierte Quarkmodell und werden daher als exotischehadronische Zustande interpretiert. Ein Nachweis dieser Exoten ware eine Moglichkeit, die QCDmittels Mesonspektroskopie im niederenergetischen nicht-perturbativen Bereich zu testen.

Die Untersuchung exotischer Hadronen bekam neuen Aufwind, als kurzlich die drei Kollabora-tionen BESIII, Belle und CLEO-c eine neue Resonanz namens Zc.3900/ mit einer Masse von3899 ˙ 3:6 ˙ 4MeV und einer Breite von 46 ˙ 10 ˙ 20MeV vermeldeten. Was diese Re-sonanz so interessant macht, ist die Tatsache, dass sie geladen ist und Charmoniuminhalt hat.Das Zc-Teilchen kann in ein J= -Meson zerfallen, weshalb der Quarkinhalt dieses Teilchensmindestens aus c Nc und zwei weiteren Quarks bestehen muss, welche die restlichen passendenQuantenzahlen, wie die elektrische Ladung, erzeugen. Aus dem Zerfall Zc ! �J= erkannteman außerdem, dass es sich um ein u- und ein Nd -Quark fur das positiv geladenen ZCc und umein Nu- und ein d -Quark fur den negativ geladenen Partner Z�c handeln muss.

Fur die Beschreibung der Resonanz Zc.3900/ kann ein Molekulansatz herangezogen werden.Dieser Vortrag soll erklaren, wie zwei Mesonen eine Bindung uber den Austausch weiterer Me-sonen und Gluonen, analog zur Bindung von Protonen und Neutronen im Nukleon, eingehenkonnen. Der Abstand der Konstituenten soll dabei großer als die typische Große eines Mesonssein. Die Ausdehnung des Molekuls wird uber eine Korrelationsfunktion in den Rechnungenberucksichtigt. Die Bindung der Konstituenten wird mit Hilfe der Compositeness Conditionmodelliert. Fur das Zc.3900/-Teilchen liegt die Masse in der Nahe der Schwelle eines D� ND-

T. Theorie 87

Mesonenpaares, welches den korrekten Quarkinhalt liefert. Im Falle des Zc-Teilchens geht manvon einem schwach gebundenen System mit einer Bindungsenergie von 0:5 � 5MeV aus.

Um mehr uber diesen exotischen Teilchenzustand zu erfahren, werden in diesem Vortrag dieZerfalleZCc ! J= �C undZCc ! J= �C`C`� betrachtet, wobei fur ein Photon und ` furein Elektron oder Myon steht. Der Zerfall mit einem Photon erzeugt in einem Teilchendetektorein sauberes Signal, weshalb sich dieser Zerfallskanal fur experimentelle Untersuchungen an-bietet. Außerdem wird der zweite Zerfallskanal ZCc ! J= �C`C`� betrachtet, der numerischwesentlich einfacher gehandhabt werden kann und sich deshalb fur eine phanomenologischeStudie besser eignet.

88 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-19 (A) NLO Korrekturen zur Higgspaarproduktion viaGluonfusionSERAINA GLAUS

Theorie-Gruppe LTP, Paul Scherrer Institut

Die gemessenen Eigenschaften des vor drei Jahren detektierten Teilchens am LHC am CERNweisen darauf hin, dass es sich um das langgesuchte Higgsboson des Standardmodells handelnkonnte. Jedoch lassen die (theoretischen wie auch experimentellen) Unsicherheiten Zuordnun-gen zu anderen erweiterten Modellen, wie beispielsweise Supersymmetrie, zu. Deshalb ist esnun von ausschlaggebender Bedeutung, die Eigenschaften des detektierten Teilchens genauer zubestimmen. Dabei spielt die Bestimmung des Higgspotentials eine zentrale Rolle, um zu prufen,ob dieses Teilchen effektiv verantwortlich fur die elektroschwache Symmetriebrechung ist. Umdas Higgspotential zu messen, muss die Selbstwechselwirkungsstarke zwischen Higgsbosonenbestimmt werden. Dies ist einzig uber Higgspaarproduktion als erster Schritt fur die trilineareKopplung moglich. Dieser Prozess hat einen Wirkungsquerschnitt von etwa 30-40 fb. Ein Nach-weis dieses Prozesses setzt folglich eine sehr hohe Luminositat voraus, wie sie mit den aktuellenTeilchenbeschleunigern noch nicht erreicht werden kann. Der geplante Bau eines erweitertenLHCs oder eines linearen e C e� Colliders werden eine solche Messung moglich machen. Derdominante Prozess der Higgspaarproduktion ist die loop-induzierte Gluonfusion gg! HH ubereine Top- und Bottomquarkschleife. Weiter kann ein Higgspaar auch uber Vectorbosonfusionqq!qqHH oder doppelte Higgsstrahlung qq!V HH (V = W, Z) erzeugt werden. Der Beitragzum Produktionwirkungsquerschnitt der letzteren beiden Prozesse ist ein bis zwei Großenord-nungen kleiner als der dominante Prozess. Bis jetzt sind die perturbativen NLO- und NNLO-Korrekturen zum Wirkungsquerschnitt fur Gluonfusion nur im Limes schwerer Topquarks be-kannt. Die daruberhinaus berechneten NLO Masseneffekte der reellen NLO Korrekturen be-laufen sich auf circa �10%. Eine schwere Massenentwicklung der virtuellen und reellen NLOKorrekturen liefert jedoch eine Abschatzung der Masseneffekte von C10% unterhalb aller vir-tuellen Schwellen. Ziel dieser Arbeit ist es, diesen Widerspruch aufzulosen. Dazu wird dievollstandige Berechung der NLO QCD Korrekturen unter Berucksichtigung der vollen Top�und Bottomquarkmassen-Abhangigkeit im Rahmen des Standardmodells durchgefuhrt. Die rele-vanten Zwei-Loop-Integrale konnen nicht mehr analytisch mit gegenwartig bekannten Methodenberechnet werden. Stattdessen ist eine numerische Integration notig. Mit diesem Resultat konnendie theoretischen Unsicherheiten des Gluonfusions-Wirkungsquerschnitts verkleinert werden, sodass eine experimentelle Messung der trilinearen Higgskopplung moglich wird. Die großte Her-ausforderung wird es sein, die ultravioletten, die infraroten wie auch die kollinearen Divergen-zen der Matrixelemente zu extrahieren. Dies erfolgt uber geeignete Endpunktsubtraktionen der6-dimensionalen Feynman-Integrale und die semi-analytische Integration der Endpunktbeitrage.Des Weiteren ist die numerische Integration der regularisierten Feynman-Integrale im Bereichoberhalb der virtuellen Schwellen nicht stabil, da Schwellensingularitaten innerhalb der Inte-grationsbereiche auftreten, die die Integrale komplexwertig machen. Dieses Problem wird durchpartielle Integration der extensiven Integranden gelost, bis die Schwellensingularitaten nur inArgumenten von Logarithmen auftreten und somit numerisch stabil integrierbar werden. DieAnwendbarkeit dieser Methode wird durch das Bernstein-Tkachov-Theorem gesichert. Die Er-fahrung bei anderen Prozessen hat gezeigt, dass diese Methode i.a. zu stabileren numerischenIntegrationen fuhrt als alternative Methoden, die eine Deformation der Integrationskontouren inder komplexen Ebene einfuhren.

T. Theorie 89

T-20 (B) Faktorisierung und Variable Flavor Number Schemein tief-inelastischer StreuungDANIEL SAMITZ

Fakultat fur Physik, Universitat Wien

Tief-inelastische Streuung, die hochenergetische Streuung eines Elektrons an einem Proton, isteiner der wichtigsten Prozesse zur Bestimmung von Partonverteilungsfunktionen (PDFs), wel-che unabdingbare Input Parameter fur alle Experimente an Hadron Collidern sind. TheoretischeBerechnungen mit hoherer Prazision und kleineren Unsicherheiten sind daher essentiell fur dieBestimmung fundamentaler Parameter und Vorraussagen fur Collider Experimente.

In perturbativen Rechnungen treten Terme der Form ˛ns logm��1

�2

�auf, wobei �1 und �2 ver-

schiedene relevante Skalen in dem betrachteten Prozess sind (z.B. der Impulsubertrag, invarian-te Masse des (hadronischen) Endzustandes, hadronische Skala, ...). Fur den Fall dass die cha-rakteristischen Skalen sehr unterschiedlich sind, z.B. �1 � �2, wird dadurch die Konvergenzder Storungsreihe geschwacht, was zu großen Unsicherheiten der theoretischen Berechnungenfuhrt. Die Strategie zur Vermeidung dieses Problems ist Faktorisierung, d.h. das Aufspalten desgesamten Wirkungsquerschnitts in mehrere eichinvariante Strukturen, die ihrerseits jeweils nurvon einer Energieskala abhangen. In der Renormierungsgruppen-Evolution dieser einzelnen Be-standteile konnen diese Logarithmen aller Ordnungen aufsummiert werden.

Ein wichtiges QCD Faktorisierungstheorem fur tief-inelastische Streuung betrifft die Aufspal-tung der Strukturfunktionen F in Partonverteilungsfunktionen und harte Wilson-Koeffizienten:

F.x;Q2/ DX

iDq; Nq;g

Z 1

x

dzzHi.

x

z;Q2; �2/fi.z; �

2/CO �2QCD

Q2

!;

wobei die Bjorken-Variable x mit der invarianten Masse des hadronischen Endzustands P 2X zu-sammenhangt durch P 2X D Q2.1 � x/=x. Die Matchingkoeffizienten Hi sind Infrarot-endlichund konnen perturbativ berechnet werden und beschreiben die Physik and er harten Skala Q2.Die Partonverteilungsfunktionen fi sind nicht-perturbative Matrixelemente die die niederener-getische Wechselwirkungen im Proton beinhalten. Sie sind universell und treten auch in anderenFaktorisierungstheoremen mit Protonen im Anfangszunstand auf.

In der Endpunkt Region 1�x � 1 besteht der hadronische Endzustand ausschließlich aus einemeinzelnen Jet aus kollimierten hochenergetischen Hadronen sowie zusatzlicher softer Strahlungmit weit niedrigerer Energie. In dieser kinematischen Region werden Logarithmen der Formlog.1 � x/ in H groß, sodass das Faktorisierungstheorem entsprechend geandert werden mussum eine Resummierung dieser Logarithmen zu erzielen.

F.x;Q2/ DXiDq; Nq

Hi.Q2; �2/ �

1�xZ0

dz J�Q2..1 � x/ � z/; �2

�fi.1 � z; �

2/CO .1 � x/

90 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

Die harte Funktion H und die Jet Funktion J sind hier Objekte definiert im Rahmen einer ef-fektiven Feldtheorie, namlich Soft-Collinear Effective Theory (SCET). SCET ist eine effektiveTheorie der QCD fur kollineare und softe Teilchen und ist daher geeignet hadronische Jets zubeschreiben. In diesem SCET Faktorisierungstheorem werden die drei relevanten Skalen, die ha-dronische Skala �2QCD (PDF), die invariante Masse des Endzustands Q2.1 � x/ (Jet Funktion)und die harte SkalaQ2 (harte Funktion) voneinander separiert, was eine resummierung aller Lo-garithmen zwischen diesen Skalen ermoglicht.

Eine weitere Skala ist die Masse schwerer (Charm, Bottom u. Top) Quarks, welche in diesemProzess erzeugt werden konnen. Diese kann ebenfalls weit von den anderen kinematischen Ska-len entfernt sein und damit wieder zu großen Logarithmen fuhren. Um auch diese Logarithmenzu resummieren ist es notwendig ein sogenanntes Variable Flavor Number Scheme (VFNS) zubenutzen. Hier wird je nachdem wie die Quarkmasse relativ zu den anderen Skalen liegt inden einzelnen Funktionen des Faktorisierungstheorems und deren Evolution das schwere Quarkentweder inkludiert (wenn die Masse unterhalb der relevanten Skala liegt) oder ausintegriert(wenn die Masse uberhalb der relevanten Skala liegt). Beim Wechsel zwischen diesen beidenSchemen mit unterschiedlicher Anzahl an aktiven Flavors an der Massenskala treten sogenann-te Threshold-Korrekturen auf, welche fur jede einzelne der Funktionen perturbativ berechnetwerden konnen.

T. Theorie 91

T-21 (A) Neue Methoden fur Dreischleifenintegrale mit zweiSkalenMARIO PRAUSA

Theoretische Physik, Universitat Wuppertal

Das Berechnen einer Streuamplitude in der Storungstheorie besteht aus mehreren Schritten.Im ersten Schritt wird die Streuamplitude durch Feynmanintegrale ausgedruckt. Dazu werdenzunachst Feynmandiagramme aufgestellt und anschließend die Feynmanregeln eingesetzt. Die-ses Problem stellt mit modernen Computer-Algebra-Systemen auch bei hoher Schleifenordnungkeine Schwierigkeit dar.

Im nachsten Schritt wird fur gewohnlich versucht, die Feynmanintegrale durch sinnvolles An-wenden sog. Integration-by-Parts-Identitaten auf einen kleinen Satz an Masterintegralen zu redu-zieren [1, 2]. Hierfur eignet sich insbesondere der Laporta-Algorithmus [3], aber auch eine heu-ristische Suche nach Reduktionsregeln kann sinnvoll sein (siehe z.B. das Paket LiteRed [4, 5]).

Das Losen der Masterintegrale stellt den letzten Schritt der Rechnung dar. In diesem Vortragwerde ich mich auf das Losen der Masterintegrale uber ein System gekoppelter Differentialglei-chungen beschranken. Fur diese Methode wurden in den letzten zwei Jahren erhebliche Fort-schritte erzielt. In einem viel beachteten Papier [6] schlug Henn 2013 eine Wahl der Basis anMasterintegralen vor, in der die Differentialgleichungen die einfache Form

@ Ef

@xD �M.x/ Ef (T.2)

annehmen, wobei Ef die Masterintegrale, d D 4� 2� die Anzahl der Raumzeitdimensionen undx eine geeignete kinematische Variable bezeichnet. Ist die Basis aufgestellt, lasst sich aus derMatrixM.x/ die vollstandige Kinematik der Masterintegrale bis zu einer gewunschten Ordnungin � ablesen, so dass nur noch Randbedingungen gelost werden mussen. Inzwischen wurde furZweiskalenprobleme ein Algorithmus vorgeschlagen, der in vielen Fallen eine Basistransforma-tion findet, um die Differentialgleichungen in die gewunschte Form (T.2) zu uberfuhren [7].

Die Randbedingungen lassen sich dann uber eine asymptotische Entwicklung der Masterintegra-le finden; hierfur verwenden wir die Methode ”Expansion-by-Regions“ [8].

Mit den vorgestellten Methoden erhoffen wir uns beispielsweise, Probleme in der Higgs-Physikauf Dreischleifenniveau zu bearbeiten, die bisher in dieser Genauigkeit nicht losbar waren.

[1] K. G. Chetyrkin and F. V. Tkachov, Integration by Parts: The Algorithm to Calculate betaFunctions in 4 Loops, Nucl. Phys. B 192 (1981) 159.

[2] F. V. Tkachov, A Theorem on Analytical Calculability of Four Loop Renormalization GroupFunctions, Phys. Lett. B 100 (1981) 65.

[3] S. Laporta, High precision calculation of multiloop Feynman integrals by difference equati-ons, Int. J. Mod. Phys. A 15 (2000) 5087 [hep-ph/0102033].

92 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

[4] R. N. Lee, Presenting LiteRed: a tool for the Loop InTEgrals REDuction, arXiv:1212.2685[hep-ph].

[5] R. N. Lee, LiteRed 1.4: a powerful tool for reduction of multiloop integrals, J. Phys. Conf.Ser. 523 (2014) 012059 [arXiv:1310.1145 [hep-ph]].

[6] J. M. Henn, Multiloop integrals in dimensional regularization made simple, Phys. Rev. Lett.110 (2013) 25, 251601 [arXiv:1304.1806 [hep-th]].

[7] R. N. Lee, Reducing differential equations for multiloop master integrals, JHEP 1504 (2015)108 [arXiv:1411.0911 [hep-ph]].

[8] M. Beneke and V. A. Smirnov, Asymptotic expansion of Feynman integrals near threshold,Nucl. Phys. B 522 (1998) 321 [hep-ph/9711391].

T. Theorie 93

T-22 (B) Nichtequilibriumsdynamik (elektroschwacher) Pha-senubergange erster OrdnungTHOMAS GARRATT

Theoretische Physik II, Universitat Wurzburg

Ein beliebter Ansatz, um die Asymmetrie zwischen Materie und Antimaterie im Universum zuerklaren, ist die sogenannte elektroschwache Baryogenese. Diese Theorie beruht auf der An-nahme, dass das Ungleichgewicht im fruhen Universum beim Vorgang der elektroschwachenSymmetriebrechung entstand. Damit die elektroschwache Baryogenese funktioniert, muss die-ser kosmologische Phasenubergang von erster Ordnung sein.Es ist notig die Dynamik des elektroschwachen Phasenubergangs zu verstehen, um fur ein be-stimmtes Teilchenmodell vorhersagen zu konnen, ob die Baryogenese das korrekte Verhaltniszwischen Materie und Antimaterie liefert. Bei einem Phasenubergang erster Ordnung entstehenaußerdem durch Kollisionen von Blasen des stabilen Vakuums Gravitationswellen, welche mitder nachsten Generation von Gravitationswellendetektoren potentiell nachweisbar sind.

In meinem Vortrag werde ich erlautern, wie man mit Hilfe des Feynman-Pfadintegrals eineeffektive Wirkung konstruiert und aus dieser Bewegungsgleichungen fur Quantenfelder, wel-che sich außerhalb des thermischen Gleichgewichts befinden, ableiten kann (bekannt als 2PI-Formalismus). Das langfristige Ziel meiner Doktorarbeit ist es, auf diese Weise eine Berechnungder Dynamik des elektroschwachen Phasenubergangs – fur das Standardmodell und geeigne-te Erweiterungen – durchfuhren zu konnen. Die bisherigen Berechnungen der Dynamik die-ses Phasenubergangs bedienen sich semiklassischer Annahmen, setzen kleine Gradienten vorausund gehen von Verteilungen aus, die nahe am Equilibrium sind. Prinzipiell ermoglicht der 2PI-Formalismus eine Berechnung von Fallen in denen solche Annahmen nicht vertretbar sind.Außerdem werde ich in meinem Vortrag die Ergebnisse meiner bis dato durchgefuhrten Simula-tionen unter Verwendung eines toy models in (1+1)-Dimensionen vorstellen.

94 47. Herbstschule fur Hochenergiephysik Maria Laach 2015

T-23 (A) Reduktion von Mehrschleifen-Skalar-Integralen aufMaster-Integrale mit dem Laporta-Algorithmus KiraJOHANN USOVITSCH

DESY-Zeuthen

In der LHC-Physik werden die Experimente mit großer Genauigkeit durchgefuhrt. Daher be-steht in den theoretischen Vorhersagen dafur noch Entwicklungspotenzial, und es mussen in derstorungstheoretischen Quantenfeldtheorie hohere Ordnungen berechnet werden. Fur die Evalu-ierung dieser Korrekturen werden Feynman-Diagramme mit mehreren Schleifen berechnet. Inden Schleifen-Diagrammen gibt es Integrale, die mindestens einen Schleifenimpuls mit einemfreien Lorentz-Index im Zahler besitzen, diese heißen Tensor-Integrale. In der Regel werdendiese Tensor-Integrale auf mehrere Skalar-Integrale reduziert. Ein Skalar-Integral besitzt keineSchleifenimpulsabhangigkeit mit freiem Lorentz-Index im Zahler des Integranden.

Jedes dieser Skalar-Integrale kann dann einzeln oder als Teil eines Gleichungssystems aus-gewertet werden. Falls die Anzahl der Skalar-Integrale zu groß ist, werden diese durch dieintegration-by-parts-Identitaten (IBP-Identitaten), Lorentzinvarianz-Relationen (LI-Relationen)und Symmetrie-Relationen systematisch auf einen viel kleineren Satz der sogenannten Master-Integrale reduziert.

Im Allgemeinen ist es schwierig, die IBP-Identitaten analytisch anzuwenden. Deshalb wird die-ser Schritt algorithmisch mit dem Computer durchgefuhrt. Ein moglicher Algorithmus wurdevon Laporta eingefuhrt. In diesem Gauß-ahnlichen Algorithmus wird eine Ordnung verwendet,die nicht nur die IBP-Gleichungen neu sortiert, sondern auch eine gewisse Ordnung fur die In-tegrale innerhalb jeder Gleichung einfuhrt. Zur Zeit gibt es bereits einige offentlich verfugbareImplementierungen des Laporta-Algorithmus, wie AIR, FIRE und Reduze. Es gibt aber phano-menologisch relevante Mehrschleifenrechnungen, wie z.B. fur die Produktion von einzelnen top-Quarks am LHC in nachst-zu-nachst-fuhrender Ordnung (NNLO), fur die die Standardanwen-dung der oben genannten Software nicht alle Skalar-Integrale vollstandig reduzieren kann. Dasmotiviert einen Verbesserungsversuch der Implementierung des Laporta-Algorithmus.

Eine eigene Implementierung des Laporta-Algorithmus, namens Kira, wurde entwickelt. Das li-nearabhangige Gleichungssystem wird mittels einer numerischen Gauß-Elimination durch ICEauf ein linear unabhangiges Gleichungssystem reduziert. Das linear unabhangige Gleichungs-system, bestehend aus einer kleineren Anzahl optimal ausgewahlter Gleichungen, wird auf eineDreiecksform gebracht. Die Skalar-Integrale werden in dem Prozess der Ruckwartssubstitutionauf Master-Integrale reduziert. Kira verwendet fur die algebraische Vereinfachung der rationa-len Polynome, welche in den Zwischenergebnissen der Losung des Laporta-Gleichungssystemsvorkommen, das externe Programm Fermat.

In meinem Vortrag werde ich mein Programm Kira vorstellen. Dabei mochte ich Reduktionsbei-spiele unterschiedlicher Schwierigkeitsstufen einfuhren. Anschließend werde ich die Laufzeitvon Reduze und Kira gegenuber stellen und das Potential von meinem Programm Kira hervor-bringen.

Die Abtei Maria Laach

Die Abtei wurde als Abbatia ad Lacum – spater auch Abbatia Lacensis – zwischen 1093 und1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner FrauAdelheid von Weimar-Orlamunde, fur sein und seiner Gemahlin Seelenheil und dazu als Grab-lege, zuruck. Das Wort Laach ist eine verschliffene Form des althochdeutschen Wortes lacha –von lat. lacus, -us m – und ist als Name fur den See, den Ort und das Kloster erhalten geblieben.Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten fruhe-sten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819und 829 im Kloster Reichenau.Die sechsturmige Abteikirche gehort zu den schonsten Denkmalern der romanischen Baukunstaus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche vonspateren Umbauten fast vollig verschont geblieben ist. In der Zeit der Gotik und des Barockkam es jedoch zu einigen Veranderungen, die allerdings wahrend Renovierungsarbeiten im 20.Jahrhundert ruckgangig gemacht wurden, so dass in beindruckender Weise die Form einer mit-telalterlichen Klosteranlage bis heute bewundert werden kann: Der prachtvolle Westeingang mitseinem nordlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo derHerbstschule wieder. Der Abteikirche, auch als Laacher Munster bezeichnet, einer doppelchori-gen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica mi-nor” durch Papst Pius XI. verliehen.Die Abtei blieb von der Sakularisierung in der Zeit der Napoleonischen Herrschaft nicht ver-schont. Im Jahre 1801 wurden ihre Guter enteignet und 1802 die Abtei durch das Sakularisati-onsedikt Napoleons durch die franzosische Verwaltung aufgehoben. Nach dem Wiener Kongressging die Abtei 1815 in preußischen Staatsbesitz uber. 1892 konnten einige Benediktinermoncheunter Prior Willibrord Benzler die Abtei zunachst als Priorei wieder besiedeln, schließlich, 1893,737 Jahre nach ihrer Grundung, wurde die Abtei zum zweiten Male konsekriert und erhielt denNamen ”Maria Laach“.

1093 Grundung durch Pfalzgraf Heinrich II. von Laach.

1095 Tod des Pfalzgrafen, seine Frau Adelheid fuhrt die Bauarbeitenfort.

1112 Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballen-stadt, er schenkt das Kloster an die Abtei Affligem im Land-grafschaft Brabant.

1138 Laach wird selbstandige Abtei.

1802 Aufhebung der Abtei in Folge der Sakularisation.

1820 Erwerb des Klosters als Rittergut durch Daniel Heinrich Deliusfur 24.900 “Thaler in preußischen Courant”.

1855 Zerstorung der Pralatur durch einen schweren Brand.

1863 Erwerb der Abteigebaude durch die deutsche Jesuitenprovinzund errichtet “Collegium Maximum”.

1892 Wiederbesiedelung durch Benediktiniermonche aus der Erzab-tei Beuron.

1924 Ubereignung der Klosterkirche an die Abtei durch den preußi-schen Staat.

2006 Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850.Weihetag.

Laach Klosterkirche, Ostseite

Bildnachweis: Titel, S. 5 und S. 95: Maria Laach, Basis und Ostseite aus G. Dehio und G. Be-zold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung,1892, mit freundlicher Genehmigung des Magnus Verlag, Essen.Druck: UniPrint der Universitat Siegen � Holderlinstraße 3 � 57068 Siegen, 2014