2
www.scc.kit.edu www.kit.edu GridKa Herausgeber Steinbuch Centre for Computing (SCC) D-76131 Karlsruhe Redaktion: Ursula Scheller Grafische Gestaltung: John Atkinson Stand: Februar 2010 Kontakt Karlsruher Institut für Technologie (KIT) Steinbuch Centre for Computing (SCC) Grid Computing Centre Karlsruhe (GridKa) Dr. Andreas Heiss Projektleiter GridKa Hermann-von-Helmholtz-Platz1 D-76344 Eggenstein-Leopoldshafen Telefon: +49 7247 82 – 5639 E-Mail: [email protected] STEINBUCH CENTRE FOR COMPUTING (SCC) Support für Grid-Benutzer und Tier2-Zentren Die Tier1-Zentren bieten regionale, technische Unterstüt- zung sowohl für die Benutzer als auch die Tier2-Zentren. Daneben stellt GridKa zentrale Dienste, wie File-Kataloge, Informationssysteme und einen File Transfer Service für seine Tier2-Partner zur Verfügung. Mit dem Global Grid User Support (GGUS) bietet das SCC für die Nutzer verschiedener Grid-Umgebungen wie zum Beispiel WLCG (Worldwide LHC Computing Grid Project), D-Grid (Deutsche Grid-Initiative) und EGI (European Grid Initiative) eine zuverlässige Support-In- frastruktur. KIT – Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft Grid Computing Centre Karlsruhe (GridKa) – deutsches Tier1-Zentrum für den LHC www.kit.edu

Grid Computing Centre Karlsruhe (GridKa) - KIT - SCC · Verteilung der verbrauchten Rechenzeit am GridKa 2009. Die Daten umfassen 10, 9 Millionen Rechenaufträge (Jobs) mit einer

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

www.scc.kit.edu

www.kit.edu

GridKaHerausgeber

Steinbuch Centre for Computing (SCC)

D-76131 Karlsruhe

Redaktion: Ursula SchellerGrafi sche Gestaltung: John Atkinson

Stand: Februar 2010

Kontakt

Karlsruher Institut für Technologie (KIT)

Steinbuch Centre for Computing (SCC)

Grid Computing Centre Karlsruhe (GridKa)

Dr. Andreas Heiss

Projektleiter GridKa

Hermann-von-Helmholtz-Platz1

D-76344 Eggenstein-Leopoldshafen

Telefon: +49 7247 82 – 5639

E-Mail: [email protected]

STEINBUCH CENTRE FOR COMPUTING (SCC)

Support für Grid-Benutzer und Tier2-Zentren

Die Tier1-Zentren bieten regionale, technische Unterstüt-zung sowohl für die Benutzer als auch die Tier2-Zentren. Daneben stellt GridKa zentrale Dienste, wie File-Kataloge, Informationssysteme und einen File Transfer Service für seine Tier2-Partner zur Verfügung.

Mit dem Global Grid User Support (GGUS) bietet das SCC für die Nutzer verschiedener Grid-Umgebungen wie zum Beispiel WLCG (Worldwide LHC Computing Grid Project), D-Grid (Deutsche Grid-Initiative) und EGI (European Grid Initiative) eine zuverlässige Support-In-frastruktur.

KIT – Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Grid Computing Centre Karlsruhe (GridKa) –deutsches Tier1-Zentrum für den LHC

www.kit.edu

Verteilung der verbrauchten Rechenzeit am GridKa 2009.Die Daten umfassen 10, 9 Millionen Rechenaufträge (Jobs) mit einer Gesamtrechenzeit von insgesamt 42, 8 Millionen Stunden (4883 Jahren).

Atlas 27%

Babar 2%

CDF 2%

CMS 7%

Compass 2%

LHCb 9%

astrogrid 23%

Sonstige 0%

Alice 15%

DØ 13%

GridKa - eines der elf weltweiten Tier1-Zentren für den LHC

Um die riesigen Datenmengen des größten Teilchenbe-schleunigers der Welt, des Large Hadron Collider (LHC) am Europäischen Forschungszentrum CERN, verarbeiten und auswerten zu können, haben Wissenschaftler ein globales Netz von Computern geknüpft. Als einer der elf weltweiten Hauptknotenpunkte ist das am Steinbuch Centre for Com-puting (SCC) angesiedelte Grid Computing Centre Karlsru-he (GridKa) maßgeblich an der Speicherung und Analyse der Daten aus den LHC-Experimenten „ALICE”, „ATLAS”, „CMS” und „LHCb” beteiligt.

Darüber hinaus stellt GridKa Ressourcen für diejenigen deutschen Forschungsgruppen zur Verfügung, die an der Datenauswertung der Beschleuniger-Experimente „BaBar“ am SLAC (Stanford Linear Accelerator Center), „CDF“ und „D0“ am FermiLab (Fermi National Accelerator Laboratory) und „COMPASS” am CERN mitwirken.

Eine weitere Aufgabe besteht darin, Grid-Technologien zu entwickeln und zu erproben, deren Leistungsfähigkeit am Beispiel der Hochenergiephysik zu demonstrieren und die

gewonnenen Erkenntnisse anderen Wissenschaftszweigen mit ähnlichem Rechenzeitbedarf und Datenaufkommen zur Verfügung zu stellen.

Pro Jahr 16 Petabyte Datenvolumen

Am CERN wird ein Datenaufkommen von ca. 16 Petabyte pro Jahr erwartet. Für solche Datenmengen sind enorme Computerkapazitäten erforderlich – daher wurde 2001 das „Worldwide LHC Computing Grid Project“ (WLCG) als wei-teres Teilprojekt des LHC gegründet. Mit dem WLCG wur-de eine weltweite Computing-Infrastruktur geschaffen, die mehreren tausend beteiligten Wissenschaftlern aus über 50 Nationen die transparente Speicherung und Auswertung der LHC-Daten über Grid-Methoden ermöglicht.

Die Hauptaufgabe der ca. 100 weltweit verteilten Tier2-Zentren besteht wiederum darin, Monte-Carlo-Simulationen durchzuführen und Kapazitäten für die Datenanalysen der Endbenutzer bereitzustellen.

Mehr als 15 Tier2-Zentren angeschlossen

In fünf europäischen Ländern sind mehr als 15 Tier2-Zentren mit GridKa als ihrem zugeordneten Tier1-Zentrum verbun-den, speichern simulierte Daten und beziehen Experiment-Daten zur Auswertung durch die Physiker.

Zuverlässiges Großgerät für die Wissenschaft

Am SCC stehen derzeit über 8.600 CPU-Kerne sowie Fest-platten und Magnetbänder mit einer Gesamtkapazität von ca. 14 Petabyte für die Analyse und Auswertung der LHC-Experimente bereit. Redundant ausgelegte, zentrale Kom-ponenten, Grid-Services und Informationssysteme sowie eine detaillierte Überwachung von über 22.000 System-komponenten und Einzeldiensten sorgen dafür, dass mit GridKa am SCC ein zuverlässiges Großgerät für die Wissen-schaft zur Verfügung steht.

Globale Grid Computing-Infrastrukturbasiert auf Schichtenmodellbasiert auf SchichtenmodellAls Basis für diese globale Grid Computing-Infrastruktur dient ein Schichtenmodell (Multi-Tier) aus Rechenzentren mit unterschiedlichen Aufgaben. Das CERN hat als Tier0 die Aufgabe, die Rohdaten jedes der vier Experimente zu speichern und die erste Rekonstruktion dieser Daten durch-zuführen. Eine zweite Kopie der Rohdaten sowie die Ergeb-nisse der ersten Rekonstruktion werden an insgesamt 11 nationale oder multinationale Tier1-Zentren verteilt, so auch ans GridKa. Dort fi nden im Verbund zentral gesteuerte, re-guläre Datenanalysen, weitere Rekonstruktionen sowie die Speicherung der Daten aus den Tier2-Zentren statt.