52

Grußwort - LUIS · 2.7.2 Datenarchiv ... SAP-Rechner und SAP Basisbetreuung für die Verwaltungsbereiche mehrerer Hochschulen ... IdM-Projekt CAFM-Projekt IPAM 30240010

  • Upload
    doanbao

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

I

Grußwort

Liebe Kunden und Partner der Leibniz Universität IT

Services!

Die Leibniz Universität IT Services, vormals Regionales Rechenzentrum für Niedersachsen (RRZN),

stellen hier in der Rolle als zentraler IT-Dienstleister der Leibniz Universität Hannover ihren

2-Jahresbericht für 2011/2012 vor. Dieser Lagebericht , Rück- und Ausblick bietet eine umfas-

sende Sicht auf die angebotenen Services und umreißt kurz diejenigen Forschungsprojekte, ange-

siedelt im L3S, und die Lehraktivitäten innerhalb der Fakultät für Elektrotechnik und Informatik,

welche einen engen Bezug zum Rechenzentrumsbetrieb haben; alle Bereiche werden in Personal-

union von mir geleitet.

Die letzten beiden Jahre waren geprägt durch das IT-Reorg-Umsetzungsprojekt, welches am

1.1.2011 mit einer Dauer von 4 Jahren auf Basis des Präsidiumsbeschlusses vom 8.12.2010 ge-

startet wurde. Die Projektleitung liegt in meinen Händen. Im Projekt haben wir uns als Ziel ge-

setzt, einerseits die internen Strukturen ITIL konform umzugestalten, gleichzeitig aber auch das

Angebot an Services für unsere Kunden zu verbessern und zu erweitern. Diese Mehrbelastung

stellt eine enorme Herausforderung an die Durchführung des operativen Dauerbetriebes dar, was

durch neue zusätzliche Mitarbeiter aufgrund einer angemessenen Einarbeitungszeit lediglich

partiell kompensiert werden kann.

Für uns steht die Serviceorientierung im Vordergrund. Wir sind davon überzeugt, dass wir dies er-

neut mit Hilfe des vorliegenden 2-Jahresberichts verdeutlichen können. Um Ihnen eine Übersicht

über das umfangreiche Spektrum und die Inhalte unserer Tätigkeiten zu geben, finden Sie hier wie

gewohnt das aktuelle IT-Dienstleistungsportfolio, ergänzt durch Leistungskennzahlen zu ausge-

wählten Services unseres ständigen Angebotes.

Für die Mitarbeiterinnen und Mitarbeiter der Leibniz Universität IT Services bietet sich hier wie ge-

wohnt die Gelegenheit auf zwei arbeitsintensive und erfolgreiche Jahre zurückzublicken und an-

gesichts der gemeisterten Herausforderungen voller Zuversicht und mit Elan auch künftige Auf-

gaben und Neuerungen anzugehen.

Im Namen der Geschäftsleitung der Leibniz Universität IT Services bedanke ich mich bei allen Be-

teiligten für die Beiträge zu diesem Bericht sowie die geleistete Arbeit im Berichtszeitraum und

das entgegengebrachte Vertrauen.

Hannover im Mai 2013,

(Prof. Dr.-Ing. Gabriele von Voigt)

II

III

Inhalt

Grußwort .................................................................................................................................................................... i

1. Institution ..................................................................................................................................................... 1

1.1 Organisation und Mitarbeiter/innen ......................................................................................... 3

1.2 Leitbild der Leibniz Universität IT Services .............................................................................. 5

1.3 Personalentwicklung und Stellensituation ............................................................................. 6

2. Ständige Aufgaben und Dienstleistungsangebot ............................................................................... 7

2.1 Überblick und Kernkompetenzen der Leibniz Universität IT Services ........................... 7

2.2 Universitäres Datennetz ................................................................................................................ 7

2.2.1 Netzinfrastruktur .............................................................................................................................. 7

2.2.2 Weitverkehrsnetze: WiN, Internet, Netzzugänge.................................................................. 8

2.2.3 Leistungskennzahlen Netze .......................................................................................................... 9

2.3 E-Mail ................................................................................................................................................ 10

2.3.1 E-Mail mit Viren- und Spamabwehr ...................................................................................... 10

2.3.2 Leistungskennzahlen E-Mail mit Viren- und Spamabwehr ........................................... 11

2.4 Web-Dienste ................................................................................................................................... 11

2.4.1 TYPO3-Webservice ........................................................................................................................ 11

2.4.2 Kennzahlen des TYPO3-Webservices im Überblick ........................................................... 12

2.4.3 Hosting statischer Webseiten ................................................................................................... 12

2.5 IT-Sicherheit als Querschnittsaufgabe .................................................................................. 12

2.6 Server-Systemtechnik .................................................................................................................. 13

2.6.1 Compute-Server für wissenschaftliches Rechnen ............................................................ 13

2.6.2 SAP (ERP) .......................................................................................................................................... 17

2.6.2.1 SAP-Systeme ................................................................................................................................... 17

2.6.2.2 Leistungskennzahlen SAP........................................................................................................... 17

2.6.3 Studierenden-Server .................................................................................................................... 17

2.7 Backup und Archiv ........................................................................................................................ 17

2.7.1 Backup ............................................................................................................................................... 17

2.7.2 Datenarchiv ..................................................................................................................................... 18

2.7.3 Leistungskennzahlen Archivspeicher ..................................................................................... 18

2.8 Arbeitsplatzrechner ...................................................................................................................... 18

2.9 Ausbildung ....................................................................................................................................... 18

2.9.1 Kurse .................................................................................................................................................. 18

2.9.2 Berufsausbildung zum Fachinformatiker/zur Fachinformatikerin .............................. 19

IV

2.9.3 RRZN-Handbücher ....................................................................................................................... 19

2.10 e-Learning ........................................................................................................................................ 20

2.10.1 Lernmanagementsysteme .......................................................................................................... 20

2.11 Multimedia ...................................................................................................................................... 20

2.12 Anwenderberatung ....................................................................................................................... 21

2.12.1 Leistungskennzahlen Anwendersupport für EvaSys ........................................................ 21

2.12.2 Leistungskennzahlen Support für Anwender-Software ................................................. 21

2.13 Druckausgabedienste ................................................................................................................... 23

3. Schwerpunkte, Meilensteine und Neuerungen 2011-2012 .......................................................... 25

3.1 Konsolidierung und Modernisierung der Serverlandschaft .......................................... 25

3.2 Ausbau der SAP-Systemlandschaft ........................................................................................ 25

3.3 Erfolgreiche Abschlüsse der Auszubildenden ..................................................................... 26

3.4 Migration Netbackup nach Bacula ......................................................................................... 26

3.5 Server-Hosting und –Housing ................................................................................................. 26

3.6 Forschungscluster-Housing ...................................................................................................... 26

3.7 Ausbau Notebook-Verleih an Studierende .......................................................................... 27

3.8 Projekt Tele-APC in Produktivbetrieb überführt ................................................................ 28

3.8.1 Projekt „Alternierende Telearbeit“ in den Regelbetrieb überführt ............................... 28

3.9 Arbeitsplatzrechner ...................................................................................................................... 28

3.10 Online-Umfrage Tool LimeSurvey ........................................................................................... 29

3.11 Web Conference Management Tool ConfTool Pro ............................................................ 29

3.12 Software zur Plagiatserkennung ............................................................................................. 30

3.13 Software für Lernplattformen im Internet .......................................................................... 30

3.14 Videokonferenztool am PC ........................................................................................................ 30

4. Umsetzung des IT-Reorganisationsprojektes an der LUH 2011/12 ............................................ 31

4.1 Überblick Projektverlauf ............................................................................................................. 31

4.2 Tätigkeitsschwerpunkte und Ergebnisse im Berichtszeitraum ..................................... 32

4.2.1 Organisation und Querschnittsthemen ................................................................................ 32

4.2.2 Tätigkeiten und Ergebnisse im Bereich der ITIL-Prozesse .............................................. 33

4.2.3 Tätigkeiten und Ergebnisse im Bereich der Services ........................................................ 33

4.3 Projekt „ IT-Governance “ ........................................................................................................... 33

5. Ausblick 2013-2014 ................................................................................................................................ 35

5.1 Grand Challenges eines modernen universitären Rechenzentrums .......................... 35

5.2 Regelbetrieb der laufenden Dienste der Leibniz Universität IT Services ................... 36

5.3 IT-Reorg-Umsetzungsprojekt ................................................................................................... 37

5.4 Projekt IT-Governance ................................................................................................................. 37

6. Verknüpfung zu Forschung und Lehre ............................................................................................... 38

6.1 Hochleistungsrechnen................................................................................................................. 38

V

6.1.1 Hochleistungsrechner HLRN in Zahlen ................................................................................. 39

6.2 Distributed Virtual Reality (DVR) ............................................................................................. 40

6.3 Grid-Computing und e-Infrastrukturen ............................................................................... 40

6.3.1 DGI-2 Aufstockung ....................................................................................................................... 41

6.3.2 EGI-InSPIRE ..................................................................................................................................... 41

6.3.3 e-IRGSP3 .......................................................................................................................................... 41

6.3.4 FLINTH ............................................................................................................................................... 42

6.4 Lehre .................................................................................................................................................. 42

7. Abbildungsverzeichnis ............................................................................................................................. 43

VI

1

1. Institution

Die Leibniz Universität IT Services, bis 2010 unter dem Namen RRZN tätig, bieten seit ihrer Grün-

dung 1978 als zentrale Einrichtung der Leibniz Universität Hannover (LUH) über einen Zeitraum

von mehr als 30 Jahren IT-Dienste und IT-Infrastruktur für Forschung, Lehre und Verwaltung an.

Die Leibniz Universität IT Services offerieren ein umfassendes und aktuelles Angebot aus dem Be-

reich der IT-gestützten Informationsverarbeitung. Schwerpunkte dabei sind:

Konzeption und Betrieb des flächendeckenden Datennetzes der LUH

▪ Zugang zu externen Netzen (Wissenschaftsnetz, Internet)

▪ Netzdienste (insbesondere E-Mail)

▪ IT-Sicherheit

Betrieb leistungsfähiger Server

▪ Hochleistungsrechner für das wissenschaftliche Rechnen an der LUH und in den sechs teil-

nehmenden norddeutschen Bundesländern

▪ Backup und Archivierung für die LUH und die sechs angeschlossenen norddeutschen Bun-

desländer

▪ Linux-Cluster und SAN für die LUH

▪ SAP-Rechner und SAP Basisbetreuung für die Verwaltungsbereiche mehrerer Hochschulen

Forschung, Entwicklung und Lehre

▪ Betrieb eines Linux-Clusters und SAN für das Grid Computing in Deutschland mit Anschluss

an die EU-Grid-Infrastruktur

▪ Forschung und Lehre in den Bereichen Grid Computing und Hochleistungsrechnen

▪ Forschung und Lehre zur IT-Sicherheit und Netzwerktechnologien

Unterstützung der dezentralen IT in den Instituten

▪ Koordinierte Beschaffung und Weitergabe von Lizenzen für Software-Produkte

▪ Begutachtung und Beratung bei IT-Beschaffungen und deren Koordination

▪ Arbeitsplatzrechnerwartung und -upgrade

Ausbildung und Dokumentation

▪ RRZN-Handbücher für Anwender und Administratoren

▪ Kurse zu Betriebssystemen, Anwendungssoftware, Programmiersprachen u.v.m.

Unterstützung von Web-Diensten und e-Learning

▪ Entwicklung und Hosting von WWW-Präsentationen mit TYPO3

▪ Dienstleistungen zu Medienkommunikation

▪ Streaming, CD-/DVD-Produktion und 3D/Virtual Reality

2

Beratung

▪ Beratung und Unterstützung der Dezernate bei der Einführung von Systemen zur Informa-

tionsverarbeitung

▪ Beratung der Nutzer bei wissenschaftlichen Anwendungen und der IT-Ressourcennutzung

▪ Individuelle Beratung und Unterstützung der Mitarbeiter und Studierenden der LUH bei der

Nutzung der IT

▪ Beratung der Hochschulleitung bei der Einführung und strategischen Planung von Systemen

zur Informationsverarbeitung sowie der Kommunikations- und Multimediatechnik

Die Leibniz Universität IT Services versorgen sowohl die LUH mit allen Basis-IT- Diensten als auch

in regionalen und überregionalen Verbünden Hochschulen und Forschungseinrichtungen in ganz

Norddeutschland mit IT-Ressourcen, Lizenzen und IT-Diensten. Hierzu gehört insbesondere die

Bereitstellung des HLRN-II-Hochleistungsrechners im Rahmen des „Norddeutschen Verbundes für

Hoch- und Höchstleistungsrechnen“ für die Länder Berlin, Bremen, Hamburg, Mecklenburg-Vor-

pommern, Niedersachsen und Schleswig-Holstein und seit dem 14.12.2012 auch Brandenburg.

3

1.1 Organisation und Mitarbeiter/innen

Die Leibniz Universität IT Services gliedern sich unter der Leitung der Direktorin in die Bereiche

User Help Desk mit SPOC (single point of contact), Arbeitsplatzrechner und Sicherheit, Kommu-

nikationssysteme, Serversysteme, HLRN und wissenschaftliche Anwendungsbetreuung sowie

einen Verwaltungsbereich. Die Struktur wurde im Dezember 2010 im Rahmen des IT-Reorgani-

sationsprojektes grundlegend implementiert, vom Präsidium befürwortet und entsprechend der

sich ändernden Erfordernisse ausgebaut (s. nachfolgende Abbildung).

Leitung/Geschäftsführung

30200000

Controlling30200000

Qualitäts-management

30200000

Sekretariat30200000

Verwaltungs-aufgaben30200000

Technische RZ-Infrastruktur30220000

Personal30200000

EinkaufFaktura

30200000

Help Desk & SPOC30220020

Netz 30240020

E-Mail30240010

Webservice30250010

Kalender30240010

Betrieb Infrastruktur L+F

30240030

APC30240030

ServerhostingApplikationhosting

30230000

Serverhousing30230000

Druckservice30220010

Lizenz-management

30230020

Backup & Archiv30230010

ForschungsclusterHousing

30230000

Dateiservice30200020

Videokonferenz, Multimedia

Compute-ServerWissenschaftl.

Rechnen30230000

EvaSys 30230000

IT-Security30200010

SchulungenKurs

30270000

Notebook-Verleih(Studiengeb.)

Projekt

DFN-PKI30200010

IdM-Projekt

CAFM-Projekt

IPAM30240010

HPC/HLRN Admin und Anwender-

Betreuung30290000

SAP-Basis30280000

Handbücher30270020

Anwendungsbetr.Wissenschaftl.

Rechnen30260000

Tele-AP Projekt30240030

Ausbildung Fachinformatiker

30240000

Begutachtung von IT-Beschaffungen

30200000

HousingHis-in-One30230000

User Help Desk30220020

E-Learning StudIP

30230000

Aufbauorganisation mit Kostenstellen einschließlich Projekten per 31.12.2012

Arbeitsplatzrechner & Sicherheit 30200010

Kommunikations-systeme

30240000

N.N.Compute &

Speicher Systeme30230000

HPC/HLRN 30290000

IncidentManagement

Change Management

Problem Management

Release Management

Configuration Management

Service Level Management

Kunden Management

Prozess Verantwortung

Legende:

Abbildung 1: Aufbauorganisation

4

Sie ist die wesentliche Voraussetzung zur weiteren erfolgreichen Etablierung der Leibniz Univer-

sität IT Services als zentralem IT-Dienstleister an der Leibniz Universität Hannover, welcher kon-

sequent eine kontinuierliche Serviceoptimierung sowie eine stetige, bedarfsgetriebene Weiterent-

wicklung und Anpassung seines Produktportfolios fokussiert.

Neben den Ergebnissen des LUH-IT-Reorganisationsprojektes wurden bei der Umsetzung insbe-

sondere folgende DFG-Empfehlungen1 beachtet:

„Die IT-Infrastruktur ist somit zum Rückgrat moderner Hochschulen geworden, sie betrifft, treibt

und beflügelt all deren Bereiche wie Forschung, Lehre, Verwaltung, Leitungsstrukturen oder Hoch-

schulmedizin.“ …

„IT-Infrastruktur kann ihrer Aufgabe, Prozesse zu unterstützen und zu verbessern, aber nur ge-

recht werden, wenn diese ganzheitlich konzipiert sowie sinnvoll definiert sind und wenn die qua-

litativen und quantitativen Ressourcen auch bereitgestellt werden.“

Mit der Einführung eines zentralen IT-Support-Desks für die gesamte LUH gemäß ITIL® V3, wurde

als wesentliche Neuerung der Bereich User-Help-Desk als eigenständiger Leitungsbereich einge-

führt, der die zentrale Anlaufstelle für alle Nutzer darstellt. Der Help-Desk nutzt seit 01.12.2012

zur Erfassung, Bearbeitung und/oder Weiterleitung von Incidents und Service Requests an den

Second–Level-Support, das Open Source Ticketsystem OTRS. Damit kann die Implementierung des

ITIL® V3 Prozesses Incident Management als weitestgehend abgeschlossen betrachtet werden.

Darüber hinaus wurden bzw. werden im ITIL® V3-Umsetzungsprojekt folgende Prozesse umge-

setzt:

▪ Service Level Management/Kundenmanagement

▪ Service Asset & Configuration Management

▪ Change Management

▪ Problem Management

▪ Release Management

▪ Prozessübergreifendes Qualitätsmanagement

Das zuvor dargestellte Organigramm zeigt die Verankerung der Prozess-Verantwortlichkeiten in

der Organisation der Leibniz Universität IT Services.

1 Quelle: DFG Informationsverarbeitung an Hochschulen – Organisation, Dienste und Systeme

Empfehlungen der Kommission für IT-Infrastruktur für 2011–2015, Seite 1

5

1.2 Leitbild der Leibniz Universität IT Services

Das Profil der Leibniz Universität IT Services ist geprägt durch seine Rolle als Service-Anbieter von

IT-Diensten für die gesamte Leibniz Universität Hannover. Basierend auf dem Einsatz der Informa-

tionstechnologie werden die Kunden bei der Erreichung ihrer Ziele unterstützt.

Die IT-Kompetenz des gesamten Teams sorgt für einen hochqualitativen Service für unsere stets

im Mittelpunkt stehenden Nutzer. Unser Potenzial in Service, Forschung und Lehre steht unseren

Kunden für Aufgaben des täglichen IT-Betriebs bis hin zu komplexen wissenschaftlichen Frage-

stellungen zur Verfügung.

Der Servicegedanke entspringt der konsequenten Orientierung am Leitbild, welchem sich alle Mit-

arbeiter/innen der Leibniz Universität IT Services verpflichtet fühlen:

Wer sind wir?

▪ IT-Dienstleister der Leibniz Universität Hannover

Was wollen wir?

▪ Effizienz und Wirtschaftlichkeit steigern

▪ Unsere Dienste für andere niedersächsische Hochschulen ausbauen

Wofür stehen wir?

▪ Qualität

▪ Zuverlässigkeit

▪ Innovative IT

Was bieten wir?

▪ Netze, IT-Security, HPC/Grid, Archiv/Backup, Computing Services

▪ SAP, E-Mail, Print, Handbücher, Suchmaschinen, Software/Lizenzen

▪ Multimedia, Content Management System, VoIP, Identity Management

▪ Ausbildung, Lehre, Forschung, Planung/Consulting, und, und, und…..

Wer sind unsere Kunden?

▪ Verwaltung, Institute und Studierende der Leibniz Universität Hannover

▪ Hochschulen in Niedersachsen, EU, BMBF, DFG, MWK, LSKN und viele weitere Auftraggeber

Wie wollen wir von unseren Kunden gesehen werden?

▪ Kompetent

▪ Zuverlässig

▪ Zukunftsweisend

▪ Serviceorientiert

Was erwarten unsere Kunden von uns?

▪ Stabilität des Produktionsbetriebs

▪ Kontinuität der Services

▪ Flexibilität des Angebots

6

1.3 Personalentwicklung und Stellensituation

Während die Anzahl der Feststellen (FS) von 2003 (72) bis 2010 (58) um über 19 % gesunken war,

konnte durch die Übernahme weiterer Aufgaben sowie durch die IT-Reorganisation und der damit

verbundenen personellen Aufstockung in 2012 wieder ein Bestand von 69 Feststellen erreicht

werden.

Die Anzahl der drittmittelfinanzierten Forschungsstellen (DMFS) ist im Zeitraum von 2010 (13) bis

2012 (11) um 15 % gesunken. Durch die IT-Reorganisation mussten jedoch bis 2012 zusätzlich

noch weitere 9 Mitarbeiter befristet (Präsidiumsbeschluss) eingestellt werden.

Aktuell stellt der drittmittelfinanzierte Forschungsbereich 11 % des Personals (Bezugsbasis =

Feststellen + Personal aus drittmittelfinanzierten Forschungsstellen) und übernimmt dabei auch

zunehmend Pilotentwicklungen für Aufgaben des Servicebereichs und im Rahmen der IT-Reorga-

nisation.

Neben den Festangestellten und dem Forschungspersonal sowie den befristeten IT-Reorg-Mitar-

beitern verfügten die Leibniz Universität IT Services zum Jahreswechsel zusätzlich über 8 zeitlich

befristete (BPS) und 6 unbefristete Projektstellen(UBPS). Hierzu zählen u.a. einrichtungsinterne

Projekte zur Implementierung neuer Verfahren, das Projekt Identitätsmanagement, die Erweite-

rung der SAP R/3 Basisbetreuung, Studiengebühren und CAFM.

7

2. Ständige Aufgaben und Dienstleistungsangebot

2.1 Überblick und Kernkompetenzen der Leibniz Universität IT Services

In den folgenden Bereichen sehen die Leibniz Universität IT Services derzeit ihre Schwerpunkte:

▪ Konzeption und Betrieb des flächendeckenden Datennetzes der Leibniz Universität Hannover

▪ Zugang zu externen Netzen (Wissenschaftsnetz, Internet)

▪ Netzdienste (insbesondere E-Mail)

▪ IT-Sicherheit

▪ Betrieb leistungsfähiger Server

▪ Hochleistungsrechnen für wissenschaftliche Anwendungen

▪ Linux-Cluster und SAN im singulären Betrieb und im Grid Computing

▪ Backup und Archivierung

▪ SAP-Rechner für die Verwaltungen mehrerer Hochschulen

▪ Unterstützung der dezentralen IT in den Instituten

▪ Housing und Hosting Services

▪ Weitergabe von Lizenzen für Software-Produkte

▪ Begutachtung, Beratung und Koordination bei IT-Beschaffungen

▪ Ausbildung (Kurse)

▪ RRZN-Handbücher für Anwendungen und Administration

▪ Unterstützung von e-Learning durch Dienstleistungen zu Medienkommunikation, Streaming,

CD-/DVD-Produktion und 3D/Virtual Reality

▪ Entwicklung und Hosting von WWW-Präsentationen auf Basis des Content-Management-

Systems TYPO3

▪ Unterstützung aller LUH-Nutzer bei der Einführung und strategischen Planung von Syste-

men zur Informationsverarbeitung sowie der Kommunikations- und Multimediatechnik, For-

schung, Entwicklung und Lehre

▪ Forschung und Lehre in den Bereichen Grid Computing und Hochleistungsrechnen sowie zu

IT-Sicherheit und Netzwerktechnologien

▪ Entwicklung und Betrieb von Grid-Diensten

▪ Applikationshosting für eine Vielzahl von Organisationseinheiten der LUH

2.2 Universitäres Datennetz

2.2.1 Netzinfrastruktur

Das von den Leibniz Universität IT Services entwickelte Vernetzungskonzept für die Leibniz

Universität Hannover berücksichtigt drei Verteilungsebenen:

▪ Ebene 1 beinhaltet das Hochleistungsdatennetz in Lichtwellenleiter-Technik als „backbone/

backend“-Netz im zentralen Bereich der LUH (Campus-Netz).

▪ Ebene 2 bilden die Gebäudenetze, die ebenfalls mit Lichtwellenleitern realisiert werden.

▪ Ebene 3 ist die Vernetzung innerhalb der Institute; hierfür wird eine sternförmige Kupfer-

draht-Verkabelung zum Einsatz gebracht.

Die aktiven Netzkomponenten sind Router und Switches. Als Technologie wird Ethernet mit

Transferraten bis zu 10 Gigabit (GB) pro Sekunde eingesetzt. Die großen Liegenschaftsverteiler

Welfengarten, Callinstraße und Schloßwender Straße, sowie einige kleinere Liegenschaftsverteiler

sind mit 10 Gigabit Ethernet verbunden. Im geringen Ausmaß existieren Rechneranbindungen mit

10 GB Ethernet (GBE) (siehe auch 2.2.2). In der Ebene 1 wurde die Planung des weiteren Ausbaus

8

auf 10 GB Ethernet mit redundanter sternförmiger Anbindung an zwei zentrale Verteiler abge-

schlossen. Zusammen mit dem für Anfang 2011 realisierten Ausbau des LWL-Netzes wurde damit

eine noch höhere Verfügbarkeit des LUH-Datennetzes erzielt.

Aus den Netzebenen heraus können die zentralen Ressourcen sowie Zugänge in Weitverkehrs-

netze (WiN, Internet) in Anspruch genommen werden.

Neben der drahtgebundenen Kommunikation existieren in 96 Gebäuden Wireless-LAN (WLAN)

Access-Points, über die man sich in das Datennetz einwählen kann. Das WLAN mit aktuell 813

Access-Points (Stand 12/2012) wird mit dem Ziel einer Vollversorgung auf dem Campus der LUH

stetig erweitert.

2.2.2 Weitverkehrsnetze: WiN, Internet, Netzzugänge

Das Datennetz ist an das Wissenschaftsnetz des DFN-Vereins (WiN) angeschlossen, über welches

Zugänge ins Internet bestehen. Die für die Leibniz Universität Hannover verfügbare Anschlussrate

hat sich dabei seit 2005 mehr als verzehnfacht.

Wesentliche Voraussetzung hierfür war die am 29. Oktober 2007 vollzogene Umstellung des Da-

tenanschlusses der Leibniz Universität an das vom DFN betriebene Wissenschaftsnetz (X-WiN) von

Gigabit-Ethernet-Technik auf die 10 Gigabit Version.

In Verbindung mit dieser Änderung wurden auch die wesentlichen aktiven Netzkomponenten

(Router, Firewall) durch entsprechend leistungsfähigere Geräte ersetzt.

Abbildung 2: Entwicklung der Anschlussrate2

Für den Zugang (Modem, ISDN, ADSL) vom häuslichen Arbeitsplatz in das universitäre Datennetz

unterstützt die Leibniz Universität IT Services die Anschlusslösungen „DFN@home“ sowie die

direkte Einwahl per ISDN.

Für den Zugang aus dem Internet (über Fremdprovider) bieten wir eine gesicherte Übertragung

(IPSec) über ein Virtual Private Network (VPN).

2 Das aktuelle Nutzungsvolumen liegt auf dem Niveau von 2008, wobei allerdings als qualitative Erweiterung eine

redundante XWIN-Anbindung von 3 GB/s auf gleicher Ebene realisiert wurde.

0

500

1000

1500

2000

2500

3000

3500

2006 2008 2010 2012

Ansc

hlu

ssra

ten in G

B/s

Jahr

9

2.2.3 Leistungskennzahlen Netze

Das Datennetz der Leibniz Universität umfasst aktuell ca. 220 Subnetze und über 10.000 Endge-

räte in den Instituten und Einrichtungen.

Die Grafik zeigt die positive Entwicklung der jährlich von den Zentralen Services Informations-

technologie durchgeführten drahtgebundenen Vernetzungsmaßnahmen pro Jahr seit 2005:

Abbildung 3: Vernetzungsmaßnahmen pro Berichtsjahr

Hierin sind nur Maßnahmen enthalten, die neben der großen Netzsanierung (Rahmenplanmaß-

nahme) durchgeführt wurden. Die sogenannten „Kleinen Vernetzungsmaßnahmen“ sind notwen-

dig, um schnell und flexibel auf kurzfristig sich ergebende Bedarfe und Anforderungen an das Da-

tennetz der LUH reagieren zu können.

Abbildung 4: Anzahl der Passiven Ports

Fasst man alle Datennetzsanierungsmaßnahmen zusammen, ergibt sich eine Zunahme um insge-

samt 3344 auf 44.659 passive Ports im Berichtszeitraum.

Neben dem Ausbau der passiven Netzinfrastruktur wird auch das aktive Netz erweitert und stetig

0

20

40

60

80

100

120

2005 2006 2007 2008 2009 2010 2011 2012

Anza

hl der

Maß

nahm

en

Jahr

0

5000

10000

15000

20000

25000

30000

35000

40000

45000

50000

2004 2005 2006 2007 2008 2009 2010 2011 2012

Pass

ive

Port

s

Jahr

10

modernisiert. Parallel wuchs auch die Anzahl der von den Leibniz Universität IT Services instal-

lierten WLAN-Access-Points seit 2005 von 150 auf 813 Einheiten in 96 Gebäuden in 2012.

Zum gegenwärtigen Zeitpunkt werden die WLAN-Accounts genutzt von:

▪ 22.236 Studierenden und

▪ 4.384 Bediensteten der LUH

Damit kommt der WLAN-Ausbau insbesondere den Studierenden der LUH zugute.

Die Internet/WiN-Anschlusskapazität wurde ebenso kontinuierlich quantitativ und qualitativ

erweitert:

Das Volumen der gesendeten Daten aus dem Datennetz der Universität betrug 2011 89 TByte

(TeraByte) monatlich; der Umfang der empfangenen Daten aus dem Wissenschaftsnetz

(WiN/Internet) lag bei 72 TByte monatlich. Für 2012 betrug das durchschnittliche, monatlich ge-

sendete Volumen 119 TByte und das empfangene Volumen 80 TByte. Damit hat sich das monat-

lich gesendete Datenvolumen seit 2009 mehr als verdoppelt.

2.3 E-Mail

2.3.1 E-Mail mit Viren- und Spamabwehr

Der E-Mail-Service der Leibniz Universität IT Services besteht aus zwei Bereichen:

▪ Mailboxen: für den Empfang und die Ablage von E-Mails betreuen die Leibniz Universität IT

Services derzeit 9.000 Mailboxen in rund 300 Einrichtungen/Instituten der LUH. Jeder Nutzer

erhält zusätzliche 4 GB Speicherplatz auf einem Mail-Archiv-System.

▪ Mail-Relay: Alle E-Mails, die zur LUH gesendet werden, passieren zuerst die Mail-Relays des

Providers DFN. Hier werden die E-Mails auf Viren und Spam überprüft und an die internen

Server im Rechenzentrum weitergeleitet, wo ein erneuter Virenscan erfolgt.

Folgende Bereiche bilden die technische Grundlage für nachstehende Angebote:

▪ Mailboxen: Mit der Einrichtung einer Mailbox auf den Mail-Servern der Leibniz Universität IT

Services können Beschäftigte der Leibniz Universität Hannover am weltweiten E-Mail-Ver-

kehr teilnehmen.

▪ Die Webmail-Schnittstelle gestattet den Zugriff auf das Postfach über einen Webbrowser

von Zuhause oder weltweit.

▪ Mail-Klienten: Zur Bearbeitung der Mails wird ein entsprechendes Mail-Bearbeitungspro-

gramm benötigt.

▪ Mail-Server: Mehrere Server übernehmen in den Leibniz Universität IT Services die Aufgabe,

E-Mails weiterzuleiten oder zu empfangen.

▪ Mail-Archiv: Parallel zur Mailbox auf dem Mail-Eingangs-Server der Leibniz Universität IT

Services steht ein Archiv-Mail-Server zur Verfügung, in dem größere Mengen an zu archi-

vierenden E-Mails gelagert werden können. Dieser Archiv-Server ist für Mailbox-Nutzer des

Leibniz Universität IT Services-Maildienstes automatisch eingerichtet. Durch größere Mail-

Ablagen im Mail-Archiv wird eine bessere Performance bei der täglichen Mail-Bearbeitung

erreicht. Für das Mail-Archiv gibt es eine Kontingentierung des Plattenplatzes, verbunden mit

einem Volumen-Limit für die Archiv-Ablage (Voreinstellung 4 Gigabyte).

▪ SMTP-Server (Post-Ausgangs-Server) dient dem E-Mail-Versand und wird im Mailbearbei-

tungsprogramm auf dem PC eingetragen.

▪ Spam und Virenabwehr wird durch vorgelagerten Dienst des DFN-Vereins erbracht und dient

einer erhöhten Sicherheit der Nutzer im LUH-Datennetz.

▪ Das Mailinglisten-Management der Leibniz Universität IT Services ermöglicht den Betrieb

eines komfortablen Postverteilers.

11

2.3.2 Leistungskennzahlen E-Mail mit Viren- und Spamabwehr

Die Leibniz Universität IT Services verantworten die Betreuung von 9.000 Mailboxen in 300 Ein-

richtungen/Instituten (zum Vergleich: in 2011 lag der Bestand bei 7500 Mailboxen). In 2012

wurden im Schnitt 320.000 Mails pro Tag für die LUH über die Mail-Relays des Rechenzentrums

angenommen. Versendet wurden rund 38.000 Mails/Tag. Im gesamten Jahr 2012 wurden 120

Mio. Mails verarbeitet. Im eingehenden Mailverkehr betrug die SPAM-Quote rund 50 %.

2.4 Web-Dienste

Die Leibniz Universität IT Services bieten Einrichtungen der Leibniz Universität Hannover Dienst-

leistungen für die Einrichtung und den Betrieb von Web-Auftritten. Zu unterscheiden sind hierbei

zwei Angebote: Den Web-Service auf Basis des Content-Management-Systems TYPO3 („TYPO3-

Webservice“) einerseits sowie das Hosting statischer Webseiten andererseits.

2.4.1 TYPO3-Webservice

Die Leibniz Universität IT Services bieten für Institute und Einrichtungen der Leibniz Universität

Hannover einen Service zur Erstellung und Pflege ihrer Webpräsenzen (Web-Sites) an. Der Web-

service basiert auf dem Content-Management-System (CMS) TYPO3. TYPO3 ist ein leistungsfä-

higes Content-Management-System, das lizenzkostenfrei als Open-Source-Software verfügbar ist

(www.typo3.org) und alle Möglichkeiten eines modernen CMS bietet (Trennung von Inhalt und

Layout, Rechte- und Rollenkonzepte für Redakteure, einfache Bearbeitung der Inhalte über das

Web-Frontend).

Zentraler Punkt des TYPO3-Services ist eine für jede Einrichtung vorkonfigurierte Webpräsenz mit

entsprechendem Leistungsumfang („TYPO3-LUH-Framework“). Das Layout der Webseiten im

TYPO3-LUH-Framework entspricht den Corporate-Design-Vorgaben der LUH. Zum Leistungsum-

fang gehören Schnittstellen zum Campusmanagementsystem der LUH und Web-Anwendungen

(Extensions) für Anforderungen in typischen Instituts-Webpräsenzen (u.a. zur Verwaltung von

Publikationen, Forschungsberichten). Der Leistungsumfang des TYPO3-LUH-Frameworks wird lau-

fend erweitert und aktuellen Anforderungen im Web angepasst.

Jede Webpräsenz erhält eine eigene URL (i.d.R. www.[institutskuerzel].uni-hannover.de) Das Lay-

out kann durch einrichtungseigene Hintergrund-Grafiken und Logos angepasst werden.

Die Bearbeitung der Web-Seiten und Inhalte erfolgt durch die Mitarbeiterinnen und Mitarbeiter

der Einrichtung, d.h. diese arbeiten als Redakteure am TYPO3-Web-Auftritt. In TYPO3 erfolgt die

redaktionelle Arbeit i.d.R. direkt und einfach per Mausklick und Text-Editor auf der Web-Ober-

fläche (Frontend-Editing).

Zum Webservice gehören weiterhin:

▪ umfassende Beratung zu Webanwendungen

▪ Webpräsenzen

▪ Schulung und Dokumentation

▪ Support bei der Nutzung

In 2012 wurden 10 Schulungen mit jeweils ca. 12 Teilnehmern zum TYPO3-Framework angeboten.

Zielgruppe waren Mitarbeiter/-innen, die Inhalte in den TYP03-Webauftritten bearbeiten. Zudem

wurden Workshops zu speziellen Themen des Webangebots angeboten.

Für den Betrieb des Web-Services werden vier Server (DELL Xeon) eingesetzt. Zwei dieser „realen“

(„physikalischen“) Server dienen als Wirtsysteme für virtuelle Server. Jeder virtuelle Server bietet

dann eine weitgehend gekapselte Betriebssystemumgebung für eine oder mehrere TYPO3-In-

stallationen. Es sind 65 virtuelle Server (Gastsysteme) auf den fünf physikalischen Servern (Wirt-

systeme) installiert. Jeder virtuelle Server enthält ein bis max. 10 TYPO3-Installationen (TYPO3-

12

Instanzen). Mit Stand April 2013 werden 160 TYPO3-Instanzen installiert sein.

Zwei Server werden als Datenbankserver eingesetzt. Jede TYPO3-Installation erfordert eine Daten-

bank (TYPO3 ist ein vollständig dynamisches CMS, alle Seiten und Inhaltselemente werden als Da-

tenbank-Elemente gespeichert). Das Datenbank-Management-System (DBMS) ist MySQL. TYPO3-

Installationen und Datenbanken werden bei den Leibniz Universität IT Services-Installationen auf

getrennten Servern betrieben (TYPO3-Server und Datenbankserver).

Suchmaschine

Um eine leistungsfähige Suche über die TYP03-Webauftritte zu erreichen, wird eine eigene Such-

maschine auf Basis von Apache, Nutch und Solr betrieben. In der Suche sind 98.331 Seiten indi-

ziert.

2.4.2 Kennzahlen des TYPO3-Webservices im Überblick

Webpräsenzen und Inhalte (Stand Dezember 2012):

▪ 303 Webauftritte online

http://www.rrzn.uni-hannover.de/typo3_projekte.html

▪ 34.537 Seiten mit 91.871 Inhaltselementen und 15.064 aktuelle Meldungen über alle Web-

auftritte

▪ 2.530 Redakteure

▪ 160 TYPO3-Installationen

(eine TYPO3-Installation kann mehrere Webauftritte beinhalten)

Schulung und Support:

▪ 10 Schulungen für Redakteure pro Jahr

▪ laufender Support (Beratung, Anpassung, Weiter- und Neuentwicklung von Webanwen-

dungen)

Server:

▪ 2 Server, aufgeteilt in 65 virtuelle Server mit 160 TYPO3-Installationen

▪ 2 Datenbankserver

2.4.3 Hosting statischer Webseiten

Neben dem TYPO3-Webservice bieten die Leibniz Universität IT Services ein Hosting für statische

Web-Auftritte an. Damit wird LUH-Einrichtungen die Möglichkeit geboten, Web-Auftritte zu

hosten, die ohne serverseitige Programme (PHP, CGI, o.ä.) auskommen. Bedarf für solche Web-

Auftritte ergibt sich z.B. bei Online-Berichten bezüglich Forschungsaktivitäten, Tagungen etc., die

nicht im institutseigenen Webbereich dargestellt werden sollen oder können.

Den Einrichtungen wird mit diesem Dienst eine Alternative zum Betrieb eines institutseigenen

Web-Servers eröffnet. Layout und Inhalt der Web-Seiten liegen vollständig in der Verantwortung

der jeweiligen Einrichtung.

2.5 IT-Sicherheit als Querschnittsaufgabe

Das Rechenzentrum bietet für die gesamte Universität eine Reihe an Diensten präventiver und

reaktiver Art zur IT-Sicherheit an:

13

▪ Viren- und Spam-Abwehr für E-Mails

▪ Bereitstellung aktueller Antivirensoftware

▪ Beratung und Unterstützung bei der Einrichtung institutsspezifischer Firewall-Technik

▪ Betrieb einer Registrierungsstelle in der DFN-PKI

▪ Ausbildung ("Sicherheitstage") und Beratung

▪ Hilfe bei Sicherheitsvorfällen, auch vor Ort, durch das Sicherheitsteam.

Für die Virenabwehr für Clients und Server wird an der LUH die Security-Software Sophos-End-

point-Security eingesetzt. Die Software kann von Beschäftigten und Studierenden für dienstliche

und auch private Rechner unentgeltlich bezogen werden. Die Viren- und Spamabwehr ist in 2012

von der bisherigen Sophos-Puremessage-Lösung auf eine Lösung des DFN umgestellt worden.

Dadurch wurde die Sicherheit deutlich erhöht, da nun nicht nur ein Virenscanner-Produkt, son-

dern drei dabei zum Einsatz kommen: Vor allem für Zero-Day-Attacks ist heute ein einzelner Vi-

renscanner kaum noch ausreichend; ein Mix verschiedener Hersteller, wie nun in der DFN-Lösung,

verringert den Angriffsvektor erheblich.

Der Betrieb der Netzschutz-Firewalls für Institute sowie der Registrierungsstelle für die Ausstel-

lung von x509-Zertifikaten wurde fortgeführt. Darüber hinaus nimmt die Beratung nicht nur über

die IT-Sicherheits-Webseiten und die Schulungen in Form von Sicherheitstagen, sondern auch in

der Beteiligung an IT-Projekten und durch individuelle Beratung erfreulicherweise einen größeren

Stellenwert ein.

2.6 Server-Systemtechnik

2.6.1 Compute-Server für wissenschaftliches Rechnen

Die Clustersysteme der Leibniz Universität IT Services sind in ihrer Summe ein allgemein zugängli-

ches Großgerät für die simulationsbezogene Forschung aller Mitarbeiterinnen und Mitarbeiter der

Leibniz Universität Hannover und stehen diesen kostenfrei zur Verfügung. Das System ist hetero-

gen aufgebaut, um die verschiedenen Bedürfnisse der Nutzer zu bedienen und den Bedarf an Re-

chenleistung abzudecken. Die Heterogenität des Systems spiegelt auch die Nutzerlandschaft wi-

der: Es gibt kurze Jobs, die (verhältnismäßig) wenig Hauptspeicher und nur einen Rechenkern be-

nötigen, aber auch sehr lange Jobs, die sehr viel Hauptspeicher und über 100 Rechenkerne benö-

tigen.

Es ist ein System für jedermann: Die Nutzer kommen nicht nur aus den üblichen Gebieten Physik,

Mathematik und Ingenieurwissenschaft, sondern auch aus den Bereichen Chemie, Biologie, Infor-

matik und Wirtschaftswissenschaften.

Wenn man als Mitarbeiter der LUH das Clustersystem nutzen möchte, ist ein Zugang innerhalb

weniger Stunden eingerichtet, und die ersten Rechenjobs können gestartet werden.

Das Team des Clustersystems hat jeweils einen separaten Jahresbericht für die Jahre 2009-2010,

2011 und 2012 veröffentlicht. Die aktuelle Ausgabe findet sich online unter:

http://www.rrzn.uni-hannover.de/clusterjahresbericht.html

Die Clusterjahresberichte zeigen deutlich die Vielfalt des wissenschaftlichen Rechnens an der

LUH; auch die Berichte einzelner Forschungsprojekte, welche das Cluster nutzen sind inkludiert.

14

Aufbau des Computesystems

Das Clustersystem ist ein Verbund aus 190 Rechenknoten mit insgesamt 2552 Rechenkernen und

12.088 GB Hauptspeicher.

Diese Rechner werden über ein gemeinsames Batchsystem angesprochen und mit Rechenjobs be-

laden. Der Zugang zum System erfolgt über zwei Login-Knoten, die zusammen 24 Rechenkerne

und 96 Gigabyte Hauptspeicher besitzen. Es stehen insgesamt über 17 Terabyte Festplattenspei-

cher für Nutzer-HOME-Verzeichnisse und über 69 Terabyte für temporäre Dateien (im BIGWORK-

Verzeichnis) zur Verfügung.

Die folgende Tabelle gibt eine Übersicht der wichtigsten Rechenknoten des Clustersystems in den

Jahren 2011 und 2012:

Cluster bzw.

Rechnername

Beschreibung Anzahl

Knoten

Anzahl

Kerne

pro

Knoten

Haupt-

speicher/

Knoten

(GB)

Login-Knoten Dialog und

interaktive

Nutzung

2 12 48

SMP Anwendungen

mit hohem

Speicherbedarf

11 24 256

Estragon Anwendungen

mit hohem

Speicherbedarf

1 16 96

Centaurus Anwendungen

mit hohem

Speicherbedarf

1 32 512

Helena Anwendungen

mit hohem

Speicherbedarf

1 160 640

Tane Serielle und

hochparallele

Anwendungen

96 12 48

Taurus Serielle und

hochparallele

Anwendungen

54 12 48

Paris Serielle und

hochparallele

Anwendungen

11 8 64

Tesla GPGPU

Anwendungen

1 8 24

15

Speicherplatz am Clustersystem

Neben dem zentralen Plattensystem für die HOME-Verzeichnisse steht das zentrale Plattensystem

für temporäre Dateien –BIGWORK- zur Verfügung. Dieses Plattensystem ist über 69 Terabyte groß

und besteht aus 14 RAID-5 Verbünden von 1 und 2 Terabyte SATA-Festplatten. Darüber arbeitet

das „high-performance“ und skalierbare Dateisystem namens "Lustre" und stellt die einzelnen

Festplattenverbünde als ein Dateisystem dar.

Die Zusammenstellung ist über das Infiniband-Netz ans Clustersystem angebunden, so dass Lese-

und Schreibvorgänge sogar schneller sind als im HOME-Verzeichnis, welches nur über NFS ange-

bunden wird.

Rechenleistung

Die von den Leibniz Universität IT Services zur Verfügung gestellte Rechenleistung muss perma-

nent dem stetig wachsenden Bedarf angepasst werden. Folgende Grafik veranschaulicht die Stei-

gerung der Rechenleistung in den letzten Jahren. Die blaue Kurve zeigt die tatsächliche Rechen-

leistung. Die grüne Kurve zeigt die Rechenleistung im Verhältnis zur Leistungsaufnahme und ist

ein Indikator für die Energie Effizienz des Clustersystems.

Abbildung 5: Rechenleistung des Clustersystems

16

Die folgende Grafik zeigt die verbrauchten CPU Stunden der Institute in 2011/2012, sortiert nach

Anzahl (Institute mit weniger als 10.000 CPU Stunden sind hier nicht dargestellt).

Wachstum und Effizienzsteigerung 2011-2012 in Zahlen:

▪ Erhöhung der Gesamtzahl der Rechenknoten von 115 auf 190

▪ Zunahme der Rechenkerne von 1.516 auf 2.552

▪ Zunahme der Anzahl teilnehmender Institute von 41 auf 53

▪ Anstieg der aktiven Nutzer von 139 auf über 300 (Ende 2012)

Service des Clusterteams

Für die effiziente Nutzung des Systems bietet das Team Clustersysteme Einführungsvorträge an.

Diese beinhalten Themen wie Zugangsberechtigungen zum Cluster und Bearbeitung von Rech-

enjobs. Für letztgenannte stehen diverse Beispiele in C-Programme, MATLAB und COMSOL zur

Verfügung, diese können aber auch an individuelle Bedürfnisse angepasst werden.

Bei Detailfragen von fortgeschrittenen Benutzern stehen Fachberater zur Seite um auch alle indi-

viduellen Problemstellungen zu lösen.

Zusätzlich zu den Einführungsvorträgen wird ein Cluster-User-Group-Treffen einmal im Monat

angeboten. Um 18 Uhr am jeweils ersten Montag im Monat treffen sich die Nutzer und die Ad-

ministratoren des Clustersystems, um über Themen wie Optimierung, Parallelisierung, Batch-

skripte und Programme zu diskutieren; Interessierte können ebenfalls an diesem Treffen teil-

nehmen und sich informieren.

Abbildung 6: Verbrauchte CPU-Stunden

17

2.6.2 SAP (ERP)

2.6.2.1 SAP-Systeme

Die Leibniz Universität IT Services betreiben jeweils ein SAP-Produktivsystem für die Universitäten

Hannover, Lüneburg und Hildesheim, die Tierärztliche Hochschule Hannover, die Hochschule für

Musik und Theater Hannover, und die neu hinzugekommenen Hochschulen in Vechta, die Jade-

Hochschule und die Hochschule Emden/Leer, sowie ein weiteres Produktivsystem für die Techni-

sche Informationsbibliothek Hannover (TIB).

Neben den Produktivsystemen werden weitere Systeme der SAP-Systemlandschaft (Entwicklungs-

und Konsolidierungssysteme) und Hilfssysteme (Firewall, WWW-Server, Remote-Zugriff, diverse

DMZ-Proxys) betrieben. Zudem wird eine SAP-BW-Systemlandschaft (Business Warehouse) be-

trieben.

In den Jahren 2011-2012 waren die Integration der Systeme aus Clausthal-Zellerfeld, bevorste-

hende Beschaffung der neuen Hardware, die Akquisition weiterer Kunden (Hochschulen in

Emden/Leer, Vechta und Jade-Hochschule) sowie technische Neuerungen bei SAP prägend; ins-

besondere die Web-Technologien.

Neben dem Tagesgeschäft wurden auch in diesem Berichtszeitraum diverse Test-Installationen

ausgeführt, u.a. virtualisierte SAP-Systeme, welche eine Vereinfachung des Betriebes ermöglichen

sollen. Diese Systeme wurden auf Hyper-V in einer Failover-Cluster-Umgebung implementiert.

Die Ergebnisse werden in die Ende 2012 bis Anfang 2013 erfolgende Hardware-Umstellung ein-

fließen. Erschwert wird diese Umstellung dadurch, dass während des Wechsels der Hardware auch

die Revision des Betriebssystems von Windows 2003 auf Windows 2008 R2 angehoben werden

muss.

2.6.2.2 Leistungskennzahlen SAP

Die Systemverfügbarkeit der SAP-Systeme im betrachteten Zeitraum lag bei 99,4 %. Die Daten-

bank des Produktivsystems hat mittlerweile eine Größe von 500 GB erreicht; die des Qualitäts-

sicherungssystems die Grenze von 1 TB bereits überschritten.

Im Produktivsystem sind 1.228 Benutzer registriert, was eine leichte Erhöhung zum vorherigen

Berichtszeitraum darstellt. Diese Erhöhung resultiert aus der Akquisition der neuen Hochschulen.

Die Anzahl der Benutzer ist i.d.R. konstant, da die Anzahl der SAP-Lizenzen aus Kostengründen

konstant gehalten wird.

2.6.3 Studierenden-Server

Die Leibniz Universität Hannover stellt den Studierenden für die Ausbildung einen kostenlosen

Zugang zum Internet zur Verfügung. Auf diesem Server können Studierende private statische

Homepages kreieren, einen Shell-Zugang nutzen und seit Wintersemester 2011/2012 auf einem

separaten Mailserver ihre E-Mails bearbeiten.

2.7 Backup und Archiv

2.7.1 Backup

Der Service Backup & Restore bietet für alle Institute und zentralen Einrichtungen der LUH kos-

tenlos die regelmäßige Erstellung und kurzfristige Aufbewahrung von Sicherungskopien be-

stimmter Serverdaten zum Schutz vor ungewolltem Datenverlust. Die Daten werden dabei in

einem automatisierten Verfahren über das LAN zum zentralen Dienstleister übertragen und dort

als Sicherungskopie für einen begrenzten Zeitraum gespeichert (Backup). Bei Bedarf werden die

gesicherten Daten wiederhergestellt (Restore). Die Speicherung der Daten erfolgt in erster Stufe

auf einem RAID. In einer späteren Ausbaustufe wird auf Magnetband weitermigriert.

18

Dieser Service schützt typischerweise gegen:

▪ Versehentliches Löschen

▪ Hardware- und Softwareschäden am Computersystem mit Datenverlust

2.7.2 Datenarchiv

Der Scalar 10.000 ist ein rechnergestütztes Robotersystem mit mittlerweile über 8.000 Einstell-

plätzen für Bandspeicherkassetten (ca. 5.000 Stück im Jahre 2008). Sie dient den Instituten und

dem HLRN Verbund als Backup-Server zur Sicherung und zur Langzeit-Archivierung ihrer Daten.

Zum Schutz der Daten ist die gesamte Installation seit 2008 in einer feuer- und explosionsge-

schützten Lambertz-Zelle untergebracht. Mittelfristig wird die Speicherkapazität auf Basis von

LTO5-Bändern auf über 13 PB (PetaByte) aufgerüstet werden können. Dies entspricht einem er-

warteten Kapazitätszuwachs von mehr als 50 % gegenüber 2008 (8,5 PB).

2.7.3 Leistungskennzahlen Archivspeicher

Für die LUH wurden im Jahr 2012 Daten-Sicherungen für 111 Institute mit 2,08 PB (538 TB in

2008) und Daten-Archivierungen für 190 Institute mit 120 TB (46 TB in 2008) durchgeführt.

Für den HLRN-Verbund wurden in 2012 für über 1.164 Nutzer (422 in 2008) 85 TB (86 TB in 2008)

Daten gesichert und 1 PB Daten (88 TB in 2008) archiviert.

2.8 Arbeitsplatzrechner

Für die dezentralen Rechner in Instituten bieten die Leibniz Universität IT Services einen umfang-

reichen Service:

▪ Service zum automatischen Windows-Update

▪ Beratung bei Rechnerbeschaffungen

▪ Abwicklung über Rahmenverträge

▪ Unterstützung bei der Installation von PC- und Unix-Systemen (Hard- und Software)

▪ Software-Lizenzen

▪ Datensicherung

▪ Netz- und Sicherheitsdienste (u. a. E-Mail, WWW, Firewall)

▪ Reparaturen und Hilfestellung vor Ort

2.9 Ausbildung

2.9.1 Kurse

Für Studierende und Mitarbeiter der Leibniz Universität Hannover bieten die Leibniz Universität IT

Services mit ca. 50 Kursen im Jahr ein umfassendes Lehrangebot bezüglich IT-Themen für Anwen-

der und Administratoren an. Die Termine der Kurse über Betriebssysteme, Netzdienste, Anwender-

software und Programmiersprachen werden pro Semester im Web und in Flugblättern veröffent-

licht. Zu folgenden IT-Themen wurden im Jahr 2012 Kurse angeboten:

▪ Administration von Windows Server 2008 R2

▪ Arbeiten mit Gruppenrichtlinien in einer Windows Server 2008 R2-Umgebung

▪ Umstieg auf Windows 7

▪ IPv6 – Workshop

▪ Erstellung von Webseiten (HTML / CSS)

▪ Einführung in Microsoft Excel 2010

19

▪ Microsoft Excel mit Hilfe von VBA anpassen

▪ Arbeiten mit Microsoft Word 2010

▪ Nutzung des Literaturverwaltungsprogramms Citavi

▪ Erstellung von Präsentationen mit Microsoft PowerPoint 2010

▪ Entwicklung von Datenbanken mit Hilfe von Microsoft Access 2010

▪ Statistik mit SPSS

▪ Arbeiten mit Photoshop

▪ Einführung in die HDR-Fotografie

▪ Erstellung von Grafiken mit Hilfe von Adobe Illustrator

▪ Erstellung von PDF-Formularen

▪ Einführung in die Programmiersprache PHP

2.9.2 Berufsausbildung zum Fachinformatiker/zur Fachinformatikerin

Die Leibniz Universität IT Services haben sich erstmals 2003 entschlossen, Ausbildungsplätze zum

Fachinformatiker/in der Fachrichtung Systemintegration zu schaffen. Normalerweise beträgt die

Ausbildungszeit drei Jahre. Es werden i.d.R. pro Lehrjahr zwei Ausbildungsplätze eingerichtet, so

dass mittlerweile sechs Auszubildende gleichzeitig im Leibniz Universität IT Services beschäftigt

sind.

Die Ausbildung erfolgt sehr praxisorientiert. So sind die Auszubildenden zum einen in den Arbeits-

alltag integriert, zum anderen erhalten sie theoretischen Unterricht in der Berufsschule und lern-

spezifische Aufgaben seitens der Ausbilder im Betrieb, die es selbstständig zu lösen gilt. Durch das

heterogene EDV-Umfeld können wir eine universelle und breit gefächerte Ausbildung gewähr-

leisten.

Im Laufe der Ausbildung lernen die Auszubildenden das Datennetz der Universität genau kennen.

Sie können Netze gestalten, konfigurieren und verwalten. Das Aufsetzen von Servern unter

Windows sowie auch Linux gehört ab dem zweiten Ausbildungsjahr zum Alltag. Auch IT-Sicher-

heit, Auf- und Abbau von Hardware gehören zu den Themen der Ausbildung. Durch die Integra-

tion in den Arbeitsalltag lernen die Auszubildenden den Umgang mit Kunden und Kollegen

kennen.

Wir sehen die Ausbildung als gesellschaftliche Verantwortung, Bereicherung im aktuellen beruf-

lichen Umfeld sowie als zwingende Notwendigkeit, um auch künftig qualifizierte Nachwuchs-

kräfte für die Leibniz Universität IT Services und die LUH rekrutieren zu können.

2.9.3 RRZN-Handbücher

Die RRZN-Handbücher zu aktuellen IT-Themen sind seit 30 Jahren an vielen Hochschulen im

deutschsprachigen Raum verbreitet und ein Begriff für Qualität zu günstigen Preisen. Sie sind das

Ergebnis einer 1982 vom damaligen RRZN initiierten und seither koordinierten Kooperation von

deutschsprachigen Hochschulen auf dem Gebiet der IT-Dokumentation. Heute besteht das Ange-

bot aus etwa 84 aktuellen Titeln, weitere sind in Vorbereitung. Derzeit sind es über 180 staatliche

Universitäten und Fachhochschulen in Deutschland, Österreich und in der Schweiz, die regel-

mäßig größere Stückzahlen der Handbücher beziehen, um sie an ihre Studierenden und Mitar-

beiter zu deren eigenem Gebrauch weiterzugeben.

Im November 2010 überschritt die Anzahl der gedruckten Exemplare die 3-Mio.-Marke.

20

Leistungskennzahlen Handbücher

Die durch die Leibniz Universität IT Services angebotenen Handbücher zeichnen sich durch fol-

gende Kennzahlen aus:

▪ Beteiligung von über 180 Hochschulen an einer von uns koordinierten Kooperation mit

durchweg positiver Resonanz

▪ Anzahl aller in 2011/2012 verkauften Handbücher: ca. 200.000 Exemplare

▪ Anzahl aller bis 2010 (einschl.) verkauften Handbücher: über 3 Mio. Exemplare

▪ Anzahl aller in 2010 verkauften Titel: 80

▪ Anzahl aller bis 2010 (einschl.) erschienen Titel: über 250

Eine komplette Liste aller in 2011/2012 verkauften Titel ist im Internet einsehbar unter:

www.rrzn.uni-hannover.de/buecher.html

2.10 e-Learning

2.10.1 Lernmanagementsysteme

Für das E-Learning stellen die Leibniz Universität IT Services Datenbankserver und Wirtssysteme

bereit, auf denen die Webserver für die Lernmanagementsysteme (LMS) Stud.IP und Ilias als vir-

tuelle Maschinen betrieben werden. Für die Administration und die Nutzerbetreuung der virtu-

ellen Maschinen sowie der LMS Stud.IP und Ilias selbst ist die elsa verantwortlich. Für die Wirts-

systeme wurden sowohl im Jahr 2011 als auch 2012 jeweils ein neuer Server angeschafft.

Desweiteren stellen die Leibniz Universität IT Services einen Audio- und Video-Streaming-Server

für Vorlesungsaufzeichnungen zur Verfügung.

Da Stud.IP nur beschränkte E-Learning Funktionalitäten bietet, haben die Leibniz Universität IT

Services zum WS 2012/13 das LMS Moodle als neuen Dienst eingeführt.

2.11 Multimedia

Die Leibniz Universität IT Services bieten Multimedia-Infrastrukturen und die entsprechenden

Netzdienste an. Wir beraten und unterstützen die Nutzer bei der Planung und dem Aufbau von

Multimedia-Ausstattungen vor Ort. Dies beinhaltet sowohl die Definition von Standards für die

Ausstattung von Hörsälen und Seminarräumen als auch die individuelle Beratung, z. B. für Video-

konferenz-Ausstattungen.

Ein Präsentations- und Konferenzraum ist mit zwei Rückprojektionen von jeweils 100“ Diagonale,

drei hochwertigen steuerbaren Kameras, Mikrofontechnik, Surround-Lautsprecheranlage und

einem Regieraum mit Audio-/Video-Mischung im Gebäude der Leibniz Universität IT Services aus-

gestattet und kann von allen LUH-Nutzern zur e-Learning Aufzeichnung verwendet werden. Eine

Medienraumsteuerung erlaubt den einfachen Zugriff auf vorprogrammierte Anwendungskonfigu-

rationen.

Multimediale Netzdienste, vor allem für Videokonferenz, Videoübertragung und Videostreaming,

21

dienen als Grundlage zur synchronen oder asynchronen Audio-/Video-Kommunikation. Dazu be-

treiben wir Raumkonferenzsysteme (H.323) zur freien Nutzung innerhalb unserer Räumlichkeiten.

Wir stellen für das Hosting von Audio- und Videostreams einen entsprechend starken Streaming-

Server bereit.

2.12 Anwenderberatung

Mitarbeiter im Bereich „IT-Anwendungssupport“ stehen den Benutzern bei der Fach- und Pro-

blemberatung im Bereich der LUH und der Anwenderberatung im wissenschaftlichen Rechnen zur

ausführlichen Beratung u.a. in folgenden Themenbereichen zur Verfügung:

▪ Planung und Konzeption von EDV-Vorhaben

▪ Programmierung und methodische Beratung bei der (Weiter-)Entwicklung von Software

▪ Mathematisch-algorithmische Beratung bei der Programmentwicklung

▪ Beratung über den Einsatz und Nutzung von Anwender-Software

▪ Unterstützung der dezentralen IT in den Instituten bei der Weitergabe von Software-

Lizenzen

▪ Vorbereitung und Durchführung von Projekten im Hochleistungsrechnen

2.12.1 Leistungskennzahlen Anwendersupport für EvaSys

Zur Qualitätssicherung in Forschung und Lehre betreuen wir das Auswertungswerkzeug EvaSys,

das den Fakultäten und Einrichtungen der Leibniz Universität Hannover die automatisierte Durch-

führung gezielter Evaluationen von Vorlesungen, Seminaren, Übungen und anderen Veranstal-

tungsarten ermöglicht.

In den vier Erhebungsperioden Wintersemester 2010/2011 bis Sommersemester 2012 wurden im

Rahmen der universitätsweiten Lehrveranstaltungsbewertung 7.661 Lehrveranstaltungen evalu-

iert und dabei 137.573 Fragebögen ausgewertet. In 865 Umfragen zu Forschungsprojekten und

Campusbefragungen wurden weitere 17.079 Fragebögen verarbeitet.

Mit der Erweiterung durch das EvaExam-Modul werden nun auch begleitende Lernstandskon-

trollen und automatisierte Prüfungen unterstützt.

2.12.2 Leistungskennzahlen Support für Anwender-Software

Die Schwerpunkte der Arbeiten im Berichtsjahr lagen auf der Installation von Anwenderpaketen,

Programmbibliotheken und Dienstprogrammen (Software-Tools) auf den neuen Compute-Servern

für die LUH zur Abdeckung des lokalen und regionalen Spitzenbedarfs sowie auf dem HLRN-II-

System. Daneben erfolgte die Projektberatung und -unterstützung von Benutzer- und Großpro-

jekten in der LUH und im HLRN-Verbund.

Im Einzelnen standen in 2012 u.a. folgende Produkte auf Compute-Servern für die LUH bzw. auf

dem HLRN-II-System zur Verfügung:

22

Bei den Leibniz Universität IT Services erfolgt die Lizenzvergabe über so genannte Projektgruppen-

schlüssel, dem ein Nutzer zwingend zugeordnet sein muss. Diese Projektzuordnung dient im Rah-

men der Nutzerverwaltung der Zuordnung von Accounts zu Kostenstellen, Instituten, zentralen

Einrichtungen, Drittmittelprojekten, Arbeitsgruppen und Mitarbeitern. Die Anzahl aller gültigen

Projekte (also Nutzergruppen) gliedert sich im Jahr 2012 wie folgt auf:

Typ LUH HLRN-II Beschreibung

Biblio-

theken

Intel MKL

NAG

Intel MKL Programmbibliothek für numerische Berechnungen

FORTRAN-Unterprogrammbibliothek

Pakete ABAQUS

ANSYS

CFX

COMSOL

CPMD

Crystal

FLUENT

GAUSSIAN

Gromacs

HFSS

MARC

MATHEMATICA

MATLAB

MAXWELL

NASTRAN

OpenFoam

PATRAN

PROE

SPSS

Star-CD

StarCCM

ABAQUS

ANSYS

CFX

CPMD

Crystal

FLUENT

GAUSSIAN

Gromacs

OpenFoam

Star-CD

StarCCM

CAE-Paket für lineare und nichtlineare Strukturanalyse

CAE-Paket für lineare und nichtlineare Strukturanalyse

CAE-Paket für Strömungsmechanik

Software-Paket für Multiphysik-Simulationen

Ab-initio-Berechnungen in der Molekulardynamik

Software-Paket für Simulationen kristalliner

Festkörper

CAE-Paket für Strömungsmechanik

Ab-initio-Berechnungen in der Chemie

Software-Paket für Simulationen i. d.

Molekulardynamik

CAE-Paket für hochfrequente elektromagnetische

Feldsimulation

CAE-Paket für lineare und nichtlineare Strukturanalyse

Software-Paket für techn. u. wissenschaftliche

Berechnungen

Software-Paket für techn. u. wissenschaftliche

Berechnungen

CAE-Paket für elektromagnetische Feldsimulation

CAE-Paket für lineare und nichtlineare Strukturanalyse

CAE-Paket für Strömungsmechanik

CAE Pre- und Postprocessing

CAD-Programmpaket

Software-Paket zur statischen Datenanalyse

CAE-Paket für Strömungsmechanik

CAE-Paket für Strömungsmechanik

Tools Intel-Compiler

Intel-Tools

MPI-Tools

PGI-Compiler

TotalView

Intel-

Compiler

Intel-Tools

MPI-Tools

PGI-

Compiler

TotalView

Intel Compiler Suite

Intel Development Tools : Thread Checker, VTune,

Trace Analyzer

MPI-Installationen: mpich2, mvapich2, OpenMPI

PGI Compiler-Suite

Debugging Tool für Parallelprogramme

23

An-

zahl Hochschule

950 Leibniz Universität Hannover

4 Hochschule für Musik und Theater

6 Medizinische Hochschule Hannover

6 Tierärztliche Hochschule Hannover

2 Fachhochschule Hannover

1 Technische Universität Braunschweig

1 Universität Göttingen

1 Universität Lüneburg

2 Universität Oldenburg

1 Sonstige niedersächsische

Institutionen und Ministerien

974 Summe Projektgruppen in 2012

(+43% gegenüber 2010)

Der Zugang zu preiswerter bzw. für einzelne Nutzergruppen kostenloser Software erfreut sich

reger Nachfrage. Beispielhaft seien hier einige Zahlen zu dem Microsoft Software-Vertrag

DreamSpark Premium (vormals MSDN-AA) genannt:

▪ Bis Ende 2012 waren ca. 10.000 Studierende am DreamSpark-Programm beteiligt

▪ Im gleichen Zeitraum waren ca. 2.000 Mitarbeiterinnen und Mitarbeiter der LUH für

DreamSpark registriert

Um die Institute der LUH weiterhin bedarfsgerecht zu unterstützen, haben wir den in 2008 initi-

ierten Dienst einer zentralen Verwaltung der Volumenlizenzkeys für Microsoft-Produkte, wie

"Windows 7 Enterprise" oder "Windows Server 2008R2" in 2011 und 2012 erfolgreich fortgeführt.

Die IT Services nehmen so den Systemadministratoren der Institute die aufwändige Verwaltungs-

arbeit ab.

Mitarbeiter im Bereich „IT-Anwendungssupport“ stehen den Benutzern der LUH und des HLRN zur

ausführlichen Beratung über den Einsatz und Nutzung von Anwender-Software, sowie zur Unter-

stützung der dezentralen IT in den Instituten beim Bezug von Software-Lizenzen zur Seite.

Ende 2012 waren 4.314 Lizenzen im Rahmen von Software-Überlassungen durch uns und die

Vertriebspartner aktiviert. So waren in 2011/2012 insgesamt 31 Software-Pakete erhältlich (ohne

Updates, Einzel- bzw. Zusatzmodule und ftp-Server). In 2011/2012 wurden 435 neue Lizenzver-

träge und Nachbestellungen zu bestehenden Verträgen zwischen den IT Services und deren Nut-

zern abgeschlossen.

Auf den Lizenzservern der IT Services wurden in den Jahren 2011/2012 Lizenzen für 26 verschie-

dene Softwareprodukte vorgehalten.

2.13 Druckausgabedienste

Drei Großformat-Farbdrucker stehen den Kunden für Farbdrucke zur Verfügung:

▪ Drei Canon IPF8300 (bis A0-Format),

▪ Ein Canon iPF9000 (bis 150 cm Breite)

▪ Ein Hochleistungsfarblaserdrucker Ricoh C751EX (75 Seiten/Minute, S/W & Farbe, Duplex,

A3/A3+/A4-Format)

24

Ferner stehen für den Zuschnitt der Druckerzeugnisse eine Schneidemaschine (bis 150 cm Breite),

eine Stapelschneidemaschine (Schnittlänge 430mm, Schnitthöhe 40mm), eine elektrische A3 Rol-

lenschneidemaschine, sowie Schneidematten, Cutter und Lineale für den manuellen Zuschnitt zur

Verfügung.

Der Service erfreut sich reger Nachfrage seitens Mitarbeitern und Studierender. Bezogen auf ein

durchschnittliches Berichtsjahr sei dies wie folgt verdeutlicht.

Das Gesamtgewicht der bedruckten Seiten aus Plotter und Laserdrucker zusammengenommen

beträgt 23,5 Tonnen. Würde man die Ausdrucke auslegen käme man auf eine Fläche von

41.444,5m² auf die 3-mal das Welfenschloss platziert werden könnte. Aneinandergereiht ergäben

die Blätter eine Strecke von 71km.

25

3. Schwerpunkte, Meilensteine und Neuerungen 2011-2012

Neben den allgemein bekannten IT-Services, die wir in gewohnt hoher Qualität für Forschung,

Lehre und Verwaltung erbringen, ergaben sich in den Berichtsjahren erwartungsgemäß auch neue

Herausforderungen und Aufgaben. Im Folgenden werden die wesentlichen Projekte und Neue-

rungen dargestellt.

3.1 Konsolidierung und Modernisierung der Serverlandschaft

Als Folge der Vielzahl von angebotenen Diensten und aufgrund des rasanten Technologiewandels

in der IT, betrieben die Leibniz Universität IT Services lange Zeit eine Anzahl verschiedener Rech-

nertypen und -architekturen. Als Reaktion auf den steigenden Administrationsaufwand startete

bereits vor dem Berichtszeitraum das Projekt der Server-Konsolidierung, dessen Ziel es war, die

Vielfalt und Menge an Rechnersystemen durch Transfer auf eine kleine Anzahl standardisierter

Serverklassen zu reduzieren und zu standardisieren. Die sich daraus ergebenden Vorteile sind:

▪ Geringere Wartungskosten

▪ Weniger Administrationsaufwand

▪ Verminderter Stromverbrauch und geringere laufende Kosten

▪ Kürzere Ausfallzeiten und eine höhere Ausfallsicherheit

Dieses Projekt ist mittlerweile abgeschlossen und die gewonnenen Informationen und Prozesse

wurden sowohl in der Computing und Storagesysteme-Gruppe als auch in anderen Gruppen im-

plementiert. Die Serversysteme des Rechenzentrums werden jetzt durch Continual-Service-Im-

provement weiterhin konsolidiert und wo nötig modernisiert.

3.2 Ausbau der SAP-Systemlandschaft

Als neue SAP-Technologie wurde das SAP-Recordsmanagement (SRM) mit einer Archivierungs-

lösung eingeführt. Dieses erlaubt es u.a., Akten nunmehr elektronisch zu führen, was einen

schnelleren und effizienteren Zugriff auf die Daten erlaubt. Wegen der verschiedenen gesetz-

lichen Bestimmungen ist eine Datenhaltung auf einem speziellen Archivsystem erforderlich.

Derzeit sind alle Kräfte der SAP-Basisgruppe durch folgende Themen gebunden:

▪ Implementation der neuen Hardwarebasis und Einarbeitung in diese: Hiermit erhofft man

sich eine effektivere Gestaltung des SAP-Basisbetriebes, bspw. durch ressourcenschonenden

Einsatz der Hardwarekomponenten.

▪ Austausch der SmartCard-Infrastruktur. Diese Maßnahme ist erforderlich, da der bisherige

SC-Provider nur noch neue SmartCards mit elliptischer Kurven-Kryptographie ausliefert, die

von SAP nicht unterstützt werden.

▪ Einführung eines Ticketsystems OTRS und Einbindung in die ITIL-konforme Rechenzentrums-

organisationsstruktur.

Schwerpunkte in den Jahren 2011 - 2012 waren:

▪ Integration der neuen Mandanten für die Hochschulen Vechta, Wilhelmshaven und

Emden/Leer

▪ Implementation von Sicherheits-Patches, Service-Packs und Sicherheits-Notizen

▪ Update der Datenbanken auf IBM DB2 9.7

▪ Koordination/Implementierung der neuen Hardware-Plattform

▪ Aufbau einer SAP-Recordsmanagement-Systemlandschaft

▪ Kontinuierliche Verbesserung des Betriebes durch Anpassen von Parametern und Betriebs-

abläufen

▪ Die Implementierung weiterer Schnittstellen zu Fremdsystemen

▪ Fortführung der Implementierung des SAP-Solutionmanagers

▪ Implementierung diverser Testsysteme, u.a. virtualisierte SAP-Systeme in einem Failover-

Cluster

26

3.3 Erfolgreiche Abschlüsse der Auszubildenden

Die Leibniz Universität IT Services bieten seit 2003 die dreijährige IHK-Ausbildung zum Fachinfor-

matiker für Systemintegration an. In den Jahren 2011 und 2012 haben insgesamt vier Auszubil-

dende ihre Ausbildung erfolgreich abgeschlossen. Zwei von ihnen wurden von uns in ein Beschäf-

tigungsverhältnis übernommen, die anderen beiden Absolventen haben ein Arbeitsplatzangebot

aus der freien Wirtschaft angenommen.

3.4 Migration Netbackup nach Bacula

Zum Jahreswechsel 2011/2012 wurde der Service Backup und Restore nach ITILv3 ausgerichtet.

Mit der neuen Organisationsstruktur wurde auch die neue Software Bacula Enterprise eingeführt,

die NetBackup ablöst. Das Bacula-Produktivsystem ging Ende des Jahres online und die Umzüge

der Maschinen auf die neue Software werden einen Großteil des Jahres 2013 in Anspruch neh-

men.

Die neue Software besticht vor allem durch nativ integrierte Authentifizierungsmechanismen.

Kanalverschlüsselung (TLS) ist Standard, eine Verschlüsselung der Daten kann optional gewählt

werden.

3.5 Server-Hosting und –Housing

Seit 2010 finden die Konzepterstellung, die technischen Vorbereitungen und die praktischen Er-

probungen mit den Pilotkunden für die neuen Dienste Server-Hosting und Server-Housing statt,

bei denen die Leibniz Universität IT Services als Anbieter von systemnahen, serverbasierten IT-

Diensten bzw. betreutem Stellplatz für Server aus den Instituten oder der Verwaltung fungieren.

Durch diese Form der Ressourcen-Zusammenfassung werden Sparpotenziale im Bereich Gebäu-

de-Infrastruktur (Stellfläche, Klimatisierung, USV) und Administration (Upgrades, Patches, IT-

Security-Maßnahmen) eröffnet. Darüber hinaus bietet die Zusammenfassung einen größeren

Ressourcen-Pool für die Nutzer und verhindert unnötige Überkapazitäten in einzelnen Bereichen

neben Unterkapazitäten in anderen, welche die aktuell vorherrschende Zersplitterung der Server-

infrastruktur unmittelbar nach sich zieht.

Im Bereich Hosting betreiben wir seit Längerem Dienstleistungen für das Dezernat 3, elsa, die ZUV

und die Pressestelle der Universität. Der Kundenstamm wurde kontinuierlich erweitert.

3.6 Forschungscluster-Housing

Mit dem Service Forschungscluster-Housing kann institutseigene Hardware zum wissenschaftli-

chen Rechnen (Compute-Nodes) in das bestehende Clustersystem des Rechenzentrums integriert

werden. Voraussetzung ist, dass bestimmte Hard- und Softwareanforderungen erfüllt sind. Das

jeweilige Institut bekommt exklusive Rechenzeit auf ihrer Hardware reserviert.

Das Rechenzentrum stellt hierfür die grundlegende Infrastruktur bereit. Diese besteht im Wesent-

lichen aus Klimatisierung, Stromversorgung, USV (Unterbrechungsfreie Stromversorgung), Racks

und verschiedenen Plattensystemen zur Datenspeicherung. Des Weiteren wird die Softwareinfra-

struktur bereitgestellt, die zur Administration der Server nötig ist. Dies umfasst, unter anderem

die Authentifizierung, das Betriebssystem, das Batchsystem und die Kernelmodule, um auf das

parallele Dateisystem zugreifen zu können. Ferner umfasst es Lizenzen und Simulationssoftware-

pakete.

Vorteile für das jeweilige Institut:

▪ dedizierter Zugang für Institutsmitglieder während spezifizierter Zeitintervalle

▪ Institute können zusätzlich und nahtlos das gesamte Clustersystem nutzen

▪ reduzierte Beschaffungskosten für Institute. Dies wiederum bedeutet, dass das Institut mehr

Rechenleistung für das gleiche Geld beschaffen kann

▪ minimaler Administrationsaufwand für das Institut

27

Vorteil für die Leibniz Universität Hannover:

▪ "Idle"-Perioden einzelner Cluster-Rechner können als Rechenressource der Nutzergemein-

schaft zur Verfügung stehen

Das Arbeitspaket startete mit den ersten Pilotkunden, die Forschungscluster produktiv einsetzen:

das Institut für Turbomaschinen und Fluid-Dynamik, die Naturwissenschaftliche Fakultät und das

Institut für Theoretische Physik.

Weitere Informationen über den neuen Service sind erhältlich bei der Scientific Computing

Gruppe des Rechenzentrums oder unter:

http://www.rrzn.uni-hannover.de/scientific_computing.html

3.7 Ausbau Notebook-Verleih an Studierende

Im Jahr 2009 wurden die zum Verleih an Studenten zur Verfügung stehenden 35 Notebooks um

weitere 150 auf 185 Stück und in 2010 auf 315 Geräte aufgestockt. Damit wurden wir der großen

Nachfrage gerecht und unterstützten neben dem WLAN-Ausbau den Wunsch der Studenten nach

besserer Ausbildungsausstattung und –unterstützung. Aufgrund des stetig steigenden Bedarfs

nach Verleih-Notebooks seitens der Studierenden, erhöhten wir die Anzahl im Jahr 2011 um 50

Stück und in 2012 um weitere 70 Geräte. In der Summe stehen den Studierenden inzwischen 435

Notebooks zur Verfügung.

Abbildung 7: Beschaffung und Verleih von Notebooks

28

3.8 Projekt Tele-APC in Produktivbetrieb überführt

3.8.1 Projekt „Alternierende Telearbeit“ in den Regelbetrieb überführt

„Alternierende Telearbeit“ bedeutet, dass Beschäftigte ihre individuelle regelmäßige Arbeitszeit

teilweise zu Hause und teilweise in der Dienststelle an einem Bildschirmarbeitsplatz erbringen.

Das Projekt „Alternierende Telearbeit“, dessen Ziele die Verbesserung der Vereinbarkeit von Beruf

und Familie und die Steigerung der Effizienz und Motivation von Beschäftigten sind, startete im

Januar 2008. Nach einer Planungsphase nahmen ab Juli 2009 innerhalb des Projekts elf Beschäf-

tigte der LUH aus der Verwaltung, den Fakultäten und den zentralen Einrichtungen ihre Arbeit am

häuslichen Arbeitsplatz auf. Das Rechenzentrum erarbeitete im Projekt aktiv die einzusetzende

Technik für die Umsetzung der Anforderungen in Bezug auf Datenschutz und Informationssicher-

heit.

Die positive Resonanz der Projektteilnehmer und ihrer Vorgesetzten führte zur Einführung des

Regelbetriebs im Jahr 2012. Für interessierte Beschäftigte der LUH, die die Auswahlkriterien er-

füllen, stehen 30 Telearbeitsplätze zur Verfügung. Im ersten Antragszeitraum wurde 17 Beschäf-

tigten die Teilnahme bewilligt, von denen 5 Antragsteller bereits am Projekt teilnahmen. Die tech-

nische Betreuung der Telearbeitenden ist auch im Regelbetrieb Aufgabe des Rechenzentrums.

Mittels der vom Rechenzentrum ausgewählten Technik finden die Telearbeitenden an ihrem häus-

lichen Arbeitsplatz die vertraute Desktop-Umgebung mit den üblichen Zugriffen auf institutsin-

terne Ressourcen vor, was ihnen die IT-gestützte Arbeit erleichtert. Realisiert wird dieses auch im

Regelbetrieb durch die Verwendung von Thin-Clients, die über eine verschlüsselte Verbindung auf

den Rechner am universitären Arbeitsplatz der Telearbeitenden zugreifen. Sie werden unabhängig

von der heterogenen IT-Landschaft in den einzelnen Instituten zentral und einheitlich eingesetzt.

Die folgende Abbildung veranschaulicht die RDP (Remote Desktop Protocol)-Verbindung zwischen

dem universitären und dem häuslichen Arbeitsplatz.

Abbildung 8: Veranschaulichung der RDP-Verbindung

3.9 Arbeitsplatzrechner

Arbeitspaket "Arbeitsplatz-PC" (APC) im Rahmen der IT-Reorg

Im Januar 2012 startete das Arbeitspaket "Arbeitsplatz-PC" (APC) im Rahmen der IT-Reorgani-

sation. Das Ziel dieses Paketes ist der dauerhafte Dienst APC. Im Laufe des Jahres 2012 wurden

die notwendigen Teildienste und Bedingungen identifiziert und erste Testaufbauten durchgeführt.

29

Die Aufgabe des Dienstes gestaltet sich wie folgt:

Derzeit erfolgt die Betreuung von Arbeitsplatz-PCs überwiegend dezentral. Die Bandbreite in der

Betreuung erfolgt dabei von „gar nicht“ bis zur Rundumbetreuung auch der Nutzer durch festan-

gestellte Administratoren.

Die Einrichtungen der LUH sollen zukünftig in der Betreuung der Arbeitsplatzrechner ihrer Mitar-

beiter vom Rechenzentrum aktiv unterstützt werden. Hierzu werden im Arbeitspaket

„Arbeitsplatz-PC“ (APC) die Konzepte und Leistungen konzipiert und umgesetzt.

Zur Betreuung der APCs gehören unter anderem folgende Tätigkeiten:

▪ Beschaffung, Aufstellung

▪ Software-Installation und Aktualisierung (Betriebssystem, Applikationen)

▪ Wartung, Inventarisierung

▪ Außerbetriebnahme

Ob und in welchem Umfang ggf. diese Punkte zentral unterstützt werden können, soll als Teilauf-

gabe dieses Arbeitspaketes geklärt werden.

Ein erster Meilenstein wird erst Ende des Jahres 2013 erreicht:

31.12.2013 Teilpaket 1:

31.08.2013 Organisatorische Rahmenbedingungen definiert

30.11.2013 Anbindung an die ITIL-Prozesse

31.12.2013 Produktivsetzung

3.10 Online-Umfrage Tool LimeSurvey

Seit 2012 betreiben wir die Anwendung LimeSurvey zur Erstellung und Durchführung von Online-

Befragungen. Mit Hilfe der webbasierte Software können individuelle Fragebögen erstellt, gezielte

Befragungen auf elektronischem Weg durchgeführt und die Ergebnisse in verschiedenen Forma-

ten exportiert werden.

Neben zahlreichen Funktionalitäten bei der Umfragegestaltung wie Bedingungen oder die Ran-

domisierung der Reihenfolge von Fragen stellt LimeSurvey Online-Befragungen bereit, die entwe-

der öffentlich zugänglich sind oder durch ein Einmal-Passwort für jeden Teilnehmer individuell

zugänglich gemacht werden.

Zur Kundenbedarfsanalyse kam LimeSurvey im Rahmen der IT-Reorganisation bereits mehrmals

erfolgreich zum Einsatz. LimeSurvey steht Bediensteten und Studierenden der Leibniz Universität

Hannover für ihre wissenschaftliche Arbeit zur Verfügung.

3.11 Web Conference Management Tool ConfTool Pro

Die neu gegründete Ethikkommission bat mit Zustimmung des Präsidiums um Implementierung

einer Web Conference Management Software, mit der das Begutachtungsverfahren für Ethikan-

träge elektronisch abgewickelt werden kann. Es wurden daraufhin Produkte hinsichtlich der An-

forderungen der Ethikkommission evaluiert und zwei Produkte in der engeren Auswahl getestet.

Die endgültige Wahl fiel auf ConfTool. Wegen der hohen Sensibilität der verarbeiteten Daten so-

wie deren langer Aufbewahrungsfrist, wird die Anwendung auf einem Server der Leibniz

Universität IT Services gehostet.

Im Anschluss an die Implementierung für die Ethikkommission wurde per Umfrage universitäts-

weit ermittelt, inwieweit Interesse an einem zentralen Angebot von ConfTool zur Konferenzver-

waltung besteht. Im Ergebnis war jedoch das Interesse zu gering, um ausreichend Lizenzentgelt-

30

rabatte vereinbaren zu können, sodass kein wirtschaftlicher Vorteil gegenüber dem Hosting durch

den Hersteller erzielt werden konnte. Ein zentrales Angebot kam daher (bislang) nicht zustande.

3.12 Software zur Plagiatserkennung

Im Jahr 2011 wurde im Rahmen des IT-Reorganisationsprojektes ein Arbeitspaket zur Findung ei-

ner geeigneten Software zur Überprüfung von studentischen Arbeiten auf Plagiate ins Leben ge-

rufen. In einem Arbeitskreis mit Vertretern aus einigen Fakultäten fiel die Entscheidung zugunsten

der beiden Softwarepakete Docoloc und Ephorus, für die ab Februar 2012 eine Campuslizenz be-

schafft wurde. Während Docoloc ausschließlich das Internet und öffentliche Quellen als Referen-

zen benutzt, kann in Ephorus auch ein interner Pool an Dokumenten angelegt werden, sodass

diese untereinander verglichen werden können. Dieses ist z.B. für den Abgleich einer Vielzahl von

Hausarbeiten, welche das gleiche Thema behandeln, von Interesse.

An drei von uns durchgeführten Einführungsveranstaltungen im ersten Halbjahr 2012 wurde die

Anwendung der beiden Softwarepakete vorgestellt und die Nutzung diskutiert.

Bis Ende 2012 wurden für Docoloc 191 Nutzerkonten eingerichtet und ungefähr 890 Dokumente

auf Plagiate überprüft. Ephorus hatte bis Ende 2012 86 Nutzer; ungefähr 600 Dokumente wurden

mit diesem Programm einer Plagiatsuche unterzogen.

3.13 Software für Lernplattformen im Internet

Mit der im WS 2012/13 neu eingeführten Online-Platform Moodle erweiterte die Leibniz Univer-

sität IT Services ihr E-Learning Angebot.

Moodle ist ein modernes, leistungsfähiges Lernmanagementsystem, das weltweit zur Unterstüt-

zung der Lehre genutzt wird und auch an vielen deutschen Hochschulen als zentrale E-Learning-

Plattform zum Einsatz kommt.

Der Schwerpunkt von Moodle liegt auf der Erstellung und Bereitstellung von interaktiven Lehr-

inhalten und elektronischen Übungsaufgaben. Mit der Möglichkeit zu Gruppenarbeit und Peer-

Assessment lassen sich vielfältige Lernszenarien umsetzen.

Moodle ist an weitere IT-Dienste der Universität angebunden; so werden Vorlesungsdaten aus

dem Vorlesungsverzeichnis HIS-LSF übertragen und Studierende können sich über den WebSSO-

Dienst der LUH einloggen.

Die Administration der Server sowie der Support der Nutzer werden von den Leibniz Universität

IT Services bereitgestellt.

3.14 Videokonferenztool am PC

Abgesehen von klassischen Videokonferenzen gibt es jetzt auch ein Webkonferenz-Angebot, das

vom DFN bereitgestellt wird und von allen Mitgliedseinrichtungen genutzt werden kann. Auf

Basis der Software Adobe Connect können dabei browserbasierte Webkonferenzen am PC durch-

geführt werden, ohne dass die Installation einer zusätzlichen Software nötig wäre. Mittels ent-

sprechender Apps ist auch eine Teilnahme von Mobilgeräten aus möglich. Besonders eignet sich

diese Konferenzart für verteilte Meetings, bei denen einzelne Teilnehmer direkt von ihrem Arbeits-

platz aus mit Teilnehmern an entfernten Standorten kommunizieren wollen. Ein weiterer Schwer-

punkt liegt auf der gemeinsamen Bearbeitung von Dokumenten, Desktop Sharing sowie dem Aus-

tausch von Dateien während der Konferenz. Auch die Aufzeichnung einer solchen Konferenz so-

wie eine Teilnahme per Telefon ist möglich.

Alle Beschäftigten der Leibniz Universität Hannover können diesen Dienst nach einmaliger An-

meldung beim DFN nutzen und Konferenzen einberufen, zu diesen Konferenzen können sie

selbstverständlich auch Gäste einladen.

31

4. Umsetzung des IT-Reorganisationsprojektes an der LUH

2011/12

4.1 Überblick Projektverlauf

Mit Präsidiumsbeschluss vom Dezember 2010 wurde die Umsetzung des IT-Reorganisations-

projekts beschlossen. Ziel ist es, das Rechenzentrum noch stärker hin zu einem zentralen IT-

Dienstleister zu entwickeln und die im Vorprojekt identifizierten, zentralisierungsfähigen IT-

Services am internationalen Standard ITIL (IT Infrastructure Library) prozessorientiert auszu-

richten.

Das IT-Reorg.-Umsetzungsprojekt umfasst insgesamt 45 Arbeitspakete, die sich in folgende

Bereiche aufteilen:

▪ Bereich 1: Organisationstruktur (die Betriebsorganisation betreffend)

▪ Bereich 2: ITIL-Prozesse

▪ Bereich 3: Services

▪ Bereich 4: Infrastruktur (Raumplanung und Material)

▪ Bereich 5: Querschnittsthemen (Aufgaben, die das Projekt im Ganzen betreffen)

▪ Bereich 6: Neue Dienste (nachträglich aufgenommene IT-Leistungen)

2.1.IncidentManage-

ment

2.2.Problem-manage-

ment

2.5.Release manage-

ment

2.4.KundenManage-

ment / SLM

2.3.SACM /Change-manage-

ment

3.1.Netz

3.2.E-Mail

3.3.Web

Service

2. AP-Bereich

Prozesse

3.6.APC

3.7.Server

Housing

3.8.Server-Hosting

3.9.Druck-service

3.10.Lizenz-manage

ment

3.11.Backup

&Restore

3.12.Archi-

vierung

3.13.FC-Hou-sing

3.14.Datei-service

3.15.Video-Kon-

ferenz

3.16.Scientific

Com-puting

3. AP-Bereich

Services

Hees-mann

Klinger

Harnisch

HeymannMüller

Rupp

Klinger

Heister-kamp

Kröckerts-kothen

Heister-kamp

Heister-kamp

Heister-kamp

Hees-mann

Millies

Gerdes

Gerdes

Coch-rane

Euhus

Oltmann

Coch-rane

Hees-mann

Coch-rane

1. AP-Bereich

Organisationsstruktur

4. AP-Bereich

Infrastruktur

Projektteam

· von Voigt (PL)· Müller· Spoida (BPR)· Consultant· Je nach Thema

wechselnde AP-Verantwortliche

· Ahrens (QS)

5. AP-Bereich

Projekt-Querschnittsthemen

1.1. Kosten-stellen-struktur Verrech-nungen

Müller

1.2.Personal- gespräche

v.VoigtKlinger

HarnischJabben

1.3.Fachteam-

bildung

1.5.Recruiting

v.VoigtKlinger

HarnischJabben

Jabbenv.VoigtKlinger

HarnischHeesmann

BPR

3.17.IdM

Harnisch

4.1.Raum-

planung

SpoidaDez. 3

5.6.Qualitäts-sicherung im Projekt

IT-Reorg-Umsetzungsprojekt

Strukturplan V13 25.09.2012

4.3.Aus-

stattung

5.1.Infor-

mation u. Kommuni-

kation intern (LUH)

5.2.Verände-

rungs-manage-

ment

1.6.Weiter-qualifi-kation ITIL

Jabben

v.Voigt

Müller

Müller

Jabben

1.4.Formale

Um-setzung

Org-struktur

v.Voigt

4.2.Lokali-sierung

UHD

5.4.RRZN

Umbenen-nung

Heymann

3.18.Nicht

zentrale Dienste

Ahrens

5.3.Risiko-

manage-ment

5.5.Material-sichtung

IT-Reorg-Projekt

Service-Verantwortliche

Prozess-Verantwortliche

Aue

Müller

5.7.IT-SMTool-

Auswahl

Heesmann

Ahrens

5.8. Auftrag

Consulting

6.1.WCM-Tool

Heymann

6.2.For-

schungs-plattform

NTH

6.3.Plagiat-suche-

Software

v.Voigt

Aue

(Tech. neu) (Tech. neu)(Design neu)(neu) (neu) (neu) (neu) (neu) (neu)

3.4.Kalender

(neu)

3.5.Betrieb Infra-

struktur For-

schung u. Lehre

(neu) (teilw. neu) (neu) (neu) (neu)

Hees-mann

6.4.Moodle-Hosting

Krojanski

(neu)

6. AP-Bereich

Anfragen neue Services

Heymann

5.9.ContinualService

Improve-ment(CSI)

√ √ √

√ = abgeschlossen

√ √

√ √

Für Projektdetails und laufende Informationen wurde eine eigene Internetseite, eingerichtet auf

welcher Sie sich jederzeit über den aktuellen Projektfortschritt informieren können:

www.rrzn.uni-hannover.de/it-reorg.html

Abbildung 9: Projektorganisation

32

In den ersten beiden Jahren des Umsetzungsprojekts waren die Arbeitspakete aus dem Organisa-

tionsbereich, sowie die Querschnittsthemen vorherrschend. Im Bereich der Services wurde mit den

Arbeitspaketen 3.1 (Netz), 3.2 (E-Mail), 3.3 (Webservice) und 3.10 (Lizenzmanagement) begonnen.

Die Services wurden nach dem Kriterium ausgewählt, dass sie bereits weitestgehend etablierte

Angebote beinhalteten, um die neue Prozessausrichtung zu erleichtern. Sie nahmen insofern eine

Vorreiter-Rolle ein. Aus dem Bereich der Prozesse wurde mit den Arbeitspaketen 2.1 Incident

Management und 2.4 Service Level Management gestartet, da sie ein sehr wichtiger Grundstein

für die Ausgestaltung der weiteren Prozesse und Services sind.

Im ersten Projektjahr waren die Arbeitspakete überwiegend mit Konzeptionen befasst. Gegen En-

de 2012 waren, mit Abschluss des zweiten Projektjahres, die ausgewählten Prozesse und die aus-

gewählten Services ITIL konform ausgerichtet und nahezu fertig implementiert. Im Verlauf gab es

vereinzelt Verzögerungen gegenüber dem ursprünglichen Zeitplan, sodass dieser an ein paar Stel-

len angepasst werden musste, ohne jedoch Gesamtergebnis oder gar Ziele zu gefährden.

4.2 Tätigkeitsschwerpunkte und Ergebnisse im Berichtszeitraum

4.2.1 Organisation und Querschnittsthemen

Im organisatorischen Bereich wurden folgende Arbeitspakete bereits im ersten Projekthalbjahr

durchgeführt und beendet:

▪ AP 1.4 Formale Umsetzung der Organisationsstruktur

▪ AP 1.2 Personalgespräche

▪ AP 1.3 Fachteambildung

Begleitend dazu wurden einzelne zusätzliche Stellen ausgeschrieben und besetzt, um die benö-

tigten Personalressourcen zu schaffen. Ferner vollzog das Arbeitspaket 1.1 gegen Ende des zwei-

ten Projektjahres die Anpassung der Kostenstellenstruktur an die neuen Gegebenheiten.

Um das Verständnis über ITIL und dessen Akzeptanz zu stärken, organisierte das Arbeitspaket

1.5 (Weiterqualifikation ITIL) Weiterbildungen in Form von ITIL Foundation Schulungen durch ein

externes Unternehmen im Rechenzentrum. Von der angebotenen, anschließenden Zertifizierungs-

prüfung auf freiwilliger Basis haben nahezu alle Teilnehmer Gebrauch gemacht. Teilgenommen

haben nicht nur ein Großteil der Mitarbeiterinnen und Mitarbeiter des Rechenzentrums, sondern

auch Bedienstete anderer zentraler Einrichtungen bzw. Dezernate.

Im Bereich der Querschnittsthemen wurden überwiegend projektbegleitende, übergeordnete The-

men behandelt. Das Arbeitspaket 5.8 kümmerte sich um die Auswahl eines geeigneten Consul-

tings zur Unterstützung des Projekts, und führte ein Ausschreibungsverfahren erfolgreich durch.

Der Zuschlag ging an die Fa. FCS Consulting, die bereits über Erfahrung im Umfeld von Universi-

täten verfügt und die das Projekt laufend begleitet.

Für das Risikomanagement erfasst das Arbeitspaket 5.3 laufend die Risiken des Projekts, beurteilt

sie zyklisch neu und löst gegebenenfalls Maßnahmen zur Risikobegrenzung aus.

Zur Qualitätssicherung der Projektergebnisse wurde ferner das Arbeitspaket 5.6 eingerichtet, wel-

ches kontinuierlich die Arbeitsergebnisse begutachtet und im Bedarfsfall notwendige Verbesse-

rungen anregt. In diesem Zusammenhang wurde außerdem, abweichend vom ursprünglichen

Plan, das Arbeitspaket 5.9 (Continual Service Improvement (CSI)) eingerichtet, das sich um den

kontinuierlichen Verbesserungsprozess der IT Services kümmert. Da das CSI in ITIL keinen Prozess

darstellt, wurde das Arbeitspaket den Querschnittsaufgaben zugeordnet.

Eine diffizile Arbeit war die Aufgabe der Neubenennung des Regionalen Rechenzentrums für Nie-

dersachsen, wofür das Arbeitspaket 5.4 eingerichtet wurde. Der ursprünglich im Projektauftrag

angedachte Name „Zentrale Services Informationstechnologie“ führte zu einem Namenskürzel,

das im englischen Sprachraum negativ belegt ist. Infolge dessen wurde das Institut für Marketing

und Management damit beauftragt, eine Markenanalyse durchzuführen, woraus ein neues

33

Markenkonstrukt mit einem neuen Namen für das Rechenzentrum hervorging. Das Präsidium

beschloss - entgegen dem Rat der beauftragten Markenanalysten - die Benennung in

„Leibniz Universität IT Services“ (kurz: LUIS).

Für die notwendige Transparenz und Vermittlung der Projektinhalte innerhalb der Universität

wurde das Arbeitspaket 5.1 aufgestellt, das sich aus Angehörigen des Rechenzentrums, der Fa-

kultäten, des Dezernats für Organisationsentwicklung sowie des Dezernats für Kommunikation

und Marketing zusammensetzt. Es hat in den ersten beiden Jahren zahlreiche Informationstätig-

keiten durchgeführt und jedes Jahr einen Flyer mit zusammengefassten Projektergebnissen aus-

gegeben. Die laufenden Projektinformationen wurden ferner von Beginn an kontinuierlich auf der

Projekt-Internetseite im Auftritt des Rechenzentrums veröffentlicht

(http://www.rrzn.uni-hannover.de/it-reorg.html).

4.2.2 Tätigkeiten und Ergebnisse im Bereich der ITIL-Prozesse

Ein wesentliches Ergebnis der Projekttätigkeiten im Bereich der Prozesse war die Einführung des

Incident Managements auf Basis des umfangreichen Konzepthandbuchs des Arbeitspakets 2.1.

Störungsmeldungen (Incidents) und Serviceanfragen (Service Request) werden seit Ende 2012

prozessorientiert bearbeitet. Zur Unterstützung des Incident Managements wurde das Ticket- und

Workflowsystem OTRS::ITSM aufgesetzt und gemäß dem erarbeiteten umfassenden Prozesskon-

zept angepasst. Nach langer und intensiver Beratung des Gesamtpersonalrats wurde dazu, vor der

Produktivsetzung des Systems, eine universitätsweit gültige Dienstvereinbarung zwischen dem

Präsidium und Gesamtpersonalrat abgeschlossen. Die vom Arbeitspaket 5.7 (ITSM-Toolauswahl)

ausgewählte Anwendung OTRS::ITSM wird auch in anderen Einrichtungen der Leibniz Universität

Hannover betrieben.

Als Neuerung wurde ein zentraler IT-Service-Desk für das Rechenzentrum eingerichtet, das den

Nutzerinnen und Nutzern ermöglicht, Störungsmeldungen (Incidents) oder Serviceanfragen

(Service Requests) schneller abzusetzen, wobei die direkte Kontaktmöglichkeit zum spezialisierten

Personal erhalten bleibt.

Als zweiter Prozess wurde durch Arbeitspaket 2.4 das Service Level Management konzeptioniert,

welches als Schnittstelle zwischen den Kunden und dem Rechenzentrum für die Serviceentwick-

lung agiert. In der Hauptverantwortung dieses Prozesses stehen die Koordination der Erarbeitung

und Vereinbarung von Service Level Agreements, sowie das Berichten über die Einhaltung zuge-

sagter Servicequalität.

4.2.3 Tätigkeiten und Ergebnisse im Bereich der Services

Die Arbeitspakete 3.1 (Netz), 3.2 (E-Mail), 3.3 (Webservice) und 3.10 (Lizenzmanagement), sowie

3.11 (Backup & Restore) haben jeweils die Kundenanforderungen an den Service erhoben. Auf

Basis dieser Kundenanforderungen wurden die Serviceleistungen auf der funktionalen Seite so-

weit wie möglich umgesetzt und auf der organisatorischen Seite eine Einigung über je eine Ser-

vicebeschreibung und ein Service Level Agreement erzielt. Die dadurch eingetretenen Verbesse-

rungen durch die Neuausrichtungen sind im Einzelnen im Kapitel 3 dargestellt.

4.3 Projekt „ IT-Governance “

Ausgangssituation und Ziel

Ausgangssituation ist eine historisch gewachsene Gremienstruktur der IT-Governance an der

Leibniz Universität Hannover, die in ihrer Gesamtheit nicht systematisch konzipiert und bisher

auch nicht systematisch analysiert wurde. Ziel des Projektes ist die Vorlage einer Empfehlung für

die Weiterentwicklung der IT-Governance-Strukturen der Leibniz Universität Hannover. Grund-

sätzlich sollen dabei im Sinne des Leitbildes nicht nur die Struktur und die Technik im Vorder-

grund stehen, sondern insbesondere bei der Umsetzung die Beschäftigten berücksichtigt werden.

34

Arbeitsgruppe und Projektstart

Neben den zentralen Leibniz Universität IT Services, vertreten durch Prof. Dr.-Ing. Gabriele von

Voigt und Dipl.-Kfm. (FH) Wolfgang Müller, sind Dez.1 Organisationsentwicklung, TSB, CCC, Prof.

Frahm und der Gesamtpersonalrat Mitglieder der AG. Zum Projektstart am 10.02.2012 wurde

zunächst eine verbindliche Definition des Begriffes „IT-Governance“ vereinbart, als auch erste

Projekt-Strukturen und Arbeitspaketinhalte formuliert.

Definition IT-Governance

„IT-Governance ist Führungsaufgabe und umfasst Grundsätze, Organisationsstrukturen, Prozesse

und Maßnahmen, die sicherstellen, dass mit Hilfe der eingesetzten IT die Organisationsziele unter

Berücksichtigung aller Akteure unterstützt und Ressourcen verantwortungsvoll, im Sinne der Ge-

samtorganisation, eingesetzt werden. Zu den Aufgaben der IT-Governance zählen unter anderem

die Entwicklung, Implementierung und Kontrolle der IT-Strategie, die Aufstellung und Kontrolle

von Zielen für die IT sowie die Aufstellung von Regeln zur Entscheidungsfindung. Sie definiert da-

mit Standards und Verantwortlichkeiten, um einen optimalen IT-Betrieb nachhaltig sicherzustel-

len.“3

Arbeitspakete

Die AG bildete mehrere Arbeitspakete, die die Analyse der Ist-Strukturen und die Konzeption von

Soll-Strukturen der IT-Governance als wesentliche Grundlage der zu erstellenden Beschlussvor-

lage enthalten.

Den Ausgangspunkt bildet zunächst die Analyse der bestehenden Strukturen durch mündliche

und schriftliche Befragungen der unterschiedlichen Stakeholder bzw. Gruppen an der Leibniz Uni-

versität Hannover, wobei Stärken und Schwächen der bestehenden IT-Governance-Strukturen

und Erwartungen an die IT-Governance abgefragt wurden. Das AP wurde in 06/2012 erfolgreich

abgeschlossen und bildete die Grundlage für den späteren Strukturverbesserungsvorschlag.

Parallel wurden die Rahmenbedingungen der IT-Governance an der Leibniz Universität Hanno-

ver in Form von Gesetzen und anderen externen Vorgaben (z.B. Zukunftsvertrag, Zielverein-

barungen) sowie internen Festlegungen (z.B. Grundordnung, Leitbild, IT-Leitsätze) systematisch

erhoben, um Grenzen der Gestaltungsmöglichkeiten aufzuzeigen. Sie wurden im Bericht des Ar-

beitspakets per 07/2012 zusammengestellt.

Zur weiteren Fundierung der Arbeit wurden sowohl IT-Governance-Frameworks in der Literatur

analysiert als auch IT-Governance-Modelle anderer Hochschulen. Für eine Bewertung der Mo-

delle anderer Hochschulen fehlt es an ausreichenden Detailinformationen speziell zu den Schwä-

chen der jeweiligen Strukturen, jedoch können die frei zugänglichen Informationen zum Abgleich

mit den in der AG diskutierten Strukturvarianten und ggf. zur Identifikation von „neuen“ Ansätzen

herangezogen werden. Die Analyse wurde per 10/2012 vorgelegt.

Der Schwerpunkt der AG lag im Arbeitspaket 2, welches sich der Konzeption und Modellierung

von Prozessen und Entscheidungsstrukturen der IT-Governance sowie der Identifikation und

Konzeption von Rollen für die Aufgabenträger der IT-Governance unter Berücksichtigung der

Ergebnisse der anderen Arbeitspakte widmete. Die Arbeitsergebnisse wurden in drei Dokumenten

zusammengestellt, die die Prozessbeschreibungen, die Prozessmodelle sowie die Entscheidungs-

strukturen in Form von Rollen, Aufgaben und Befugnissen enthalten. Sie stellen Aspekte der IT-

Governance aus verschiedenem Blickwinkel dar und beziehen sich entsprechend wechselseitig

aufeinander. Das Dokument wird in 01/2013 zusammen mit Arbeitspaket 5, der eigentlichen

Beschlussvorlage, dem BIT vorgelegt.

3 Quelle: Ergebnis aus dem IT-Governance Kick-off Workshop 10.02.12, abgenommen im BIT am 13.03.12

35

5. Ausblick 2013-2014

5.1 Grand Challenges eines modernen universitären Rechenzentrums

Die Leibniz Universität IT Services müssen sich folgenden vier Grand Challenges stellen und diese

bewältigen:

▪ Einführung von ITIL unter starkem Zeit- und Kostendruck bei gleichzeitiger Steigerung des

Serviceangebots

▪ Berücksichtigung der steigenden Energiekosten bei gleichzeitig wachsendem Bedarf an

Rechenleistung (Green IT)

▪ Bewältigung der steigenden Nachfrage nach Kurz- und Langzeitspeicherkapazität unter

Berücksichtigung der steigenden Kosten der Infrastruktur und der erwünschten kurzen

Retrival-Zeiten (Big Data)

▪ Antwort auf die kurzen Innovation Life Cycles unter Berücksichtigung der begrenzten fi-

nanziellen und personellen Ressourcen für die einzelnen IT Services.

Die Grand Challenges lassen sich abbilden auf je drei Hauptfokusbereiche:

Die Herausforderung der Einführung von ITIL im laufenden Betrieb für bereits produktive Services

erfordert die Neuorientierung sowohl des Prozesses als auch aller an der Leistungserbringung be-

teiligten Mitarbeiter. Die sich hieraus ergebende Belastung bedarf stetiger Mitarbeitermotivation

für durch die jeweiligen Führungskräfte. Die Umstrukturierung ist zudem geprägt vom Span-

nungsfeld zwischen festen Prozessbeschreibungen versus Flexibilität, welches für einen IT-Betrieb

grundsätzlich kennzeichnend und erforderlich ist. Für die Nutzer bringt die Einführung von ITIL

Service Level Agreements als wesentliche Neuerung mit sich, welche mit dem Präsidium als Auf-

traggeber abgeschlossen werden.

Das Rechenzentrum muss nicht nur immer neueste Entwicklungen adaptieren und erweiterte

Ressourcen zur Verfügung zu stellen, sondern dies auch unter dem Green IT Aspekt realisieren,

was sich in erster Linie in der Energie-Effizienz der Ressourcen widerspiegelt. Durch Zentralisie-

rung der IT-Ressourcen an der Leibniz Universität kann ein effizienterer Betrieb erreicht und somit

Kosten für die Infrastruktur gespart werden.

Abbildung 10: Die Grand Challenges 2013/14 mit ihren jeweiligen Hauptfokusbereichen

36

Die Herausforderung der Big Data Problematik spiegelt sich für das Rechenzentrum in der Not-

wendigkeit der regelmäßig steigenden Bedarfe an Compute Ressouren seitens der Nutzer wider.

Dies zeigt sich deutlich an der steigenden Nutzungszahl unseres Clustersystems (s. Kapitel 2.6.1).

Damit gehen zwangsläufig auch die steigende Nachfrage nach Speicher und Langzeitarchivierung

sowie die zentrale Bereitstellung von Applikationen einher.

Die größte Herausforderung jedoch ist der kurze Innovation Life Cycle innerhalb der IT, wobei es

für den Produktionsbetrieb immer abzuwägen ist, ab wann neue Entwicklungen die notwendige

Stabilität und den echten Produktcharakter aufweisen. Dies bezieht sich auf die Netzwerke (LAN

und WLAN) der Leibniz Universität, die derzeit ständig wachsen und unter dem Aspekt neuer An-

forderungen auch komplexer werden. Im Compute Bereich spielen neue Architekturen eine große

Rolle. Besonders kurzlebig und schnell muss in der Sicherheitstechnologie reagiert bzw. proaktiv

agiert werden. Neue externe Vorgaben müssen ständig in der IT-Landschaft umgesetzt werden.

Die Tendenz zur permanenten Verkürzung des Innovation Life Cycle in wesentlichen Bereichen der

IT gefährdet zudem die mittel- und langfristige Planbarkeit und Sicherheit als Grundlage von In-

vestitionsentscheidungen.

5.2 Regelbetrieb der laufenden Dienste der Leibniz Universität IT Services

Die Leibniz Universität IT Services werden auch in den Jahren 2013 bis 2014 wie gewohnt alle

Services dem kontinuierlichen Verbesserungsprozess unterziehen. Dies betrifft die Erneuerung der

aktiven Netzkomponenten und der WLAN-Komponenten, als auch den weiteren Ausbau der

WLAN-Abdeckung innerhalb der Universität. Besonderes Augenmerk ist die Vorbereitung auf

einen Umstieg auf IPv6.

Die Firewall Installationen an der Leibniz Universität bedürfen einer Erneuerung. Die Realisierung

erfolgt in Kombination der regelmäßigen Kontrolle der Sicherheitslage an der Universität und der

Ergreifung entsprechender Maßnahmen.

Die Rechnerressourcen werden kontinuierlich ausgebaut, sowohl unter dem Aspekt der Leistungs-

fähigkeit pro Watt, als auch unter dem Aspekt der Ausgewogenheit der SMP- und MPP-Kompo-

nenten im Verhältnis zur Nutzernachfrage. Dazu werden entsprechende Großgeräte- und DFG-

Anträge auf den Weg gebracht.

Die Migration auf ein neues Backup System (Bacula) wird sowohl in Bezug auf die Hardware als

auch Software erfolgen, was eine große Herausforderung im laufenden Betrieb bedeutet, da ein

störungsfreier Zugriff auf Backup und Restore für die Nutzer unverzichtbar ist.

Die Aktualisierung der angebotenen und eingesetzten Software wird weiter vorangetrieben Dies

betrifft einerseits neuere Versionen eingesetzter Software, aber auch den Umstieg von einer

Software für einen Dienst auf einen anderen Anbieter, wenn dies die wirtschaftlichere und

inhaltlich für unsere Universität passendere Variante ist.

Maßgeblich involviert ist das Rechenzentrum bei der Einführung zahlreicher neuer Systeme wie

Forschungsinformationssystem, Forschungsdatenmanagementsystem, Doktorandenverwaltungs-

system oder Veranstaltungsmanagementsystem und natürlich auch das neue Campus Manage-

ment System. Ende 2013 sollen seitens der Verwaltung (AG Datenquellen)um die Voraussetzun-

gen für das zentrale IDM geschaffen sein, damit diese dringend benötigte Funktionalität in der

Universität auch für Mitarbeiter an den Start gehen kann.

Im Bereich Typo3 Webservice steht die Vorbereitung auf responsive Webdesign in den beiden

folgenden Jahren auf der Agenda, wozu die technischen Voraussetzungen (wie Umstellung auf

html5) für alle über 300 Webauftritte geschaffen werden müssen, welche mit dem Baukasten-

system des Rechenzentrums realisiert sind. Ein weiteres Augenmerk wird auf der Imperia Migra-

tion des zentralen Webauftritts in das Baukastensystem auf Typo3 Basis liegen, welche durch

Rechenzentrum und Referat für Kommunikation und Marketing gemeinsam erfolgen muss auf-

grund gekündigter Wartungsverträge, die zu derzeitigen inkonsistenten, uneinheitlichen, nicht

den CI-Vorgaben entsprechenden Imperia Webauftritts führten.

37

Ein großer Meilenstein wird die Inbetriebnahme des nächsten Hochleistungsrechners HLRN-III der

Firma CRAY Inc. sein. Diese Maßnahme umfasst ein Finanzvolumen in Höhe von je 15 Mio. Euro

zuzüglich der Baukosten für die Leibniz Universität IT Services Hannover.

5.3 IT-Reorg-Umsetzungsprojekt

In der zweiten Hälfte des IT-Reorg-Umsetzungsprojekts werden weitere Prozesse und Services

entwickelt bzw. neu ausgerichtet werden. Services-Arbeitspakete, die bereits Mitte des zweiten

Projektjahres ihre Arbeit begonnen haben, werden ihren Produktivgang im dritten Projektjahr er-

reichen können.

Im Bereich der Prozesse werden das Service Asset & Configuration Management und das Change

Management entwickelt werden. Darauf folgend stehen abschließend noch das Problem Manage-

ment und das Release Management an. Diese Prozesse fokussieren hauptsächlich interne Abläufe,

welche nur das Rechenzentrum betreffen. Insofern dürften diese Prozesse kaum auf Kundeninte-

resse stoßen, sind gleichwohl aber eine wichtige Grundlage zum Erbringen der IT-Leistungen in

der zugesagten Qualität.

Im Bereich der Services wird es neben den bereits etablierten IT-Leistungen, wie z.B. Netz, Web-

service, E-Mail, Backup & Restore und Scientific Computing, weitere neue Angebote geben. Zu

nennen ist in diesem Zusammenhang z.B. die Weiterentwicklung und der Ausbau des Server-

Housings (Institutsserver können im Rechenzentrum untergebracht werden), das zentrale Kalen-

dertool, der Dateiservice (zentraler Speicherplatz für Daten), das Forschungscluster-Housing

(Integration von Rechnern ins Cluster des Rechenzentrums) und der Service Arbeitsplatz-PC.

Über den Projektfortschritt können sich Interessierte auch weiterhin auf der eigens dafür

eingerichteten Internetseite http://www.rrzn.uni-hannover.de/it-reorg.html laufend informieren.

5.4 Projekt IT-Governance

Wie bereits dargestellt, wurde die Analyse- und Konzeptphase des Projektes zum Jahreswechsel

2012/13 abgeschlossen. Nach Vorstellung der Ergebnisse im BIT stehen nun folgende Arbeits-

schritte zur Schaffung der Rahmenbedingungen für die IT-Governance in 2013 an:

1. Beschlussfassung durch das Präsidium der Leibniz Universität Hannover

2. Benehmensherstellung mit dem Gesamtpersonalrat (gem. §75 NPersVG)

3. Kommunikation des Konzepts (durch Präsidium, Referat für Kommunikation und

Marketing, FIOs)

4. Benennung/Besetzung der in der AG (in AP2) definierten Rollen der IT-Governance. Bei

der Umsetzung des vorgelegten Konzepts ist darauf zu achten, dass geeignete Rah-

menbedingungen geschaffen werden, etwa durch Zuweisung eines Arbeitszeitkon-

tingents bei der Besetzung der beschriebenen Rollen sowie durch fachliche, diszipli-

narische und räumliche Zuordnung der benannten Personen.

Anschließend können parallel die Entwicklung der IT-Grundordnung für die Leibniz Universität

Hannover in Zusammenarbeit mit dem Rechtsdezernat, die Strategieentwicklung unter Berück-

sichtigung der bereits laufenden Projekte und Aktivitäten, sowie die Implementierung eines

Risikomanagements umgesetzt bzw. begonnen werden.

38

6. Verknüpfung zu Forschung und Lehre

6.1 Hochleistungsrechnen

Gegründet wurde der HLRN-Verbund im Jahr 2001 von den sechs norddeutschen Bundesländern

Berlin, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein. Ein

gemeinsames Verwaltungsabkommen besiegelte das Ziel, die bestehende regionale Infrastruktur ge-

meinsam durch die Beschaffung und den Betrieb eines Hoch- und Höchstleistungsrechnersystems zu

stärken. Eine Besonderheit des Verbundes ist die Installation des Superrechners an zwei Standorten,

Berlin und Hannover, die aber als ein gemeinsames System betrieben werden. Derzeit sind etwa 130 Großprojekte auf dem HLRN-II aktiv.

Brandenburg im HLRN-Verbund

Elf Jahre nach Gründung des Norddeutschen Verbundes für Hoch- und Höchstleistungsrechnen (HLRN-

Verbund) und pünktlich zur Beschaffung der dritten Generation des HLRN ist das Land Brandenburg

dem Verbund beigetreten. Am 14. Dezember 2012 wurde die Erweiterung durch eine Ergänzung des

HLRN-Verwaltungsabkommens vollzogen. Brandenburg beteiligt sich damit an der Finanzierung der

kommenden Rechnergenerationen des HLRN und ermöglicht so den Forschern staatlicher Hochschulen

des Landes – eine erfolgreiche wissenschaftliche Begutachtung ihrer Projektanträge vorausgesetzt – kostenfreien Zugriff auf die Rechen- und Speicherressourcen des HLRN-Verbundes.

HLRN-III: Neuer Supercomputer für Norddeutschland

Im Dezember 2012 unterzeichneten die Leibniz Universität Hannover und das Zuse-Institut Berlin mit

der Firma Cray die Verträge über das Nachfolgesystem HLRN-III. Das neue System Cray XC30 soll ab

Herbst 2013 die norddeutsche Spitzenforschung in den Hauptanwendungsgebieten Umweltforschung

und Klimawissenschaften, Ingenieurwissenschaften, Physik, Chemie und Lebenswissenschaften unter-

stützen. Die Investitionskosten von 30 Mio. Euro werden je zur Hälfte vom Bund und von den beteilig-

ten sieben Bundesländern Berlin, Brandenburg, Bremen, Hamburg, Mecklenburg-Vorpommern, Nieder-

sachsen und Schleswig-Holstein finanziert. Das Gesamtsystem aus zwei Cray XC30 an den Standorten

Hannover und Berlin mit über 7.100 Intel-Prozessoren der nächsten Generation, die über einen Aries

Interconnect verbunden sind, soll ab Herbst 2014 eine Spitzenleistung von 2,6 PetaFlop/s bei 222 Tera-

byte Hauptspeicher bereitstellen. Es wird ergänzt durch ein SMP-System mit Infiniband-Netzwerk sowie Knoten für Pre- und Postprocessing und ein schnelles Lustre-Dateisystem mit 7,2 PetaByte.

Das Gesamtsystem des HLRN-III umfasst in der ersten Ausbaustufe (Aufbau im Herbst 2013)

▪ 1.488 Dual-Socket MPP-Knoten, jeweils mit Intel "Next Generation" Xeon E5-Prozessoren

▪ 93 TB Hauptspeicher

▪ Aries Interconnect mit Dragonfly Topologie

▪ 2.8 PB paralleles Lustre-Dateisystem (WORK) über FDR Infiniband-Netzwerk

▪ 1 PB Heimat-Dateisystem, NFS über 10 GE-Netzwerk

ergänzt um

▪ ein SMP-System bestehend aus

▪ 32 Dual-Socket-Knoten mit Intel "Next Generation" Xeon-Prozessoren

▪ jeweils 256 GB Arbeitsspeicher

▪ Dual FDR Infiniband Netzwerk

▪ 4 Spezialknoten für Pre-/Postprocessing

▪ Diverse weitere Spezialknoten

39

Das Gesamtsystem im Endausbau (Aufbau im Herbst 2014) umfasst:

▪ 3.552 Dual-Socket MPP-Knoten, jeweils mit Intel "Next Generation" Xeon Prozessoren

▪ 222 TB Hauptspeicher

▪ Aries Interconnect mit Dragonfly Topologie

▪ 7.2 PB paralleles Lustre-Dateisystem (WORK) über FDR Infiniband-Netzwerk

▪ 1 PB Heimat-Dateisystem, NFS über 10 GE-Netzwerk

ergänzt um

▪ ein SMP-System bestehend aus

▪ 64 Dual-Socket-Knoten mit Intel "Next Generation" Xeon-Prozessoren

▪ jeweils 256 bzw. 512 GB Arbeitsspeicher

▪ Dual FDR Infiniband Netzwerk

▪ 8 Spezialknoten für Pre-/Postprocessing

▪ Diverse weitere Spezialknoten

Als Systemsoftware kommt das Cray Linux Environment (basierend auf SLES 11) zum Einsatz.

6.1.1 Hochleistungsrechner HLRN in Zahlen

Werte über beide Standorte aggregiert.

HLRN-II HLRN-III

Spitzenrechenleistung im Vollausbau 240 TF 2,5 PF

Hauptspeicher RAM 102 TB 222 TB

Rechenkerne(*) 20480 85000

Anwendungsrechenleistung nach HLRN-III Benchmark

9,5 TF 72,2 TF

Work-Dateisystem (Lustre) 1,6 PB 7,2 PB

Home-Dateisystem 20 TB 1 PB

Anzahl der Racks(*) 98 30

Stromaufnahme(*) 1,6 MW 1,6 MW

Rechnerarchitektur Intel Xeon Intel Xeon

Größtes MPP-Segment(*) 7680 Kerne 44920 Kerne

MPP Kerne pro Knoten(*) 8 24

MPP Hauptspeicher pro Knoten 48 GB 64 GB

SMP Knoten 152 64

SMP Kerne pro Knoten(*) 16 32 bzw.40

SMP Hauptspeicher pro Knoten 64 GB 256 bzw. 512 GB

(*) Werte können sich noch ändern.

Die zweisprachige Web-Seite des HLRN finden sie unter www.hlrn.de.

40

6.2 Distributed Virtual Reality (DVR)

Das Fachgebiet Distributed Virtual Reality (DVR), das dem Institut Verteilte Systeme der Fakultät

Elektrotechnik und Informatik angehört, ist räumlich bei den Leibniz Universität IT Services und

organisatorisch im Forschungszentrum L3S angesiedelt. Es wird in Personalunion von der Ge-

schäftsführenden Direktorin Prof. Dr.-Ing. Gabriele von Voigt geleitet. Das Fachgebiet DVR enthält

die Distributed Computing & Security Group-geleitet von Professor Dr. rer. nat. Matthew Smith.

Ende 2012 waren 11 Lehr-und Forschungsstellen (1 x W2, 1 x E14, 9 x E13) zur Entwicklung von

Basistechnologien und innovativen Anwendungen dort tätig, die vollständig aus Drittmitteln fi-

nanziert werden. Die Schwerpunkte der Forschung liegen in den Bereichen Grid Computing,

sichere Infrastrukturen, Konzeption sowie Management komplexer IT-Umgebungen.

6.3 Grid-Computing und e-Infrastrukturen

Die Forschergruppe ist in den durch das Bundesministerium für Bildung und Forschung (BMBF)

geförderten Projekten D-Grid Integrationsprojekt 1 (DGI-1), D-Grid Integrationsprojekt 2 (DGI-2),

Interoperabilität und Integration der VO-Management Technologien im D-Grid (IVOM) und Geo-

dateninfrastruktur-Grid (GDI-Grid) vertreten. Weiterhin wird ein Kernstandort des D-Grid mit

Compute- und Storage-Ressourcen betrieben. Diese ebenfalls durch das BMBF finanzierten Res-

sourcen stehen als Teil der nationalen Grid-Infrastruktur allen im D-Grid beteiligten Communities

und den LUH-Nutzern zur Verfügung.

Für die Bearbeitung von Rechenaufträgen standen im Berichtszeitraum am Rechenzentrum der

Leibniz Universität 30 Worker-Nodes zur Verfügung. Jeder Knoten verfügt über zwei Intel Xeon

5.355 Quad-Core CPUs und 16 GigaByte Arbeitsspeicher. Die Kommunikation zwischen den

Knoten erfolgt über Gigabit Ethernet.

Durch die SAN-Infrastruktur der D-Grid Produktionsumgebung werden sowohl die dCache-

Installation als auch das Cluster-System mit flexiblem und leistungsfähigem Massenspeicher

versorgt. Es stehen zwei EMC CX3-40 bzw. CX3-40f Systeme mit zusammen ca. 115 TeraByte

Speicher zur Verfügung, die mittels 4 Gbps Fibre-Channel redundant an einen Cisco MDS 9509

SAN Director angeschlossen sind.

Der Zugang zu den Rechenressourcen der D-Grid Produktionsumgebung unserer Einrichtung wird

den D-Grid Nutzern durch drei Frontends für die Grid-Middlewares UNICORE 6, LCG/gLite 3.0 so-

wie Globus Toolkit 4.0 ermöglicht. Diese implementieren einen UNICORE Network Job Supervisor

(NJS) sowie das TORQUE Target System Interface (TSI). Weiterhin steht ein LCG Computing Ele-

ment (CE) sowie ein Globus Grid Resource Allocation Manager (GRAM) zur Verfügung.

Der Zugriff auf die Massenspeicher-Ressourcen wird über eine leistungsfähige dCache-In-

stallation ermöglicht, die aus einem Administrationsknoten und zwei Pool-Nodes besteht.

41

6.3.1 DGI-2 Aufstockung

Das D-Grid Integrationsprojekt 2 (DGI-2) wurde durch einen Aufstockungsantrag verlängert.

▪ Laufzeit: 1. Januar 2011 - 31. Dezember 2012

▪ Personal: 2 wiss. Mitarbeiter für 2 Jahre (Vollzeit)

Aufgaben:

▪ zentrale Accounting-Infrastruktur

▪ Sicherheitsprozessmanagement für die Sicherheit im D-Grid(AAI) sowie Hilfe zu

gridspezifischen Fragen bzgl. Firewallkonfiguration und -überwachung

6.3.2 EGI-InSPIRE

Das Ziel von EGI-InSPIRE ist es, europäischen Wissenschaftlern eine nachhaltige, verlässliche

e-Infrastruktur zu bieten, wie sie für Großforschungsprojekte notwendig ist. EGI-InSPIRE koor-

diniert den Übergang von einer projektbasierten e-Infrastruktur, welche durch die Serie von

EGEE-Projekten aufgebaut wurde, hin zu einer nachhaltigen paneuropäischen e-Infrastruktur, die

auf nationalen Grid-Infrastrukturen basiert.

▪ Laufzeit: 1. Mai 2010 – 30. April 2014

▪ Personal:

▪ 1 wiss. Mitarbeiter für 4 Jahre (Teilzeit)

▪ 1 wiss. Mitarbeiter für 3 Jahre (Teilzeit)

Die Forschungsthemen umfassen:

▪ Entwicklung im Bereich Accounting

▪ Betrieb Grid Infrastruktur

6.3.3 e-IRGSP3

Die e-Infrastructure Reflection Group (e-IRG) ist eine Policy Organisation, deren Mitglieder von

den Regierungen der Mitgliedsstaaten und assoziierten Staaten der Europäischen Union entsandt

werden. Frau Prof. Dr.-Ing. Gabriele von Voigt ist die Deutschland Delegierte des e-IRG, ernannt

vom BMBF. Die e-IRG erarbeitet verschiedene Dokumente (White Paper, Blue Paper, Roadmaps,

etc.), die den gesamten Bereich der e-Infrastrukturen abdecken. In diesen Dokumenten wird

Position zu den aktuellen Entwicklungen und Trends im Bereich von supranationalen e-Infra-

strukturen bezogen, die von den nationalen Regierungen und der Europäischen Kommission zur

Entscheidungsfindung genutzt werden.

Das Supportprogramm e-IRGSP3 bietet den Delegierten Unterstützung bei der Entwicklung der

Policy-Dokumente.

42

▪ Laufzeit: 1. Dezember 2010 – 30. November 2013

▪ Personal: 1 wiss. Mitarbeiter für 3 Jahre (Teilzeit)

Die Themen umfassen:

▪ Dissemination

▪ Support Action

6.3.4 FLINTH

Prof. Dr.-Ing. Gabriele von Voigt verantwortet den Teil des NTH-Projekts „Forschungs-und Kolla-

borationsinfrastruktur für die NTH“ (FLINTH), der an der Leibniz Universität angesiedelt ist und die

Entwicklung und den Aufbau einer Compute Cloud zur Aufgabe hat. Das Projekt wurde in 2012

genehmigt.

6.4 Lehre

Prof. Dr.-Ing. Gabriele von Voigt hat als Leiterin des Fachgebiets Distributed Virtual Reality inner-

halb der Fakultät für Elektrotechnik und Informatik eine Lehrverpflichtung mit reduziertem Lehr-

deputat von 2 SWS. Die Lehrveranstaltungen haben starken Bezug zum produktiven Betrieb des

Rechenzentrums. Insgesamt wurden im Berichtszeitraum sieben Lehrveranstaltungen durch

Prof. Dr.-Ing. Gabriele von Voigt selbst oder in Zusammenarbeit mit ihr angeboten:

▪ Seminar: „IT-Sicherheit“

▪ Labor „Ausgewählte Themen der IT-Sicherheit“

▪ Seminar „Aspekte Verteilter Systeme“

Darüber hinaus wurden im Berichtszeitraum 3 Promotionen, 8 Master- und 16 Bachelorarbeiten

abgenommen.

43

7. Abbildungsverzeichnis

Abbildung 1: Aufbauorganisation............................................................................................................................ 3 Abbildung 2: Entwicklung der Anschlussrate ...................................................................................................... 8 Abbildung 3: Vernetzungsmaßnahmen pro Berichtsjahr ................................................................................ 9 Abbildung 4: Anzahl der Passiven Ports ............................................................................................................... 9 Abbildung 5: Rechenleistung des Clustersystems ........................................................................................... 15 Abbildung 6: Verbrauchte CPU-Stunden ............................................................................................................ 16 Abbildung 7: Beschaffung und Verleih von Notebooks ................................................................................. 27 Abbildung 8: Veranschaulichung der RDP-Verbindung................................................................................. 28 Abbildung 9: Projektorganisation .......................................................................................................................... 31 Abbildung 10: Die Grand Challenges 2013/14 mit ihren jeweiligen Hauptfokusbereichen ............... 35

44

Direktorin der Leibniz Universität IT Services Prof. Dr.-Ing. Gabriele von Voigt

Fachgebietsleitung Distributed Virtual Reality [email protected]

der Fakultät für Elektrotechnik und Informatik,

Direktorin des Forschungszentrums L3S

Stellvertr. Leitung Uwe Klinger

Bereichsleiter Kommunikationssysteme [email protected]

Bereichsleiter Verwaltung Marcus Jabben

[email protected]

Leitung User Help Desk und Druck-Service Geert-Dieter Heesmann

[email protected]

Leiter Arbeitsplatzrechner und Sicherheit Hergen Harnisch

[email protected]

Juniorprofessor für Rechnernetze am Fachgebiet Prof. Dr. Matthew Smith

Distributed Virtual Reality [email protected]

Computing Security Group

Leitung DCSec

Bereichsleiter HLRN und wissenschaftliche PD Dr. Steffen Schulze-Kremer

Anwendungsbetreuung [email protected]

Leibniz Universität IT Services

Schloßwender Straße 5

30159 Hannover

Tel: 0511 762-3170

Fax: 0511 762-3003

http://www.rrzn.uni-hannover.de