28
Eine Themenbeilage der Heise Zeitschriften Verlag GmbH & Co. KG powered by: RECHENZENTREN UND INFRASTRUKTUR KOMPONENTEN, KABEL, NETZWERKE III 2010 Verkabelung: Singlemode-Faser für 100 GbE Seite 4 Transceiver-Technik: SFP, XFP und SFP+ kümmern sich um Signale Seite 8 Anwenderbeispiel: Container-RZ beim Roten Kreuz Seite 10 KVM-Technologie: Grenzenloser Fernzugriff auf das Rechenzentrum Seite 12 TCP/IP und KVM: Standardprotokoll steuert Eingaben Seite 18 Hochverfügbarkeit: Totale Ausfallsicherheit ist unbezahlbar Seite 22 www.rechenzentren-infrastruktur.de Hochverfügbarkeit exakt berechnen

RECHENZENTREN UND INFRASTRUKTUR - heise.de · struktur versenden – das hat schon seinen Charme für die meisten Unternehmen. Ver-spricht dieser Ansatz in letzter Konsequenz doch

  • Upload
    ngominh

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Eine Themenbeilage der Heise Zeitschriften Verlag GmbH & Co. KG

powered by:

RECHENZENTRENUND INFRASTRUKTURKOMPONENTEN, KABEL, NETZWERKE

III2010

Verkabelung: Singlemode-Faserfür 100 GbESeite 4

Transceiver-Technik: SFP, XFP und SFP+ kümmern sich um SignaleSeite 8

Anwenderbeispiel: Container-RZ beim Roten KreuzSeite 10

KVM-Technologie: Grenzenloser Fernzugriff auf das RechenzentrumSeite 12

TCP/IP und KVM:Standardprotokoll steuert EingabenSeite 18

Hochverfügbarkeit: Totale Ausfallsicherheit ist unbezahlbarSeite 22

www.rechenzentren-infrastruktur.de

Hochverfügbarkeitexakt berechnen

Einsparpotenzial Außenluft: DFC2– Direkte Freie Kühlung von STULZ

IT Cooling Solutions

Mehr Rechenpower auf weniger Fläche: Mit dieser Heraus-

forderung steigt die Nachfrage nach energieeffizienten Klimaideen.

Eine dieser Ideen heißt DFC2 – Direkte Freie Kühlung von STULZ.

Mit der umweltfreundlichen Green Cooling Lösung in unseren

CyberAir Klimageräten wird gefilterte Außenluft unter 18 °C

genutzt – und dank des neu entwickelten klappbaren Wärme-

tauschers ein Energie-Einsparpotenzial von bis zu 80 % geschaffen!

Möchten Sie mehr erfahren? Wir beraten Sie gern!

STULZ GmbH

Holsteiner Chaussee 283 . 22457 Hamburg

Tel.: +49(40)55 85-0 . Fax: +49(40)55 85-352 . [email protected]

www.stulz.com

MeMehh

53-3417-10 DFC_TAB_RZ.indd 1 02.07.2010 15:16:19 Uhr

Im Juni 2010 wurde der Ethernet-StandardP802.3ba mit Übertragungsraten von 40

und 100 GBit/s von der Standardisierungs-Organisation IEEE offiziell verabschiedet. Ge-meinsam daran gearbeitet haben die EthernetTask Force und der Telecommunication Stan-dardization Sector of the International Te le -communication Union (ITU-T). Das allein deutetschon darauf hin, dass sich die Konvergenzim Netzwerkbereich nicht aufhalten lässt.

Doch leider ist noch nicht alles Gold, wasglänzt. Alle Transferarten über dieselbe Infra-struktur versenden – das hat schon seinenCharme für die meisten Unternehmen. Ver-spricht dieser Ansatz in letzter Konsequenzdoch weniger Kosten, und zudem hält mehrFlexibilität Einzug in die Organisationen.

IT-Konzepte, die sich hinter dem ModebegriffCloud Computing verschanzen, der Ausbauder Speichernetze und der Bedarf an multi-medialen Online-Inhalten wird den Bandbrei-tenbedarf in den nächsten Jahren weiter dras-tisch nach oben treiben. Deshalb kommt fürdie IT-Infrastruktur in Unternehmen eine enor-me Dynamik ins Spiel.

Hier gilt es, die entsprechenden Infrastruktu-ren vorzuhalten. Im Bereich der Verkabelungsteht eine Ablösung bereits vor der Tür: Werdie schnellen Übertragungsnormen ausnut-zen möchte, der muss für sinnvolle Übertra-gungslängen auf die Glasfaserverkabelungumsteigen. Kupfer als Übertragungsmediumfunktioniert nur im einstelligen Meterbereich.Doch bei der Frage der optimalen Glasfaserscheiden sich erneut die Geister.

Am intensivsten wurde auf dem letzten Ein -tages-Event der iX zum Thema Rechenzen-tren und Verkabelung in Neuss die Diskussiongeführt, welche Glasfasern sich am bestenfür die Hochgeschwindigkeitsübertragung eig-nen. Aus Sicht der Verkabelungsherstellerempfiehlt sich der Einsatz von moderner Multi-mode-Verkabelung. Doch von anderer Seitewird argumentiert, dass es um die Zukunfts-sicherheit dieses Ansatzes schlecht bestelltsei (siehe Beitrag ab Seite 4). Demzufolge giltder Einsatz von Singlemode-Glasfasern alseine valide und vielleicht sogar bessere Alter-native.

In dieser Ausgabe finden sich schlagkräftigeArgumente aus dem Blickwinkel der Single-mode-Verfechter. Falls Sie zu dieser Diskus-sion beitragen möchten, würde ich gerneIhre Einschätzung hören. Vielleicht stoßenwir ja so einen interessanten Diskurs an –mein Postfach steht für Ihr Feedback bereit:[email protected]. Gerne können Sie auch diezwei noch anstehenden Eintages-Konferen-zen in Frankfurt/Main (21. September 2010)und in Hamburg (9. Dezember 2010) zum In-formationsaustausch nutzen.

Rainer Huttenloher

PS: Mehr Informationen zur Veranstaltungs-reihe „Rechenzentren und Infrastruktur –Komponenten, Kabel, Netzwerke“ finden sichunter www.rechenzentren-infrastruktur.de

Rechenzentren und Infrastruktur III/2010 3

EDITORIAL

Verkabelung für konvergente Netze

Das Thema um die Investitionssicherheit der Glasfaserstrecken inRechenzentren steht im Mittelpunkt der Diskussion – vor allem

unter dem Aspekt, dass künftig 40 und 100 GBit/s über die verlegtenFasern zu transportieren sind. Die Spezifikation des Ethernet-Stan-dards P802.3ba mit 40 GBit/s und 100 GBit/s wurde von der Standar-disierungs-Organisation IEEE offiziell im Juni 2010 verabschiedet. Ge-meinsam gearbeitet haben an diesem Standard die Ethernet TaskForce und der Telecommunication Standardization Sector of the Inter-national Telecommunication Union (ITU-T).

Seit geraumer Zeit haben die Faserhersteller Gradientenfasern fürMultimode-Übertragung entwickelt, die OM-3 und OM-4. Laut Spezifi-kation der TIA (Telecommunication Industry Association) haben dieseFasern eine modale Bandbreite von 1500 MHz (für OM-3) beziehungs-weise 3500 MHz (OM-4). Konkret bedeutet das für 10-GBit/s-Ethernet(10 GbE), dass mit einer OM-3-Faser Übertragungsstecken von einerLänge von bis zu 300 Metern möglich sind, bei OM-4 sind es sogar550 Meter.

Das sieht auf den ersten Blick imposant aus, doch betrachtet mandie zukünftigen Entwicklungen in Richtung 40 GbE oder 100 GbE,dann zeigt sich, dass diese Fasern heute schon wieder an ihre Limits

kommen. Beim Standard IEEE 802.3ba zu 40 und 100 GbE sprichtman vom 40G Base-SR4. Dabei werden vier 10-GbE-Strecken parallelübertragen. Allerdings sind dann nur mehr Streckenlängen von 100 Metern bei einer OM-3-Faser im Gespräch.

Die ersten Limitierungen bei derÜbertragungslänge zeichnen sich bereits abDas ist mit der Problematik vergleichbar, wie sie von der OM-2-Faserher bekannt ist. Bei 1-GBit/s-Ethernet galten damals noch 550 Meterals die Begrenzung. In der Folgegeneration, bei 10 GbE schrumpftediese Distanz auf 86 Meter zusammen. Daher sollte man sich für seinRechenzentrum genau überlegen, ob in dem neuen Gebäude eine OM-3-Faser verbaut wird. Es ist abzusehen, dass in ein paar Jahren wie-der diverse Probleme auftreten – so wie heute bei der 10-GbE-Installation auf OM-1- oder OM-2-Fasern.

Jetzt könnte man denken, dass diese Längenreduzierungen die logischen Folgen fortlaufender Entwicklungen sind und man sichdamit abzufinden habe. Doch das muss nicht sein, es bietet sich eineelegante Lösung an.

4 Rechenzentren und Infrastruktur III/2010

VERKABELUNG

Singlemode-Faser hat guteAussichten für 40 und 100 GbE Diskussion um Zukunftssicherheit bei Glasfasern

Die Frage nach der geeigneten Glasfaser-Verkabelung für Ethernet mit 40 und 100 GBit/s ist umstritten. Sollman auf Multimode-Fasern nach OM-3 oder gar OM-4 setzen oder doch lieber in das Lager der Singlemode-Faseranwender wechseln? Diese Diskussion stand im Mittelpunkt der Konferenz „Rechenzentren undVerkabelung“, die von Heise Events in Neuss veranstaltet wurde.

Die Singlemode-Glasfaserbekommt durch Wellenlängen-Muliplex-Verfahren einzusätzliches Potenzial (Abb. 1).

Bei 10 GbE über OM-2-Fasern schrumpft diemaximale Übertragungslängeauf 86 Meter (Abb. 2).

Die verlegten OM-3-Fasernsind zu lang für künftigesserielles 100 GbE (Abb. 3).

Bei OM-4-Fasern liegt die modale Bandbreite bei3500 MHz (Abb. 4).

Quel

le: F

lexo

ptix

hubersuhner.com

HUBER+SUHNER GmbH82019 Taufkirchen T +49 89 6 12 01-0 [email protected]

HUBER+SUHNER ist Ihr zuverlässiger Partner für LAN und WAN Netze, DataCenter, Rechenzentren.

Kabel•

LC-HQ Push-Pull•Plug+Play Kabelsysteme•MTP• ® strukturierte VerkabelungKabelmanagement •Dienstleistungen•

«Zukunftssichere Technologie vom Fiberoptik-Experten»

Die Singlemode-Fasern haben in ihrem jahrzehntelangem Besteheneine wesentlich höhere „technische Haltbarkeit“ bewiesen. Es warennur zwei entscheidende Sprünge zu vollziehen: Von der G.652 – eineGlasfaser, die für die Wellenlänge von 1310 Nanometer (nm) optimiertist, und die neuere G.655; sie ist für die Übertragung mit der Wellen -länge von 1550 nm konzipiert. Bei den Übertragungslängen hat sichaber im Gegensatz zur Multimode-Fasern nichts geändert: 10 Kilometerfür 1 GbE und 10 Kilometer für 10 GbE sind auch heute Standard.Zudem liegt der Preis allein für das Kabel (also ohne Steckverbinderund Transceiver) bei der reinen Singlemode-Faser mittlerweile unterdem von Multimode-Fasern (sprich OM-3 oder OM-4).

Der Grund dafür ist im Herstellungsprozess zu suchen: HeutigeMultimode-Fasern bestehen aus unterschiedlichen und mehrerenGlassorten (daher der Begriff Gradientenfaser). Diesen Sandwich-Auf-bau erlaubt ein aufwendiger Prozess in der Faserherstellung. DieSpleiße und die notwendige Anschlusstechnik (Patch-Felder, Kupplun-gen, Stecker) befinden sich bei Singlemode und Multimode in etwaauf demselben Preisniveau.

Transceiver-Kosten für Singlemode-Technikliegen noch hochDas Einzige was bei der Singlemode-Technik heute noch teurer ist,sind die Transceiver – hier muss man mit einer 30 bis 50 Prozent hö-heren Investition rechnen. Doch diese Mehrkosten lassen sich bei ent-sprechenden Kabellängen im Rechenzentrum mit der günstigerenSinglemode-Faser amortisieren. Nicht zu vergessen ist außerdem derEinsatz von „mehrfarbigem Licht“, sprich der parallelen Übertragungmehrere Datenströme mittels WDM (Wellenlängen-Multiplex-Ver fah -ren). Der heute weitverbreitete Einsatz von CWDM- oder DWDM-Syste-men ist nahezu ausschließlich auf Singlemode-Fasern möglich und derdamit realisierbare nutzbare Bandbreitenzugewinn kann die 16- bis80-fache Faserkapazität betragen.

Neben allen direkten Kosten gibt es aber ein weiteres gewichtigesArgument gegen die Multimode-Faser. Es kann durchaus sein, dassman in ein paar Jahren die heute verlegten OM-3-Fasern nicht mehrfür serielles 100 GbE (also 100 GbE über eine Faser, keine paralleleÜbertragung von zehnmal 10 GbE oder viermal 25 GbE) verwendenkann und erneut Kabel zu verlegen hat. Denn die installierten OM-3-Fasern sind einfach zu lang für serielles 100 GbE. Vor einem ähnli-chen Problem stehen heute einige Unternehmen, die jetzt 10 GbE aufihren 100 Meter langen OM-2-Fasern fahren wollen. Aus technischerSicht gibt es wohl auch eine andere Lösung: Man überträgt einfachzehnmal 1 GbE über die OM-2-Fasern und aggregiert anschließenddie Signale. Allerdings werden die Kosten für diese beiden Ansätzesehr hoch sein.

Thomas Weibleist der Geschäftsführer von Flexoptix.

Rechenzentren und Infrastruktur III/2010

VERKABELUNG

Haben sie auch zur Diskussion Singlemode- versus Multimode-Glasfasern bei schnellem Ethernet eine Meinung oder bereitserste Erfahrungswerte? Wenn ja, würde ich mich über ihr techni-sches Feedback freuen.

Rainer Huttenloher ([email protected])

FEEDBACK ERWÜNSCHT

ix0810_b_00_mit_Anz.indd 5 05.07.2010 11:16:28 Uhr

Automatisches IT Asset Management –das Problem der letzen MeileModerne Management Systeme in Rechenzentren bieten in punctoAsset Management, Workflow Control, Konfigurationsmanage-ment von der Applikationsseite her alles, was man sich vorstellenkann. Gerade wegen dieses mächtigen Funktionsumfangs sind sol-che Systeme auf eine umfassende Menge an zuverlässigen und stetsaktuellen physikalischen Daten angewiesen. Rechenzentrums-Ma-nagement kann daher trotz neuester Software Tools nur so gut, ak-tuell und zuverlässig sein, wie die Daten, auf die es sich stützt.Insbesondere im Asset Management ist die Erfassung mittels Bar-code sowie das größtenteils manuelle Einpflegen der Positions- undLokationsdaten gegenwärtig Stand der Technik. Jeder manuelleSchritt birgt allerdings ein wesentliches Fehlerpotenzial in sich, dassich über alle Applikationen und Zeiträume hinweg fortpflanzt,wenn es einmal im System ist. Im September 2009 eröffneten Intel und T-Systems im Rahmen ihrerstrategischen Allianz das DataCenter 2020 (www.datacenter2020.de)im Euroindustriepark in München. Ziel des Projektes ist es, Model-le für ein Rechenzentrum der Zukunft zu entwickeln. Das Haupt -augenmerk liegt auf dem Thema Energieeffizienz, wodurch sichKosten und Energieressourcen einsparen und der CO2 Ausstoß re-duzieren lassen. Das Testlabor ist hierzu mit ca. 180 Servern inRacks sowie neuester Energie-, Klima-, Mess- und Regeltechnikausgestattet. Über rund 1800 Datenpunkte werden Werte wie Luft-feuchtigkeit, Raumtemperatur, Temperaturdifferenz zwischen Zu-und Abluft, Prozessor-Last oder Lüfter-Drehzahl erfasst. Darüberhinaus werden im DataCenter 2020 zukunftsweisende Technolo-gien erprobt und bewertet, indem nahezu alle den realen Betriebbeeinflussenden Parameter physikalisch exakt nachgebildet undanalysiert werden. Mit diesen Erkenntnissen lassen sich künftigganz neue Wege zum optimalen Betrieb und Ressourceneinsatz inRechenzentren beschreiten. Optimaler Ressourceneinsatz bedeutetauch eine möglichst effiziente, im Idealfall vollständig automati-sierte, Verwaltung der Assets. In diesem Bereich haben sich T-Sys-tems und Intel entschieden, eine innovative Lösung auf Basis derRFID Technologie wie sie etwa aus der Logistik bekannt ist, in derPraxis zu testen.

IT Asset Monitoring im DataCenter 2020

Welche Ziele stehen im Vordergrund

Asset Management ist mehr als Inventarisierung und Verfolgung!Aus diesem Paradigma heraus blickte man auf der Suche nacheinem Asset Management bzw. Asset Monitoring–System weitüber den Tellerrand bestehender Lösungen hinaus. Ziel war, einkonsistentes, mehrere Bereiche umgreifendes Asset Monitoring zuerproben. Es sollte möglich sein ohne Systembrüche, vollständigautomatisiert und ohne Zeitverzögerung Bestandsdaten aus ver-schiedenen Stationen und Arbeitsabläufen zu ermitteln.

Asset Management beginnt nicht erst im RackAuf dem Weg vom Hersteller bis zu seinem vorbestimmten Rack-Einschub legt ein Server einen langen Weg zurück. Nicht selten istbereits zum Zeitpunkt der Bestellung einer Maschine festgelegt, wosie später eingebaut werden soll.Diesem Umstand Rechnung tragend sollte ein Asset ManagementSystem implementiert werden, das in der Lage ist, den Weg eines

Servers vom Hersteller bis zum Rack zu erfassen und zu dokumen-tieren. Sinnvollerweise geschieht das auf Basis ein und derselbenTechnologie, indem handelsübliche RFID Tags aus der Logistikauch zur Inventarisierung im Rack genutzt werden. So lassen sichLesereichweiten von 10cm bis 2m lückenlos abdecken und System-brüche werden von vornherein vermieden.

Asset Monitoring ermöglicht dynamische Erfassung vonBewegungsdatenDie Möglichkeit der Protokollierung von Bewegungsdaten an ganzunterschiedlichen Punkten der Prozesskette ist eine Konsequenz dergroßen Reichweite passiver RFID Transponder im UHF Band (868MHz). Damit lässt sich nicht nur der Weg einer individuellen Kom-ponente zurückverfolgen, es können insbesondere auch die Zeitin-tervalle der einzelnen Prozesse ausgewertet werden.In sehr anschaulicher Weise ist dies im DataCenter 2020 realisiert.Jeder Server wird an der Eingangstür automatisch identifiziert.Gleichzeitig wird über spezielle Sensoren erkannt, ob er hinein-oder hinausgetragen wird. So kann er zusammen mit dem Zeitstem-pel im Raum „ein-“ bzw. „ausgebucht“ werden. Sobald das Systemin einem Rack eingebaut ist, wird es von diesem automatisch er-kannt und „eingebucht“. Auf diese Weise kann man ebenso einfachwie lückenlos nachvollziehen, wie viel Zeit es in Anspruch nimmt,bis eine Komponente nach der Anlieferung in einem Rack integriertist. Umgekehrt funktioniert der Prozess analog.

Arbeitsabläufe und ihre Dokumentation müssen synchronlaufenEinmal in einem Rack eingebaut, haben Server meist eine rechtlange Betriebsdauer, so dass man von einer im Wesentlichen stati-schen Konfiguration ausgehen kann. Wenn die Inventarisierung –auf welchem Weg auch immer – korrekt durchgeführt wurde, bleibtsie das auch für die nächsten Jahre. In der Regel funktioniert das beiRechenzentren kleiner bis mittlerer Größe mit weitgehend homoge-nen Systemlandschaften und klaren Arbeitsprozessen sehr gut.

Anzeige

Dr. Dieter Kilian, Geschäftsführer Cavea Identification GmbH

Zukunftweisendes IT Asset Monitoring im DataCenter 2020 –Auf Knopfdruck einen Blick ins Rack

Blick vom Kontrollcenter in den Serverraum des DataCenter 2020

Mittlere und große Rechenzentren weisen demgegenüber kontinu-ierliche Bestandsänderungen auf - zwar nicht in jedem einzelnenRack, aber in der jeweiligen Lokation. Wenn diese Modifikationennicht umgehend mit einer Aktualisierung der Inventarisierung ein-her gehen, kann das im Servicefall zu einem sehr hohen Zeit- undArbeitsaufwand führen. Im Datacenter 2020 war daher eine wichti-ge Zielsetzung, auf manuelle Dokumentation und Inventarisierung,

z.B. mittels Barcode, ganz zu verzichten. Jede Bestandsänderungsoll herstellerunabhängig und ohne zusätzliche Schulung des Perso-nals sowie ohne spürbaren Zeitversatz im Managementsystem er-fasst und dokumentiert werden.

RFID Infrastruktur im DataCenter 2020

Die RFID Infrastruktur fügt sich exakt in die strategische Zielset-zung für das DataCenter 2020 ein. Der Umfang der Installationsollte einerseits klein genug sein, um einfach implementiert wer-den zu können. Andererseits muss die Technologie leistungsstarkgenug sein, um verlässliche Daten für weitere Planungen zu erhal-ten.Asset Management beginnt nicht erst am Rack. Daher wurde an derEingangstür eine RFID Lesestation installiert wie sie zum Beispielaus der Logistik bekannt ist, die mit RFID Tags versehene Objekte„im Vorbeigehen“ erfassen kann. Der Leseabstand beträgt dabei 1,5– 2m. Ein derartiges RFID Gate könnte ebenso gut am Warenaus-gang des Hardwarelieferanten, am Wareneingang des RZ und anverschiedenen Türdurchgängen stehen.In den Racks selbst wird über eine Pulkerfassung mit einer einzigenRFID Antenne auf eine Entfernung bis max. 10cm das Inventar de-tektiert. Dabei aktualisiert jedes Öffnen bzw. Schließen der Racktürden Bestand. Alternativ kann auch über einen Softwaretrigger in-ventarisiert werden.Bewegungsdaten werden automatisch erfasst, indem eine Rich-tungserkennung durch entsprechende Sensorik an der Eingangstürin Verbindung mit Objekt-ID und Zeitstempel eine „Ein-“ bzw.„Ausbuchung“ für den Raum automatisch anstößt und eine Lokali-sierung des Objekts jederzeit ermöglicht. In der zentralen Manage-ment Applikation kann man in Echtzeit verfolgen, wann welcheRacktür geöffnet und wieder geschlossen wird. Konfigurationsän-derungen im Rack lassen sich somit „live“ verfolgen und verifizie-ren.Arbeitsabläufe und ihre Dokumentation laufen synchron, indemautomatisch erfasste Objekt- und Sensordaten über Standardschnitt-stellen an eine zentrale Management Software übergeben werden.Die Bestandsdaten sind so stets aktuell, und Arbeiten lassen sichproaktiv planen und überwachen: so ist man beispielsweise in derLage sofort zu erkennen, wenn ein Mitarbeiter versucht ein Systemin ein falsches Rack einzubauen. Aktuell werden im DataCenter2020 ca. 150 Server in 8 Racks permanent überwacht.

Implementierung von Asset Monitoring imDataCenter 2020

RFID IT Asset Monitoring für 19-Zoll Racks – die Kernkompo-nente des Systems wurde von der Firma Cavea Identification entwi-ckelt und in Kooperation mit Knürr AG in 8 Racks mit jeweils 45Höheneinheiten installiert. Die Lösung benötigt lediglich eine ein-zige, kostengünstige RFID Antenne pro Rack, die sich bequemauch in bereits installierte Serverschränke nachrüsten lässt. Bei denebenfalls von Cavea bereitgestellten RFID Transpondern handelt essich um passive UHF Standard Tags, die für den Einsatz auf metal-lischem Untergrund optimiert sind.Für die Implementierung der Tür-Lesestation sowie die Integrationder RFID Racks in eine eigene Management Applikation wurde aufkonzerninternes Know-how der T-Systems zurückgegriffen.

IT Asset Monitoring von Cavea IdentificationDynamic IT Asset Monitoring ist aus der langjährigen Erfahrungvon Cavea Identification in Bezug auf Entwicklung und Umsetzungvon RFID Lösungen entstanden. Daher wurde insbesondere auchauf eine kostengünstige und individuell anpassbare Implementie-rungsvariante Wert gelegt.

So lassen sich Standardkomponenten beliebiger Hersteller verwen-den. Bei den Transpondern besteht freie Wahl der am Markt ver-fügbaren Produkte. Falls die IT Komponenten bereits vom Herstel-ler ab Werk mit RFID Tags versehen sind, können diese genutztwerden.Der Einbau in jedes Standard 19-Zoll-Rack — sogar im laufendenBetrieb — stellt keine Hürde für einen flächendeckenden Einsatzdar, da sich die Nahfeldantenne im Rack mechanisch justieren lässtund für das RFID Lesegerät nur ein Strom- und Netzwerkanschlusserforderlich ist.Darüber hinaus bestehen flexible und skalierbare Erweiterungs-möglichkeiten, ohne dafür Hardware austauschen zu müssen, da dieFunktionalität in der Firmware bzw. Anwendungssoftware abgebil-det wird. Durch die konsequente Verwendung von EPCglobal Stan-dardschnittstellen lassen sich Management- undVerwaltungssysteme direkt anbinden. Dadurchergibt sich im Rechenzentrum ein Mehrwert,der weit über die reine Inventarisierung undObjektverfolgung hinausgeht.

Die Verschmelzung zweier WeltenAuf der linken Seite ist ein typisches RFID Gate für die Fernfeld-Erfassung von Objekten „im Vorbeigehen“ wie es aus der Logistikbekannt ist. Gut zu sehen sind die IR/Radar Bewegungsmelderunterhalb der Decke zur Richtungserkennung und Aktivierung desReaders. Über ein Lichtsignal wird der Betriebszustand vor Ortangezeigt: grün = betriebsbereit, grün+gelb = aktiverLeservorgang, rot = nicht betriebsbereit, blau = erfolgreicherLesevorgang. Auf der rechten Seite ist die neue Cavea-Lösung mit einer Nahfeld-Antenne entlang der Frontseite im Rack. Das Rack ist mit 42 Servernvoll bestückt, die alle im Pulk auf wenige Zentimeter Entfernungerfasst werden. Über einen Türkontakt wird ein RFID Lesevorgangbei Arbeiten vor Ort angestoßen.

B eim Verkabeln mit Glasfaserleitungen wurde oftmals nicht genü-gend Rücksicht auf die Erweiterbarkeit gelegt – sprich man hat

nicht allzu viele Reservefasern verlegt. Daher bleibt nur eine Optionoffen, um sich das teure Neuverlegen von Glasfaserstrecken zu spa-ren: Die vorhandenen Fasern müssen besser – effektiver – ausgenutztwerden. Die klassische Übertragungstechnik verwendet für eine Stre-cke zwei Fasern, sowohl bei Multimode- als auch bei Singlemode-Fa-sern. Eine Faser wird für das Senden von A nach B (als TX bezeichnet),die andere Faser für das Empfangen (RX für A, Senden-TX von B nachA) verwendet. Je nach Übertragung wird eine bestimmte Wellenlängegenutzt, allerdings für beide Strecken dieselbe. 100BaseFX, der Stan-dard zur Übertragung von Fast Ethernet auf Multimode-Glasfaser, ver-wendet zum Beispiel eine Wellenlänge von 1300 Nanometer (nm).

Dagegen verwendet 1000BaseSX, der Standard für Gigabit Ether-net auf Multimode-Glasfaser, die Wellenlänge 850 nm. Jede Wellen-länge hat ihre physikalischen Vor- und Nachteile, ist also besser fürdie eine oder andere Technik geeignet. Manche Wellenlängen lassensich nicht verwenden, da eine Glasfaserleitung kein durchgängig ver-wendbares Spektrum zur Datenübertragung aufweist. Vor allem imBereich um die 1400 nm bestehen hohe Dämpfungswerte, da sich beider Produktion der Glasfaser Wasser in der Faser ablagert.

Die WDM-Technik (Wavelength Division Multiplexing) bringt eineeffizientere Ausnutzung von vorhandenen Glasfasern mit sich. Anstattzwei Fasern auf gleicher Wellenlänge für die Strecke zu nutzen (eineFaser von A nach B und die zweite Faser B nach A), verwendet diese

Technik nur eine Faser mit zwei unterschiedlichen Wellenlängen (sieheAbbildung 1). Diese Wellenlängen werden so gewählt, dass sich dieLichtimpulse in der Faser nicht gegenseitig beeinflussen und sie damitin den Transceivern wieder sauber getrennt werden können.

Das muss man sich so vorstellen, dass jedes Signal mit einer leichtunterschiedlichen Wellenlänge (oder „Farbe“) in die Glasfaser einge-speist wird. Auf der Empfangsseite erfolgt die Auftrennung der einzel-nen Signale durch den Einsatz von optischen Filtern. Das Signal istsomit unabhängig von anderen Kanälen in derselben Glasfaser undkann beliebige „Dienste“ (wie etwa Fibre Channel und Gigabit-Ether-net) aufnehmen. Jeder Dienst wird als eigene Lichtfarbe übertragen.Durch Optische Add-/Drop-Multiplexer (OADM) lassen sich einzelneKanäle auskoppeln und somit redundante Ringstrukturen aufbauen.

Als Standard hat sich die Verwendung der Wellenlängen 1310 nm indie eine Richtung und 1550 nm in die andere Richtung auf einer Faserdurchgesetzt. WDM-Transceiver senden daher entweder auf der einenoder anderen Wellenlänge. Für eine funktionierende WDM-Strecke istdaher je einmal „1310TX/1550RX“ und einmal „1550TX/1310RX“ nötig.

Doch Spezialfälle der WDM-Techniken gehen noch weiter. Die ITU(International Telecommunication Union) hat ein sogenanntes Rastervon Wellenlängen im Abstand von 20 nm herausgegeben. Diese Tech-nik wird mit dem Fachbegriff CWDM (Coarse Wavelength Division Mul-tiplexing) bezeichnet. Mit ihr können acht verschiedene Wellenlängenauf einer Faser verwendet werden. Damit ist es möglich, vier vollwerti-ge Senden- und Empfangen-Datenpfade auf einer Faser zu betreiben.Die Datenpfade sind dabei voneinander getrennt, damit kein Datenver-kehr von einem Pfad zu einem anderen wechseln kann.

Als zusätzliche Erweiterung gibt es noch das DWDM-Verfahren(Dense Wavelength Division Multiplex). Hier ist der Abstand der einzel-nen Signale sehr viel enger und ermöglicht es theoretisch, einige Hun-dert Signale in sogenannten Kanälen parallel zu übertragen. Um dieDWDM umzusetzen, werden in die Transceiver spezielle hochwertigeLaser eingebaut, die höhere Bandbreiten und größere Reichweiten er-möglichen. Diese aufwendige und teure Technik kommt vor allem beiinterkontinentalen Verbindungen zum Einsatz.

Das DWDM arbeitet als ein optisches Wellenlängenmultiplexverfah-ren bei 1550 nm. Die Abstände der Kanäle liegen zwischen 0,8 nmund 1,6 nm. Die ITU-T definiert in der Empfehlung G.692, dem soge-

8 Rechenzentren und Infrastruktur III/2010

VERKABELUNG

SFP, XFP und SFP+ kümmern sich um die SignaleTransceiver sind für die Übertragung auf Glasfasern notwendig

Während die Multimode-Fasern traditionell vor allem für kürzere Strecken innerhalb von Gebäuden genutztwerden, lassen sich mit der Singlemode-Verkabelung große Strecken überbrücken. Entsprechende Transceivererlauben sogar das Überbrücken von Entfernungen mit mehr als 100 Kilometern. Die primäre Aufgabe desTransceiver lautet, aus den elektrischen optische Signale zu erzeugen. Dazu stehen heutzutage Transceiver inForm von GBICs oder auch SFP (Small Form Factor Pluggable genannt) beziehungsweise als die neuerenVarianten XFP und SFP+ zur Verfügung.

Die WDM-Technik (Wavelength Division Multiplexing) – hier alsDWDM aufgeführt – bringt eine effizientere Ausnutzung vonvorhandenen Glasfasern mit sich (Abb. 1).

Quel

le: F

lexo

ptix

nannten ITU-Grid, die Wellenlängen und Kanalabstände. Gängige Sys-teme bieten die Übertragung von bis zu 80 Kanälen über ein Licht -wellenleiter-Paar mit Reichweiten mehrerer 100 km. Der modulareAufbau, der weite Übertragungsbereich (100 MBit/s-10 GBit/s) derTransponder und die Ausführung vieler LWL-Schnittstellen etwa alsSFP Module führen zu einem sehr flexiblen Gesamtsystem.

Prinzip der GBIC-Transceiver

Die Aufgabe der GBIC-Transceiver (Giga Bit Interface Converter) lautet:Die zu übertragenden elektrischen Signale – wie etwa die Ethernet-Frames – sind in die optischen Signale umzusetzen und das für die je-weiligen Bedürfnisse der Übertragungsstrecke. Dadurch braucht mandie Schnittstellenkarte in einem Host (Server) beziehungsweise einemSwitch nicht austauschen, wenn der Datentransfer über andere Me-dien (Glasfaser oder Twisted Pair) erfolgen soll. Es ist lediglich ein an-derer GBIC einzusetzen. Dazu bestehen die GBICs aus einer Sende-und einer Empfangseinheit sowie einem Mikrocontroller. Er übernimmtdabei besondere Aufgaben in der Kommunikation, darunter auch deIdentifikation. So meldet er sich zum Beispiel beim gegenüber nachdem Motto: „Ich bin ein 1-GbE-Multimode Transceiver“ oder „Ich binein 10-GbE-Multimode Transceiver“. Damit erkennt das Host-System,wie die Schnittstelle konfiguriert ist.

Manche Hersteller führen an, diese Module seien gut spezifiziert,doch sie wollen nicht zu viele Informationen in ihnen hinterlegen.Zudem wurden hier herstellerspezifische Dinge eingeführt – darausergeben sich gewisse Eigenheiten – sprich man kann aufgrund dieses„Vendor Lockings“ nur die Komponenten des einen Herstellers ver-wenden. Daher lassen sich manche Transceiver (Small-FormfactorPluggable, SFP oder XFP – wie SFP aufgebaut, aber größer und für10GbE geeignet) in gewissen Systemen nicht erkennen. Weitere Vor-kehrungen der Anbieter sind Checksum-basierte Algorithmen, dieebenfalls zum Ziel haben, dass nur eigene GBICs zum Einsatz kom-men. Doch das lässt sich mit zusätzlicher Programmierung der Mikro-controller auf den Transceivern umgehen. Herstellerunabhängige Spe-zialisten haben die Fähigkeit, die Transceiver so zu programmieren,dass sie auch in den Systemen aller Hersteller funktionieren.

Historisch gesehen ergeben sich für die SFPs und XFPs folgendeCharakteristika: Der SFP wurde für Datenraten von 0,1 bis 4 GbE kon-zipiert. Beim XFP dagegen handelt es sich um eine reinrassige Ent-wicklung für die Transferrate von 10 GbE (das entspricht der Übertra-gungsnorm STM-64 im Telekommunikationsbereich und dem 10 GbEin der Datenübertragung). Um diese Geschwindigkeiten zu erreichen,mussten dem XFP zusätzliche Funktionen – genauer die Clock DataRecovery (CDR) und die EDC (Electronic Dispersion Compensator) zurSignalaufbereitung implementiert werden. Daraus resultiert die grö ßereBauform des XFP. Weiterhin ist der XFP in der Lage, bis zu 3,5 Watt anLeistung aufzunehmen.

Im Zuge der Anforderung an die Portdichte und mit dem Aufkommenvon schnelleren ASICs (Anwenderspezifischen Bausteinen) in den Host-Systemen wurde überlegt, wie man den SFP auf Geschwindigkeiten von10 GbE weiter entwickeln kann. Dabei entstand dann der „SFP+“, einfür 8 oder 10 GBit/s tauglicher SFP (der einerseits Fibre Channel – FC –und andererseits Ethernet unterstützt). Dabei wurden allerdings dieentsprechenden Signalaufbereitungsfunktionen (also das CDR und dasEDC) auf den ASIC im Host ausgelagert. Aus diesem Grund war diekleinere Bauform des SFP (im Vergleich zum XFP) möglich. In Bezugauf die Leistung darf der SFP+ allerdings nur 1,5 Watt verbrauchen.

Doch die Transceiver können noch mehr als Daten schnell übertra-gen. So ist es zum Beispiel möglich, die Faser mit zu überwachen.

Das haben vor allem Telekommunikationsunternehmen eingesetzt,denn sie wollen wissen, ob von der anderen Seite Licht (also Signale)ankommt. Das ist für die Fehlersuche bei langen Strecken sehr wich-tig. Hat ein Unternehmen zum Beispiel eine Dark-Fiber-Strecke ange-mietet, und die Verbindung fällt aus, dann stellt sich die Frage, ob dasProblem beim Sender oder beim Empfänger liegt. Das kann mithilfedes Digital Diagnostic Monitoring ermittelt werden. Es zeigt, was aufLeitung aktiv ist und misst dazu die Leistungen.

Angenommen ein Unternehmen hat zwischen seinen zwei Gebäu-den vier Fasern im Einsatz. Darüber läuft einmal die Ethernet-Vernet-zung (10 GbE) und einmal das Fibre Channel-Netzwerk. Sollen dieseFasern effektiver genutzt werden, kommt das Multiplexing ins Spiel.Dabei werden verschiedene Wellenlängen in die Faser eingespeist.Dabei gilt es, diese Wellenlängen präzise zu definieren. Deswegen sinddie Informationen mit einem Laser einzubringen: Alles läuft dann übereine Faser, wobei es zu keine gegenseitige Beeinflussung der Informa-tionen kommt. Beim Empfänger müssen dann die Wellenlängen wiederauseinandergezogen werden. Diese Aufgabe übernehmen Demultiple-xer, die via Filter und Spiegel/Prismen das optische Signal entsprechendauseinandernehmen. Nur so lassen sie sich zum Beispiel vonein andertrennen. In der Endausbaustufe kann man mithilfe von DWDM bis zu 80 Kanäle übertragen, rechnerisch also bis zu 80-mal 10 GbE.

Es existiert derzeit kein „serielles 100 GbE“ (also über eine Wellen-länge die 100 GbE übertragen). Doch mit dem Ansatz zehnmal 10 GbEbekommt man auch die gewünschten 100 GbE. Die Kosten liefern einweiteres Argument für diesen Ansatz: Experten geben zu bedenken,dass „echtes 100 GbE“ maximal fünfmal teurer sein darf als der An-satz zehnmal 10 GbE.

Aber es kommt ein weiterer Aspekt ins Spiel: die Redundanz. Wennbei einer Übertragungsstrecke mit einmal 100 GbE diese Strecke aus-fällt, kommt es zu einem enormen Problem. Um Katastrophen vorzu-beugen müsste man zweimal 100 GbE einsetzen. Dann würde beimAusfall einer Strecke die Bandbreite zudem halbiert. Diese Problematikkommt in dem Ausmaß bei dem Konzept mit zehnmal 10 GbE nicht zumTragen. Hier reduziert sich die Bandbreite beim Ausfall einer Strecke aufnur 90 Prozent. Daher ist diese Technik die Realität bei heutigen Inter-net-Knoten: Große ISPs haben einen Ring im Einsatz mit zum Beispiel20-mal 10 GbE und verbinden auf diese Weise ihre Rechenzentren.

Für die Zwischenform mit 40 GbE gelten die entsprechenden Über -legungen. Zudem stellt sich noch die Frage nach der Akzeptanz von 40GbE, viele warten dann wohl eher auf nicht allzu teure serielle 100 GbE.

Rainer Huttenloher

Quellenangabe– Dieser Beitrag entstand auf Basis des Vortrags „Inside SFP“ von

Thomas Weible, Flexoptix, auf der Rechenzentrums- und Verkabe-lungs-Konferenz von Heise Events am 18. Mai 2010 in Neuss.

Rechenzentren und Infrastruktur III/2010 9

VERKABELUNG

Beispiel für einen SFP+, dermit Singlemode-Glasfaserarbeitet (Abb. 2)

Beispiel für einen XFP-Transceiver, der für Multimode-Glasfaser ausgelegt ist (Abb. 3)

Quel

le: F

lexo

ptix

Quel

le: F

lexo

ptix

Zwei Projekte mit Container-Rechenzentren an Standorten, wie sieunterschiedlicher wohl kaum sein könnten: Während der eine

Container in einem Baden-Badener Villenviertel auf dem Parkplatz desHauptquartiers beim Blutspende-Dienst Baden-Württemberg-Hessensteht, verrichtet der andere auf dem Gelände der Ulmer Uniklinik sei-nen Dienst. Dieses Krankenhaus wird im Rahmen eines auf drei Jahreangelegten Umbaus komplett modernisiert – mit dem Resultat, dassdas Areal einstweilig zu einer Großbaustelle mutierte.

Jürgen Rocke, Leiter IT-Infrastruktur Netze und Server beim DRK,erinnert sich: „Als Anfang 2009 draußen die Arbeiten mit schweremGerät einsetzten, hat im bestehenden Ulmer Rechenzentrum die Erderegelrecht gebebt. Wir brauchten also schnell eine Lösung, um unsereServer vor den Vibrationen zu schützen. Außerdem wurden die Reser-ven sowohl bei Rechen- als auch Kühlleistung sehr knapp.“ Rocke sahsich daher 2009 auf der IT-Fachmesse CeBIT um. Fündig wurde er aufdem Stand von Rittal.

„Das Unternehmen stellte eines der ersten Container-Rechenzen-tren aus eigener Produktion aus. Nach eingehender Prüfung wurdedeutlich, dass wir den Container nur leicht modifizieren mussten.“ Ge-sagt, getan – Rocke kaufte das System auf der Messe, das direkt perTieflader nach Ulm gebracht wurde. Dort steht es seitdem auf gefe-derten Stahlplatten mit Gummipuffer, die die baubedingten Vibratio-nen abdämpfen. Zeit war der kritische Faktor, denn das empfindlicheIT-Equipment, diverse Hosts und etliche x86-Rechner drohten Scha-

den zu nehmen. Da in Ulm vorwiegend die Blutspende-Aktivitäten ko-ordiniert werden, aber auch alle notwendigen Verarbeitungsschritteund Laborprozesse rund um den kostbaren Rohstoff „Blut“ durchlau-fen werden müssen, galt es, schnell zu handeln.

„Nach nur zwei Wochen hatten unsere Server ihr vorübergehendesZuhause im Container bezogen und laufen dort seitdem tadellos“, be-richtet Rocke. „Wenn die Bau arbeiten abgeschlossen sind, und derRechenraum im Neubau zum Einsatz kommt, werden wir den Contai-ner als Leistungsreserve und Backup-Lösung weiter betreiben.“

Container-RZ im Villenviertel

Ein zweiter Container war auch die Antwort auf eine völlig andere Auf-gabenstellung des DRK: Am Hauptstandort Baden-Baden ist der Neu-bau eines Rechenzentrums inzwischen unumgänglich. Zu hoch sindmittlerweile die Anforderungen an die Rechenleistung, die von immermehr Anwendungen und Nutzern gestellt werden: Neben SAP-Syste-men und zum Beispiel Hochverfügbarkeitslösungen auf Basis von Ora-cle-Datenbanken werden unter anderen auch die Forschungskoopera-tionen mit diversen Universitätskliniken dort IT-seitig abgebildet.

Im angestammten Rechenzentrum fehlen sowohl der Platz als auchdie notwendige Klimatisierungsleistung für eine Erweiterung. Ein Out-sourcing ist aufgrund der sensiblen Daten von Patienten und Blut-spendern rechtlich sehr schwierig, da das DRK bis zu 30 Jahre lang

10 Rechenzentren und Infrastruktur III/2010

ANWENDERBEISPIEL

IT-Infrastruktur rettet LebenContainer-Rechenzentren beim Deutschen Roten Kreuz

Um die vielen notwendigen Blutspende-Termine, die festen und ehrenamtlichen Mitarbeiter sowie dietransfusionsmedizinischen Forschungen des Deutschen Roten Kreuzes (DRK) zu koordinieren, sind vielfältige IT-Prozesse unumgänglich. Dabei steigt deren Aufwand permanent: Das Datenaufkommen hat sich in denvergangenen vier Jahren verzehnfacht, den bestehenden Rechenzentren gingen die Leistungsreserven aus. Dies war Grund genug, an zwei Standorten des DRK kurzfristig durch Container-Rechenzentren zusätzlicheKapazitäten zu schaffen.

Links ein Gebäude, rechts ein Mammutbaum – die Aufstellung des Rittal Data Center Containers beim Blutspende-Dienst desDeutschen Roten Kreuzes erforderte Maßarbeit (Abb. 1).

Jürgen Rocke, IT-Leiter beim Blutspende-Dienst des DeutschenRoten Kreuzes „Mit Rittal als Generalunternehmer haben wir einenPartner gefunden, der uns hervorragend berät.“ (Abb. 2)

Quel

le: R

ittal

/DRK

Quel

le: R

ittal

/DRK

für diese Daten und ihre Verwendung juristisch verantwortlich ist. DerNeubau wird allerdings nicht billig: „Das DRK hat extreme Anforde-rungen an die Verfügbarkeit“, erklärt Rocke. „Wenn unsere IT ausfällt,werden beispielsweise Blutkonserven nicht rechtzeitig ausgeliefert.Ganz davon abgesehen, dass wir einen staatlichen Versorgungsauf-trag haben, könnten deswegen etwa geplante OPs nicht stattfinden.Kurz gesagt: Im Ernstfall hängen von unserer IT Menschenleben ab.Deswegen ist für uns eine 100-prozentige Verfügbarkeit kein Luxus,sondern Pflicht.“

Höchstverfügbarkeit hat allerdings ihren Preis. Das weiß auch derDRK-Aufsichtsrat und forderte daher eine Baukostenermittlung nachDIN 276 – ein sehr gründlicher und langwieriger Prozess, der leichtlänger als ein Jahr dauern kann. Rocke: „So viel Zeit hatten wir nicht,dafür stieg der Bedarf zu schnell. Aufgrund der guten Erfahrung mitdem Container-Konzept in Ulm haben wir daher einen zweiten be-stellt.“ Nach acht Wochen ging das neue Rechenzentrum live – fünfRittal-Server-Racks inklusive Brandfrüherkennung und dem kabel -losen Monitoring-System CMC-TC, das per Sensor die Temperatur anden Servern erfasst und an eine Managementsoftware sendet. Diesermöglicht die intelligente Regelung des Container-Rechenzentrums –technisch clever, aber politisch problematisch.

Die Lage des DRK-Hauptquartiers in Baden-Baden mitten in einemVillenviertel wurde zum Problem. Täglich fahren hier die Teams mitLkws zu den Blutspende-Terminen, es werden Konserven abtranspor-tiert – oft bis spät in die Nacht und am Wochenende. „Wir haben hierin der Nachbarschaft keinen leichten Stand“, ist sich Rocke bewusst.„Als der RZ-Container auf unserem Parkplatz aufgestellt wurde, sinddie Anlieger wegen des Geräuschpegels der Kühlung Sturm gelaufen.“Die Klimaanlage des Containers liefert 3-mal 7 Kilowatt (kW) und nutztals direkte freie Kühlung die gefilterte Außenluft zur Erzeugung vonKaltwasser. Beträgt die Außentemperatur weniger als 21 Grad Celsius,entfällt die künstliche Kältegenerierung über einen Chiller.

Dadurch arbeitet der Container mit den fünf enthaltenen Rackssehr energieeffizient: Im Durchschnitt liegt der PUE (Power Usage Ef-fectiveness) bei 1,2 – ein sehr guter Wert. 90 Prozent des Jahres ar-beitet die Klimaanlage im Freikühlungsmodus, das macht sich auch finanziell bemerkbar: Bei einem angenommenen Strompreis von 14 Cent pro kW lassen sich mit der Technologie bis zu 5000 Euro proJahr der Betriebskosten gegenüber einer konventionellen Klimalösungeinsparen. Die Anwohner in Baden-Baden waren davon freilich unbe-eindruckt. Deswegen ließ Jürgen Rocke um die Außenaufbauten derKlimaanlage des Containers eine zusätzliche Schalldämmung konstru-

ieren. Diese senkte den Geräuschpegel auf gerade mal 35 dB – ver-gleichbar mit einem normalen Kühlschrank. „Diese relativ einfacheLösung brachte uns den guten Willen unserer Nachbarn. Das wird unsbei den anstehenden Baumaßnahmen für das neue Rechenzentrumhelfen. Sobald der Neubau dann bezogen ist, werden wir auch diesenContainer als zusätzliche Leistungsreserve weiter betreiben.“

Weitere Planung

Selbstverständlich wird auch beim DRK auf die Kosten geschaut – diestrenge Innenrevision verlangt drei vergleichbare Angebote, zieht abervorausschauend auch Aspekte wie technische Leistungsfähigkeit undLebensdauer in Betracht. „Es geht uns nicht vorrangig um einenschnellen Return on Investment oder einen möglichst niedrigen An-schaffungspreis“, erklärt Rocke. „Für uns hat maximale Verfügbarkeiteindeutig Priorität, Ausfallzeiten können wir uns nicht leisten. Wie ge-sagt, davon hängen bei uns im Zweifelsfall Leben ab.“

Der IT-Leiter resümiert rückblickend das Projekt: „Mit Rittal als Ge-neralunternehmer haben wir einen Partner gefunden, der uns hervor-ragend berät, unsere Bedürfnisse versteht und vor allem schnell lie-fern konnte. Mit rund 100ˇ000 Euro Kosten pro Container hat auch derPreis gestimmt. Die Implementierung verlief ebenfalls reibungslos –insgesamt wurden rund 150 Server und 70 Netzwerkkomponentenumgezogen, ohne dass unsere Anwender etwas bemerkt haben.“ Auf-grund der guten Projekterfahrung plant Jürgen Rocke auch zukünftigmit dem hessischen Unternehmen: „Wenn es an die Planung für unserneues Rechenzentrum geht, wird Rittal bestimmt wieder mit im Bootsein. Derzeit denken wir über eine große Raum-in-Raum-Zelle nach.“

Mario Bäcker ist Produktmanager der

Security Solutions, Rittal GmbH & Co. KG.

Rechenzentren und Infrastruktur III/2010 11

ANWENDERBEISPIEL

Der Blutspende-Dienst Baden-Württemberg-Hessen des Deut-schen Roten Kreuzes (DRK) deckt zusätzlich die BundesländerSchleswig-Holstein, Hamburg, Berlin, Brandenburg und Sachsenab. Zwischen Lübeck und Ulm werden 92 Prozent aller Klinikenmit dem wertvollen Stoff versorgt, ohne den beim Menschen garnichts geht. Pro Woche werden dabei rund 15ˇ000 Blutspendenbenötigt.

BLUTSPENDE-DIENST DES DRK

Um den Geräuschpegel zu senken und die nachbarschaftlichenBeziehungen nicht zu gefährden, ließ das DRK in Baden-Badeneine Schalldämmung für die Klimaanlage einbauen (Abb. 3).

Nach nur acht Wochen ging das neue Rechenzentrum im Contai -ner live – inklusive fünf Server-Racks mit Brandfrüh erkennungund dem kabellosen Monitoring-System CMC-TC (Abb. 4).

Quel

le: R

ittal

/DRK

Quel

le: R

ittal

/DRK

S pätestens mit der Vorstellung der ersten IP-basierten KVM-Lö-sung, der Avocent DS1800, im Jahr 2000 haben sich die damals

als „Rechner-Umschaltboxen“ bezeichneten Systeme bis hin zu mächti-gen Managementlösungen weiterentwickelt, die KVM-IP-Sys teme. Gegen-über analogen Systemen erlauben sie einen ortsunabhängigen Zugriffüber beliebige IP-Strecken auf die gesamte Hardware in Rechenzen-tren und letztendlich auch auf die IT-Filialen.

Spitzensysteme dieser Gattung integrieren zudem die übergreifen-de Verwaltung sogenannter Service-Prozessoren (ILO, ALOM, RSA,IPMI) und gestatten so die Überwachung der individuellen Serverbe-findlichkeit. Dazu gehören Leistungsaufnahme, Lüfterdrehzahl undTemperatur. Einige wenige IP-Managementsysteme bieten sogar dieEinbindung und konsolidierte Verwaltung von virtuellen Servern.

Zentralisierung – so lautete von Anfang an die Grundidee hinter derKVM-Technologie. Anstatt jeden Rechner mit Tastatur, Bildschirm undMaus zu versehen und bei der Arbeit an verschiedenen PCs oder Ser-vern den Arbeitsplatz wechseln zu müssen, genügte ein Satz Ein- undAusgabegeräte, um den zentralen Zugriff auf alle Rechner zu erhalten.Bereits mit solchen einfachen Umschaltern mit 2, 4 oder 8 Portswurde die Arbeit an mehreren Rechnern wesentlich effizienter. ImSoHo-Bereich erfüllen solche vergleichsweise simplen Lösungen nachwie vor zuverlässig ihren Dienst.

Hersteller wie Adder, Avocent, Aten, Belkin, Daxten, Guntermann &Drunck, Minicom, Raritan und Rose erkannten das Potenzial diesereinfachen analogen Technologie auch für die Verwaltung von Server-

räumen und ganzen Rechenzentren und entwickeln bis heute Syste-me, die über 4, 8, 16, 32 und 64 Ports die zentralisierte Kontrolle undSteuerung von PS/2-, USB-, SUN-Server bieten. Über ein als Kaskadie-rung bezeichnetes Erweiterungsverfahren können die einzelnen KVM-Switches miteinander verbunden werden, sodass sich die Zahl der zuverwaltenden Geräte auf 128, 256, 512, 1024 und noch höhere Zweier-potenzen steigern lässt.

Auf diese Weise war es möglich, komplette Rechnerfarmen mit nureinem Administrations-Tool zu bedienen. Die Signalübertragung liefdabei zunächst über proprietäre und oftmals wulstige Kabelbündel, dieviel Platz in den Serverschränken einnahmen und den Fernzugriff aufdie Racks auf wenige Meter beschränkten. Erst der technologischeSchwenk zur Kupferverkabelung (nach den Spezifikationen CAT 5, undspäter 6, 6e sowie 7) als Verbindungsmedium ermöglichte es, Serverim Rechenzentrum auch über verteilte Räume im Firmengebäude oderangegliederte Zweigstellen mit bis zu 300 Metern Distanz zum Server-raum zu administrieren.

Ständige Weiterentwicklungen und die Einbeziehung der Glasfaserals Übertragungsmedium erweiterten zusätzlich die Übertragungsdis-tanzen und trugen zu hohen Bildauflösungen von bis zu 2048ˇxˇ1536beim Remote-Zugriff in Echtzeit bei. Die analogen Switching-Lösungenbewährten und bewähren sich auch heute besonders in Umgebungen,in denen die IT zwar auf mehrere Gebäude verteilt, aber in einem über-schaubaren Radius untergebracht ist.

Der Trend zur Dezentralisierung oder zum Outsourcing von Rechen-zentren sowie das Betreiben von Backup-Rechen zentren und IT-Zweig-stellen, die deutschlandweit oder sogar paneuropäisch angesiedeltsind, wurden zu Beginn des neuen Jahrtausends von den KVM-Her-stellern als neue Herausforderung gesehen. Dazu kamen Bestrebungender RZ-Betreiber, der zunehmenden Komplexität im Datacenter durchKonsolidierungsstrategien Herr zu werden.

Konsolidiert wurde in dieser Zeit auch leider oftmals die Zahl des tech-nischen Personals, sodass immer weniger IT-Fachkräfte für die Betreuungeiner stetig wachsenden Zahl an aktiven Komponenten an verschie-densten IT-Standorten zuständig gewesen sind. Alle diese Faktorengaben die Marschroute bei der Entwicklung neuer KVM-Technologien vor.In deren Ergebnis die IP-basierten KVM-Managementsysteme stehen.

12 Rechenzentren und Infrastruktur III/2010

KVM-TECHNIK

Fernzugriff auf das Rechen -zentrum kennt keine GrenzenKeyboard-, Video- und Maus-Signale über das Internet Protocol

Die Intelligenz der Systeme im Umfeld von KVM (Keyboard, Video und Maus) over IP (Internet Protocol) ist heutzutage in der Software angesiedelt. Damit lässt sich das Management von hunderten Servern jedenTyps, seriellen Geräten und auch deren Stromversorgung auf nur wenige Arbeitsplätze konsolidiert durchführen. Die zum System gehörenden Umschalter fungieren dabei als physische Schnittstellen für dieaktiven Netzkomponenten und agieren als die Wandler-Stationen, über die analoge KVM- und serielle Signale in ihre digitalen Pendants konvertiert, komprimiert und mit bis zu 256 Bit verschlüsselt via IP zum Nutzerbefördert werden.

Moderne KVM via IP-Systeme integrieren die Schnittstellen zurVerwaltung von Servern, seriellen Devices und Power DistributionUnits in nur einem Chassis (Abb. 1).

Quel

le: D

axte

n

RECHENZENTRENUND INFRASTRUKTURKomponenten, Kabel, Netzwerke

Hier anmelden:www.rechenzentren-infrastruktur.de

Profitieren Sie von dieser hochkarätigen Veranstaltung und erleben Sie einen Tag voller nützlicher Informationen zu ausgewählten Themen.

Termine: 21. September 2010 Frankfurt/Main 09. Dezember 2010 Hamburg

Preis: 177,31 Euro (149,00 Euro ohne MwSt.)

Früh buchen –bis 25 %sparen!

Powered by:

Spezialisten informieren IT-Leiter und RZ-Planer sowie Netzwerk-Planer über die aktuellen Trends. Informationen aus der täglichen Praxis stellen sicher, dass viel Nutzwert in der Veranstaltung vermittelt wird.

Hier ein Auszug aus der Agenda für das nächste Event in Frankfurt:

Qualität für die Verkabelungs-Infrastruktur – André Gerlach, BdNI Akademie e. K. »Anerkennung von Sachkundigen für Planung, Errichtung und Prüfung von Kommunikationskabelanlagen (GIV-Sachkundige)« nach den Richtlinien VdS 3117

Glasfaserkabel optimal ausnutzen – Thomas Weible, flexOptix, Geschäftsführer »Pluggable Module (SFP+ und XFP) für 10GbE«

Rechenzentrum in Containern – Frank Koch, Microsoft Deutschland, Infrastructure Architect »Von Bauten zu modularen Bauelementen, die neue Generation von Rechenzentren«

In 2010 unterstützt von:

Veranstaltungsreihe 2010

IT-RACKS IT-POWERIT-COOLING

Rittal – Das System.

Damit war es erstmalig möglich, Menschen und Maschinen räumlichund örtlich zu entkoppeln, ohne bei der Administration hinsichtlich derEntfernung, Zeit oder Anzahl der zu verwaltenden Komponenten einerLimitierung unterworfen zu sein.

Technologisch funktionierte dies ganz einfach: Der analoge Daten-verkehr zwischen KVM-Switch und Rechner wurde digitalisiert – die Vi-deosignale, Tastatur- und Mauseingaben werden für die Übertragung indigitale Pakete umgewandelt, komprimiert und verschlüsselt und übereine TCP/IP-Verbindung an einen beliebigen Arbeitsplatz weitergeleitet.Über eine zentrale und browsergestützte Bedienoberfläche auf eineminternetfähigen PC oder Notebook kann so ein System betreuer auf jedenmit einem IP-KVM-System verbundenen Server zugreifen und diesenaus etlichen Kilometern Entfernung bedienen, als säße er direkt davor.

Der Zugriff kann dabei bis auf BIOS-Ebene entweder „in-band“oder auch „out-of-band“ per Modemeinwahl erfolgen, sodass zumBeispiel das Aufsetzen von Systemen, deren Konfigurationen, Neu-starts und das Überwachen bei jedem OFF- oder ON-Status der Servererledigt werden können – was sich als entscheidender Vorteil gegen-

über konkurrierenden softwarebasierten Remote-Access-Lösungenerwies, die nur dann eine Fernzugriffsmöglichkeit bieten, wenn dasBetriebssystem der Rechner läuft.

Die Integration des IP in die KVM-Technologie und die browser -basierte Zugriffsmöglichkeit verlangten natürlich nach einem Mehr anSicherheit, um unternehmenskritische Daten, die über die in ein KVM-Verwaltungssystem eingebundenen Server laufen, vor einem Angriffvon innen und außen zu schützen.

Auf der physischen Systemebene der Switches sorgen verschiede-ne und je nach Sicherheitsstufe wählbare Verschlüsselungsverfahrenim DES-, 3DES-, SSL- und AES-Modus dafür, dass die Daten nach derKonvertierung von analog in digital und bei der Weiterleitung effizientgeschützt sind und der Sicherungsstandard mit den Sicherheitsricht -linien im jeweiligen Rechenzentrumsbereich korrespondiert.

Die weiteren Sicherungsbollwerke werden über das „Gehirn“ einerIP-KVM-Lösung eingerichtet. Je nach Hersteller handelt es sich dabeium ein Softwaremanagement-Tool oder eine Embedded-Systemsoft-ware in einer Appliance. In erster Stufe lassen sich darüber die Zu-griffsrechte für jeden individuellen Server oder auch Servergruppenfestlegen, und die einzelnen Zugangsebenen können zusätzlich perPasswort-Abfrage geschützt werden.

Diese in den Anfängen der digitalen KVM-Switche noch manuell zuverrichtende Arbeit wurde dadurch erheblich vereinfacht und beschleu-nigt, dass ab der zweiten KVM via IP-Generation bis heute die Möglich-keit gegeben ist, bestehende Verzeichnisdienste und Authentifizierungs-datenbanken (RADIUS, LDAP, NT Domain, Ac tive Directory, TACACS+ undRSA SecurID) zu integrieren und so mit Benutzerprofile und Zugriffsrech-te automatisch in das KVM-Management-Tool zu übernehmen. Überentsprechende Dienste wird natürlich auch bei jedem Zugriff protokol-liert, wer, wann und von wo aus auf welches Gerät zugreift. Bei jederAbweichung vom Sicherungsprofil erfolgt dann umgehend eine entspre-chende Warnmeldung per E-Mail oder SMS an einen Systemverantwort-lichen oder SNMP-Traps leiten automatisch zuvor festgelegte Maßnah-men wie etwa einen System-Shutdown ein.

Damit auch das Gehirn der KVM-Managementsysteme vor allenEventualitäten geschützt ist, setzen einige wenige Hersteller auf mehr-fache Redundanz: Steht der Hauptserver, auf dem die Anmeldedaten

KVM-TECHNIK

Die Avocent DSView 3-Steuerzentrale für KVM-Switches liefertdetaillierte Reports zu den Stromverbräuchen von mehreren überIP ansteuerbaren Steckerleisten (Abb. 2).

Quel

le: D

axte

n/Av

ocen

t

ix0810_b_00_mit_Anz.indd 14 05.07.2010 11:16:49 Uhr

Schneller – besser – überall.

DATA-CENTER IT-SECURITY

der Benutzer gespeichert sind, einmal nicht zur Verfügung, lassen sichLogins auf einem von mehreren Mirror-Servern durchführen. EineEchtzeitsynchronisation der verschiedenen Authentifizierungsserversorgt dafür, dass die gespiegelten Daten auf den Backup-Servern je-derzeit aktuell sind.

War bis hierher im Schwerpunkt von der zentralisierten Verwaltungunterschiedlicher Serverplattformen die Rede, muss nun eine neueBegrifflichkeit eingeführt werden, um dem Leistungsspektrum heuti-ger KVM-Lösungen gerecht zu werden: Branchenkenner sprechen inDatacenter-Kontext viel eher von Infrastruktur-Management- oder Da-tacenter-Management- und kaum mehr von KVM-Systemen.

Und dies völlig zu Recht, denn schon die zweite Generation der IP-fähigen Switche integrierte unter dem Dach ihrer Managementsoft -ware die zentrale Kontrolle und Steuerung von seriellen Geräten wieHubs, Router, Netzwerkswitches, Firewalls und viele mehr. Es folgtedie Einbindung von seriell oder auch über IP ansteuerbare Stecker-leisten (auch unter der Abkürzung PDU – Power Distribution Unit – be-kannt). Diese gestattete es den Systembetreuern erstmals, sogar perMausklick oder Tastenkombination über die Bedienschnittstelle echteKaltstarts (power-off/on) der an der Steckerleiste angeschlossenenGeräte aus der Ferne durchzuführen sowie die Eingangsströme undVerbräuche per Steckerleiste, einzelnem Port oder Portgruppen zu er-fassen, zu protokollieren und als komplettes Energie-Reporting demFacility-Management zur Verfügung zu stellen.

In einem weiteren Entwicklungsschritt kam die Verwaltung soge-nannter virtueller Medien hinzu. Mit dem Virtual Media-Feature lassensich Speichermedien, die lokal am Arbeitsplatz eines Administratorsangeschlossen sind, beliebigen Rechnern im Netzwerk zuordnen.Dabei kann es sich um CD-ROM-, DVD-Laufwerke, USB-Medien wieSpeichersticks oder externe Festplatten handeln. Über die virtuelleMedieneinbindung verhalten sich diese so, als seien sie direkt amZielrechner angeschlossen. So ist es zum Beispiel möglich, neu instal-lierte Rechner mit Betriebssystem und Anwendungssoftware zu be-stücken, ohne vor Ort sein zu müssen. Selbst Patches und Updateskönnen auf diese Weise einfach und bequem aus der Ferne auf einzel-ne Rechner oder simultan auf mehrere Hundert aufgespielt werden.Dann begann man sich in der KVM-Branche für das Innenleben der

einzelnen Server zu interessieren und überlegte, welche wichtigenHinweise Veränderungen der Lüfterdrehzahl, Temperatur und desStromverbrauchs auf bevorstehende Fehlfunktionen oder die Lebens-dauer der Hardware geben könnten. Da die großen Serverherstellerwie HP, IBM, Dell und Sun Microsystems diese Werte bei älteren Ser-vern nur über eigene Serviceprozessoren und entsprechende Schnitt-stellen (iLO, RSAII, DRAC, ALOM) sowie bei jüngeren Rechnern zusätz-lich über die plattformübergreifende Intelligent Platform ManagementInterface (IPMI) preisgeben, entwickelten zunächst Avocent und dannRaritan eigene Devices für die übergreifende Überwachung und dasManagement aller aufgeführten Serviceprozessoren. Dadurch wurdendie Managementsysteme um proaktive Funktionen zum Schutz vorSystemstörungen oder -ausfällen erweitert.

Die vorläufige Leistungsspitze bei Infrastrukturmanagementsyste-men markieren Lösungen, die über die konsolidierte Verwaltung alleroben angesprochenen Komponenten hinaus auch die Administration vonphysischen und virtuellen Servern von einer Systemebene aus ermögli-chen. Die technische Einbindung geschieht auf ähnliche Art und Weisewie bei der konsolidierten Verwaltung von physischen Maschinen. Zu-nächst benötigt man wiederum eine übergeordnete Steuerzentrale. Beiden beiden Anbietern Avocent und Raritan, die diese Integration unter-stützen, nennt sich diese DSView 3 beziehungsweise Command Cen-ter Secure Gateway. Die virtuellen Maschinen, erzeugt etwa durch die

KVM-TECHNIK

Ein Beispiel für die Zusammenführung von physischen und vir tu el -len Servern mit den entsprechenden Virtual Centers auf nur eineübergreifende Managementplattform (Abb. 3).

Quel

le: D

axte

n

ix0810_b_00_mit_Anz.indd 15 05.07.2010 11:17:00 Uhr

Lösungen von Citrix oder VMware, sind bereits mit einer eigenen IP-Adresse und Profilen in den dedizierten virtuellen Verwaltungs-Tools (zumBeispiel im Virtual Center von VMware) angelegt. Die Steuerzentralen derKVM-Hersteller integrieren dann über Plug-ins lediglich die IP-Adressenund auch die Einstellungen für jeden einzelnen virtuellen Server.

Der Clou dabei ist, dass bereits bestehende Benutzerprofile auseiner LDAP-, RADIUS- oder Active-Directory-Datenbank auch als Ein-stellungen für ein virtuelles Verwaltungs-Tool übernommen werdenkönnen – was wiederum die Einrichtung von unterschiedlichen Zu-griffsebenen, entweder mit Administrator-, einfachen User-Rechtenoder als User-Gruppe, enorm beschleunigt und vereinfacht. Zudemkönnen Benutzer manuell über die Steuerzentrale hinzugefügt werden,die selbst bei einem Ausfall der Authentifizierungsserver noch Zugriffauf die virtuellen und physischen Server haben.

Eine echte Konsolidierung findet über die Managementapplikationenvon Avocent und Raritan auch daher statt, da zum Beispiel ein VirtualCenter hinsichtlich der Zahl der zu verwaltenden virtuellen Server limi-tiert ist. Sollen darüber hinaus weitere Maschinen hinzugefügt werden,muss normalerweise ein zweites Virtual Center eingerichtet werden, fürdas wiederum auch alle Benutzerrechte manuell einzurichten sind.

Unter dem Dach einer Managementapplikation werden nun alle Vir-tual Center zusammengefasst und einmal festgelegte Benutzerprofilekönnen auf alle Virtual Center übertragen werden – eine Arbeitser-leichterung für Administratoren. Das Hinzufügen oder Entfernen vonvirtuellen Rechnern ist jedoch auch nach der Integration in die zentra-le Benutzeroberfläche lediglich über das Virtual Center möglich.

Der Zugriff selbst auf die virtuellen Systeme erfolgt über diebrowsergestützte Bedienoberfläche einer Steuerzentrale. Diese zeigtalle physisch und virtuell vorhandenen Server in einer Baumstrukturoder in einem Listen-Menü an. Per Mausklick auf ein Icon oder den

Namen eines Zielservers öffnet sich dessen Bildschirmanzeige aufdem zentralen Benutzer-Monitor und sofort kann damit wie gewohntgearbeitet werden. Dabei bemerkt der Anwender nicht einmal, ob die-ser gerade Zugriff auf einen physischen oder virtuellen Server hat.Reine Nutzungsrechte werden dem Benutzer direkt über die Steuer-zentrale zugewiesen, sodass die Autorisierung nicht mehr über dasdedizierte virtuelle Verwaltungssystem der Hersteller läuft.

Die vorherrschenden Trends in der gesamten IT wirken natürlich bisweit in die Entwicklung bei den KVM-Herstellern hinein. Themen wieKonsolidierung oder Virtualisierung werden stets bei neu vorgestelltenLösungen abgebildet. Ein Thema bleibt die Steigerung der Energieeffi-zienz in Rechenzentren sein. Und um diese zu erreichen, wird einebessere Verzahnung von IT- und Facility-Management gefordert.

Interessanterweise ist dieses Zusammenspiel bereits Realität – zu-mindest auf der Systemebene zweier Visualisierungs-Tools von Avo-cent und Raritan. Diese als Avocent Mergepoint Infrastructure Explorerund „Raritan dcTrack“ bezeichneten Lösungen bieten IT- und Facility-Verantwortlichen eine grafische Übersicht aller Assets im RZ. Per Si-mulation kann ermittelt werden, wo etwa freie Höheneinheiten imRack zur Verfügung stehen, um neue Hardware unterzubringen undwie sich diese auf den Stromverbrauch und den Kühlungsbedarf imRack auswirken.

Detaillierte Reporting-Funktionen erlauben es ferner, für jede Kom-ponente anfallende Upgrades und Updates, Wartungsintervalle, Ener-gieverbrauch, Abschreibungszeiträume, End-of-Life und viele weiterewichtige Parameter abrufen zu können.

Jörg Poschen ist Senior Marketing Manager CE bei Daxten, die eine

eigene KVM-Produktlinie sowie die Lösungen aller namhaftenHersteller vertreibt. Mehr Infos unter: www.daxten.de.

16 Rechenzentren und Infrastruktur III/2010

KVM-TECHNIK

„Virtualisierung ist eine wichtige Technologie, die physikalischeRechnerinfrastruktur effizienter ausnutzen zu können. Besondersüberzeugt haben uns dabei natürlich auch die Einsparpotenziale,die sich im Hinblick auf Energieverbrauch und Stellfläche ergaben.Höhere Verfügbarkeit war ein weiterer wichtiger Betriebsaspekt.“Diese Aussage stammt von Ralf Beermann, zuständig für dasSystem-Management der Circ IT, einem auf IT-Dienstleistungen fürMedien spezialisierten Unternehmen mit Sitz in Düsseldorf. Zu denKunden zählen Zeitungs- und Zeitschriftenverlage mit Publikationenwie Rheinische Post, Handelsblatt, Wirtschaftswoche, Westdeut-sche Zeitung, Die Zeit und Der Tagesspiegel.

„Bei allen Vorteilen, die eine Virtualisierung bietet, stellt die Ein-richtung, das Management und die Maintenance einer parallelenphysischen und virtuellen RZ-Umgebung eine große Herausforde-rung dar und ist mit einem hohen Administrationsaufwand verbun-den. Schließlich gilt es, die zuvor für die physisch vorhandenenServer festgelegten Konsolen-, Benutzer- und Sicherheitsprofileauch auf die virtuellen Rechner zu übertragen oder eben bei Bedarfauch abzuändern“, gibt Beermann zu Protokoll. Dies erfolgezumeist per manueller Einrichtung über das Virtual-Center-Tool,über das auch mehrere virtuelle Maschinen verwaltet werden.

„Soll nun ein Host, also ein physischer Rechner, für einen virtuellenServer geändert oder neu zugeordnet werden, müssen alle Einrich-tungen über das Virtual Center von Neuem definiert und vorgenom-men werden“, führt Beermann weiter aus. „Da kam es uns sehr

gelegen, dass uns die Firma Daxten, die uns auch schon mit einerManagementlösung für unsere physischen Server versorgt hat, imZuge eines Updates auf die neueste Version der Avocent-DSView3-Lösung wechselte, die ebenfalls ein Plug-in für die Verwaltung vonvirtuellen Maschinen bietet.“

Dadurch wurde die ganze Virtualisierungsumgebung richtig rundund einfach administrierbar – so der IT-Spezialist von Circ IT:„Denn wir konnten von da an alle virtuellen und physischen Geräteüber ein Bedien-Interface steuern und verwalten. Das VirtualCenter wurde ebenfalls auf die Avocent Managementsoftware kon-solidiert, was uns eine zentrale Einrichtung aller benutzer- undgerätespezifischen Zugangsrechte und Profile gestattet.“

KONSOLIDIERTE VERWALTUNG VON VIRTUELLEN SERVERN

Ralf Beerbaum,verantwortlich für das

System-Management bei derCirc IT, konsolidiert die

Administration vonphysischen und virtuellen

Servern mit einem KVM-Verwaltungssystem.

Sie kennen Raritan als KVM-Experten.Wussten Sie dass wir auch preisgekrönte Lösungen für intelligentes

Powermanagement haben?

+49 (0)201 747 98-0 [email protected] Raritan.de

Raritan Dominion® KX II

Mehrfach ausgezeichneterEnterprise KVM-over-IPSwitch der nächstenGeneration, der hinsichtlichoptimaler Performance,Sicherheit, Zuverlässigkeitund Flexibilität neueMaßstäbe setzt.

Universal Virtual Media™ beiallen Modellen

Unterstützt auch Blade Server

Raritan Dominion® PX

Intelligente PDU, die Ihnen Effizienz und Produktivität imRechenzentrum steigern hilft.

Strom messen und schalten auf Ausgangsebene; anwenderdefinierteSchaltfolgen, Schwellwerte und Benachrichtigungen

Flexible Protokollunterstützung, inclusive IPMI, SMASH-CLP, SSH, Telnetund SNMP

Sicherungsautomaten bei Geräten über 20A, die leicht einzustellensind und bei normalen Stromschwankungen nicht auslösen

Raritan Dominion® SX

Serieller Konsolenswitch,der einen Steuerungspunktfür eine Vielzahl von ITKomponenten bietet.

Integriertes Modem

Dual Power/Ethernet

Raritan LCD KVM KonsolenDie Rack-Konsole mit 17 Zoll LCD-Monitor und Cat5-KVM-Switch in 1HE Gerät.

Einfache Installation und Verkabelung

"Lights-out" Zugriff zum Serverraum

Raritan CommandCenter® Secure Gateway (CC-SG)

Zentrales Management für Dominion KX II, PX, SX und andereProdukte von Raritan sowie für embedded Serviceprozessoren(iLO, DRAC, RSA), für Bladeserver von HP, Dell und IBM undauch für virtuelle Infrastruktur.

Einheitlicher und sicherer Zugriff

Firmware-Update-Funktion für große Anzahl Geräte gleichzeitig

Raritan Power IQ™

Die kürzlich mit dem Green Enterprise IT Award prämierteLösung zur zentralen Sammlung und Verwaltung von DatenIhrer PDUs von Raritan, APC, Server Technology und Geist.

Erstellen einer Ist-Analyse und Nachweis von Änderungen beimStromverbrauch und bei der CO2-Bilanz

Aufspüren ungenutzter Energieressourcen

Automatisches Ein- und Ausschalten von Gerätegruppen

Dominion PXHardware-Produkt

des Jahres

Um den Bildschirmarbeitsplatz mit Keyboard, Video und Maus(KVM) vom Rechner – oft als CPU bezeichnet – abzusetzen und

um mehrere Rechner von einem Arbeitsplatz aus zu steuern, habensich KVM-Switches mit entsprechenden Verlängerungskabeln etab-liert. Bei kurzen Distanzen hat diese Option auch heute noch ihre Be-rechtigung.

Im Rechenzentrumsbetrieb spielen derartige Lösungen ihre Vorteileaus: Der Administrator muss nicht im lauten und meist auch kaltenRechenzentrumsraum arbeiten, hat aber dennoch Zugriff auf die Ser-ver – und zwar beim Systemstart bis auf deren BIOS. Hier empfehlensich in der ersten Generation Lösungen, die mittels proprietärer Kabelbasierend auf Koaxleitern als KVM-Extender arbeiteten. Diese sind je-doch zwischenzeitlich zugunsten anderer Technologien fast komplettvom Markt verschwunden.

Heute erfolgt die Übertragung über Kupfer- oder Glasfaserkabel.Die entscheidenden Parameter für die einzusetzenden KVM-Extendersind die gewünschte Auflösung des Videosignals und die zu überbrü-ckende Distanz. Tastatur- und Maussignale können mit übertragenwerden; dazu bedarf es keiner sonderlichen Klimmzüge. Denn dieseperipheren Signale benötigen nur geringe Bandbreiten und sind daherrecht störungsunempfindlich. Das Videosignal dagegen gilt als diesichtbare und somit bestimmende Komponente.

„Mit steigender Bildschirmauflösung sind auch die Anforderungenan einen KVM-Extender gewachsen. Anfangs wurden hauptsächlichanaloge Videosignale in VGA-Auflösung (mit 640ˇxˇ480 Bildpunkten)übertragen, während heute zumindest SXGA (1280ˇxˇ1024 Bildpunk-te) der Standard am Arbeitsplatz ist“, berichtet Karl Loncarek. Der KeyAccount Manager bei Black Box Deutschland sieht sogar noch höhereAnforderungen in der Realität: „Bei speziellen CAD- und Grafik-Ar-beitsplätzen werden Bildauflösungen in Bereichen von 1920ˇxˇ1200Pixel und noch höher verwendet. Zu beachten ist auch der Siegeszugvon digitalen Videosignalen (DVI) anstelle der herkömmlichen analogenÜbertragung.“

Wird ein analoges Videosignal über Fiberoptik gesendet, wird es inder Regel bei den KVM-Extendern digitalisiert und dann über zweiGlasfasern übertragen. Bei Multimode-Glasfasern sind damit Distan-zen von bis zu 500 Meter, bei Singlemode-Fasern bis zu 10 Kilo meterüberbrückbar. Aufgrund der durch die Digitalisierung nötigen Band-breite, gibt es aber gewisse Einschränkungen wie die Begrenzung dermaximalen Auflösung oder die Reduzierung der Framerate (Bilder pro

Sekunde) bei hohen Auflösungen. Gerade Letzteres führt oft zu ru-ckelnden Bildern. In Anwendungen mit statischen Bildinhalten, kanndas durchaus akzeptabel sein und völlig ausreichen. Für einen Arbeits-platz, an dem mit Grafiken und bewegten Bildern gearbeitet wird, istein solches Verhalten aber nicht tragbar. „Bei der analogen Übertra-gung über CAT-Kabel treten Probleme auf. Statt der vormals üblichenKategorie-5-Kabel (CAT-5-Kabel), werden heute paarweise geschirmteCAT-7- oder CAT-8-Kabel verlegt“, führt Loncarek aus. „Die Kabel derhöheren Kategorien sind für die Netzwerkübertragung optimiert, nichtaber für die Übermittlung von Videosignalen. Viele Anwender setzendie Verwendung eines CAT-Kabels mit einer digitalen Signalübertra-gung gleich. Doch das ist ein weitverbreiteter Irrtum, denn das CAT-Kabel kommt lediglich als Übertragungsmedium zum Einsatz.“ Dasübertragene Signal ist nach wie vor analog. Das hat für die gesamteVerkabelungsstrecke eine massive Auswirkung: Es kann nicht übereinen Netzwerk-Switch oder über eine dazwischen geschaltete Glas-faserstrecke übertragen werden.

Eine weitere Einschränkung ergibt sich laut Loncarek hinsichtlichder Kompatibilität: „Es ist in der Regel nicht möglich, die Sender undEmpfänger verschiedener Hersteller zu mischen. Denn die Belegungwie auch die elektrischen Daten, der über CAT-Kabel übertragenenSignale, sind nicht genormt.“

Bei CAT-Kabeln werden zur Verringerung des Übersprechens zwi-schen den einzelnen Paaren die Adernpaare unterschiedlich stark ver-drillt. Aus dieser unterschiedlich starken Verdrillung resultiert ein Un-terschied in der effektiven Kupferlänge der einzelnen Adernpaare. DerLängenunterschied zwischen den einzelnen Adern führt wiederum zuunterschiedlichen Laufzeiten der analogen Farbsignale. Diese Laufzeit-unterschiede sind im Datenblatt des Kabels unter dem Begriff Skew zufinden und werden in Nanosekunden (ns) angegeben. Der jeweilige Wertbezieht sich auf eine Schnittlänge des Kabels von 100 Metern Netz-werksegmentlänge und liegt im Mittel bei 20 ns.

„Bei geringen Kabellängen oder Bildauflösungen spielt der Skew-Wert noch keine Rolle“, relativiert Loncarek das Problem. „Sobald dieAuflösung und/oder die Kabellänge ansteigen, kann es dagegen zuFarbschatten in der Anzeige auf dem Bildschirm kommen. Im güns-tigsten Fall führen die Laufzeitunterschiede nur zu Unschärfen. Dochim ungünstigsten Fall kommt es zu einem Farbversatz, der besondersdeutlich bei den vertikalen Linien hervortritt. Eine weiße Linie hat dannzum Beispiel einen unerwünschten roten Schatten.“

18 Rechenzentren und Infrastruktur III/2010

KVM-TECHNIK

TCP/IP sprengt im KVM-Bereich die GrenzenNetzwerk muss Bandbreitenhunger stillen können

Die Digitalisierung der Videosignale einerseits sowie der Rückgriff auf TCP/IP als Übertragungsprotokollandererseits erlauben weiträumige KVM-Konfigurationen. Die Signale von Keyboard, Video und Maus (KVM)können dabei über 10 Kilometer weit transferiert werden und das bei hohen Auflösungen undBildwiederholraten.

Bei paarig geschirmten Kabeln sinken in der Theorie zwar die zu-lässigen Laufzeitunterschiede wieder. Die Praxis hat aber gezeigt,dass es zu kapazitiven Effekten durch die zusätzliche Schirmungkommt, die sich in einer „Fähnchenbildung“ niederschlägt. Dies kannnur teilweise durch Kompensationseinstellungen in den KVM-Exten-dern behoben werden. Die maximal erreichbaren Distanzen liegen beicirca 300 Metern. Darüber hinaus können zudem verstärkt elektrischeStörungen auftreten. Generell ist festzustellen: Je höher die ge-wünschte Auflösung ist, umso geringer ist die erreichbare Distanz. Diehöchste Videoqualität wird erreicht, wenn zur Verbindung zwischenSender und Empfänger des Extender massives U/UTP oder S/UTP miteinem Adern-Querschnitt von mindestens AWG24 verwendet wird.

Die analoge Extender-Technik wird auch häufig zusammen mit KVM-Umschaltern eingesetzt beziehungsweise ist direkt in diese Geräte inte-griert. Durch eine Bedienung des KVM-Umschalters von außerhalb deseigentlichen Serverraumes erhält der Administrator einen komfortablenund ergonomischen Arbeitsplatz. Er ist nicht mehr dem Lärm der Serverund der Kälte des klimatisierten Raumes ausgesetzt. Zudem spart mansich die Wege zwischen den verschiedenen Servern oder Serverräumen.

Digitale Videosignale bringen Vorteile

Aber nicht nur die Anforderungen an die Bildschirmauflösung habensich geändert, sondern auch die Art des Videosignals. Es wird zuneh-mend mit digitalen Videosignalen (DVI) gearbeitet. Die Vorteile von DVIliegen auf der Hand: Es entfällt die sonst notwendige Analog-/Digital-wandlung am Monitor sowie an der Grafikkarte (Digital-Analog) und esgibt aufgrund des digitalen Signals keine sichtbaren Verluste mehr. „EinDVI-Signal benötigt allerdings eine höhere Bandbreite als ein entspre-chendes analoges Videosignal. Damit ergeben sich auch gänzlich an-dere Anforderungen an die KVM-Extender. Mit herkömmlichen DVI-Ka-beln sind laut Norm nur noch fünf Meter überbrückbar. Die Daten rateeines Singlelink-DVI-Signals liegt bei 3,96 GBit/s und die maximaleAuflösung bei 1920ˇxˇ1200 Bildpunk-ten“, führt aus.

Auch die DVI-Extender gibt es alsCAT- sowie als Glasfaservarianten. Dadie Bandbreite des DVI-Signals deut-lich höher ist als die des CAT-Kabels,wird mit Kompression gearbeitet. Teil-weise wird auch die Farbtiefe von 24Bit auf 21 oder 18 Bit oder die Frame-rate reduziert. Bestimmte Anwender,wie etwa Grafiker an ihren Systemen,können diesen Unterschied in derFarbtiefe feststellen. Für Standard -anwendungen dagegen ist diese Ein-buße nicht relevant.

Die Übertragung über Kupferkabelerfolgt zwar digital, jedoch hat diesesSignal noch nichts mit TCP/IP zu tun.Die Übertragung erfolgt proprietär,

und die maximale Reichweite über Kupfer liegt bei etwa 140 bis 150Metern. Glasfaserkabel stellen dagegen eine höhere Bandbreite zurVerfügung. Damit sind auch größere Distanzen für die Übertragungmöglich. Das Videosignal wird komprimiert, sodass die eigentlicheÜbertragung typischerweise mit 1 GBit/s oder 1,25 GBit/s erfolgt. Esgibt Modelle mit einem 2,5-GBit/s-Link, bei denen die Reduktion derFarbtiefe entfällt. Die Glasfaservarianten verwenden üblicherweisezwei Fasern, aber auch Single-Fiber ist möglich.

Ein weiterer wichtiger Aspekt betrifft die mittlerweile sehr weitver-breiteten USB-Eingabegeräte (wichtig ist dabei USB 2.0). Nur wenigeKVM-Extender mit USB übertragen das USB-Signal transparent. Häufigwird mit Emulationen gearbeitet, die nur Geräte mit dem USB-HID(Human Interface Device) Standard unterstützen (wie etwa die Wheel-mouse von Microsoft). Multimediatasten auf den Tastaturen oder zu-sätzliche Maustasten bleiben dabei oft ganz oder zumindest teilweiseaußen vor. Aktuelle Entwicklungen sind dagegen in der Lage, die DVI-Signale unkomprimiert über eine einzige Glasfaser und zusätzlich USB2.0 völlig transparent zu übertragen. Einen Nachteil gibt es bei denmeisten verfügbaren DVI-Extendern, berichtet Loncarek: „Sie übertra-gen nur das digitale DVI-D-Signal und sind somit nicht in der Lage, einanaloges Signal (zum Beispiel VGA mit einem Steckadapter) zu trans-portieren.“ Es gibt für DVI und VGA aber einen flexiblen Extender. Eshandelt sich um einen IP-basierten KVM-Extender. Dieses Gerät ver-wendet zur Übertragung kein proprietäres Protokoll oder Signal, son-dern transferiert das KVM-Signal über Gigabit-Ethernet. Die Übertra-gung erfolgt über günstiges Kupferkabel und kann jederzeit geroutetoder mittels Gigabit-Switch verlängert werden. Zudem besteht die Op-tion, mit einem einfachen Medienkonverter mitten im Übertragungs-weg auf Glasfaser zu wechseln, falls eine größere Reichweite odereine galvanische Trennung erreicht werden soll.

Da die Ein- und Ausgänge als DVI-I ausgelegt sind, können so-wohl DVI-D-Signale wie auch VGA-Signale (mit entsprechenden Adap-tern) übertragen werden. Falls nötig, erfolgt auch eine Konvertierung

Rechenzentren und Infrastruktur III/2010 19

KVM-TECHNIK

Beispiel für eine KVM-Konfiguration, die TCP/IP und einevorhandene Netzwerkinfrastruktur

verwendet (Abb. 1).

Quel

le: B

lack

Box

zwischen digitalen und analogen Ein- und Ausgangssignalen. „Um dieFlexibilität dieses Systems noch zu steigern, besteht die Möglichkeit,mehrere Extender mittels eines Managementservers zu einer frei ska-lierbaren KVM-Matrix umzukonfigurieren beziehungsweise auszubau-en“, schlägt Loncarek vor. Dabei werde nur die bekannte und günstigeÜbertragungsinfrastruktur von Gigabit-Ethernet verwendet. Aufgrundder notwendigen hohen Bandbreite empfiehlt er nicht, den KVM-Da-tenstrom bei größeren Applikationen über das normale Hausnetz zutransferieren.

Die KVM-Verlängerung und -Umschaltung über das TCP/IP-Proto-koll wird heutigen und zukünftigen Anforderungen an eine flexible In-frastruktur in vielen Punkten gerecht. Die Grundlage für diese Variantebildet das Protokoll TCP/IP. „Das Besondere daran ist die Tatsache,

dass auf der Basis von TCP/IP Algorithmen sowohl ein analoges (VGA)als auch digitales (DVI-D) Computer-Videosignal quasi in Echtzeit vonder Quelle bis zur Senke schaufeln – ganz ohne jegliche Dämpfungs-verluste“, erklärt Mark Hempel. Der Produktmanager KVM Europa beider Black Box Deutschland zählt weitere Vorteile auf: „Maus-Latenzenoder einen langsamen Bildaufbau wie bei den bisherigen KVM-over-IP-Systemen, die bereits seit Jahren im Servermanagement eingesetztwerden, kennt diese neue Technik nicht.“

Einige Hersteller haben Geräte entwickelt, die sich für kurze bismittlere Übertragungswege im LAN- bis Campus-Bereich eignen. Dashohe Tempo dieser Technik verlangt vor allem nach kurzen Round-Trip-Verzögerungszeiten und den passenden Bandbreiten. „Damit wer-den die bisherigen Grenzen der für analoges VGA-Signal bekannten

20 Rechenzentren und Infrastruktur III/2010

KVM-TECHNIK

KVM-Extender, die über Kupferkabel arbeiten, verwenden typi-scherweise herkömmliches CAT-5-Netzwerkkabel. Diese Systemekönnen je nach Auflösung bis zu 300 Meter überbrücken. Generellgilt die Empfehlung, Massivdrahtkabel mit einem Querschnitt vonmindestens AWG 24 zu verwenden. Heute kommt meist AWG 23oder AWG 22 Kabel (ist dicker als AWG24) für die strukturierteVerkabelung zum Einsatz. Es ist wichtig, Massivdrahtkabel zuverwenden, da ein Litzenkabel gleichen Außendurchmesserseinen geringeren effektiven Kupferquerschnitt und somit einenhöheren ohmschen Widerstand aufweist.

Werden Netzwerkkabel höherer Kategorie verlegt (CAT5e, CAT6,CAT7 teilweise schon CAT8), wirkt sich das besonders bei großenDistanzen und höheren Auflösungen der Skew des Kabels aus.Bei den Kabeln der höheren Kategorie sind die einzelnen Adern-paare unterschiedlich stark verdrillt. Damit ergibt sich ein Unter-schied in der Länge der Kupferleitung zwischen den einzelnenAdernpaaren, die zu Laufzeitunterschieden zwischen den einzel-nen Adernpaaren führt.

Da nun die CATx-KVM-Extender die Signale analog übertragen,das heißt ein Adernpaar überträgt das rote Farbsignal, ein Paardas blaue und ein Paar das grüne, kommt es bei zu großen Lauf-zeitunterschieden zu Farbschatten auf dem Bildschirm (wennzum Beispiel das grüne Farbsignal später ankommt). Um diesenEffekt auszugleichen, gibt es KVM-Extender, die das sogenannteDe-Skew unterstützen. Diese Extender „bremsen“ quasi die zuschnellen Farbsignale ab. Somit erhält der Monitor alle Farbinfor-mationen zur gleichen Zeit und Schatten werden vermieden.Dieser Skew-Effekt wird besonders deutlich, je länger das Kabelzwischen dem Empfänger (Remote) und dem Sender (LocalL) undje höher die verwendete Auflösung ist.

Der Effekt des Skew zeigt sich in Unschärfen, bei extremen Fällenin Farbschatten hinter vertikalen Linien (zum Beispiel Fensterrah-men). Es gibt spezielle Testbilder, die den Skew-Effekt besondersdeutlich darstellen und so seine Kompensation vereinfachen. Umihn ganz zu umgehen, gibt es zwei Möglichkeiten:

• Einsatz eines DVI-D-Extender und• Einsatz eines LWL-Extender.

Setzt der Anwender einen digitalen DVI-D Extender über CATx-Kabel ein, muss er sich allerdings einer Einschränkung bewusstsein: Die überbrückbare Distanz ist typischerweise auf etwa 100bis 150 Meter begrenzt und das Videosignal ist komprimiert

beziehungsweise verlustbehaftet. Die Bandbreite eines CATx-Kabels ist begrenzt, daher gibt es verschiedene Methoden um dieübertragene Datenmenge zu reduzieren. Die am häufigsten ver-wendete Methode ist das Auslassen von Einzelbildern. Es wirdzum Beispiel jedes fünfte oder sechste Frame weggelassen. Beider klassischen Server-/Rechner-Administration stellt das norma-lerweise kein Problem dar – die Maus läuft höchstens etwasnach. Für Videoschnitt und ähnliche Anwendungen sind derartigeExtender jedoch nicht geeignet, da dann das Bild erkennbarruckelt. In diesen Fällen sind LWL-Extender besser geeignet.

LWL-Extender werden für analoge Signale hauptsächlich dannverwendet, wenn größere Distanzen überbrückt werden müssen:bis zu 500 Meter bei Multimode-Glasfaser und 10 Kilometer beiSinglemode-Faser. Sonst dienen sie zur Potenzialtrennung zwi-schen lokaler und entfernter Seite. Verwendet man LWL-Extenderfür die Übertragung von DVI-Signalen, ist auch hier darauf zuachten, dass die volle gewünschte Anzahl der Frames über -tragen werden kann. Um einen Film flüssig wiedergeben zukönnen, sind mindestens 25 Frames/Bilder pro Sekunde (not-wendig).

KVM über IP (KVMoIP) bedeutet, dass die KVM-Signale in digitali-sierter Form über eine herkömmliche Netzwerkinfrastruktur„laufen“. Es sind keine dedizierten Verbindungen mehr nötig,sondern die Signale können ganz regulär durch Netzwerk-Swit-ches oder Router übertragen werden. Bei entsprechend optimier-ten Geräten gibt es keine Längenbeschränkungen mehr. ImGegensatz zu den herkömmlichen KVM-Extendern, die immerpaarweise mit Sender am Rechner und Empfänger an der Bedien-konsole arbeiten, funktionieren diese Geräte alleine, sprich ohneEmpfängereinheit.

Ein KVMoIP-Wandler greift die Signale typischerweise von denexternen Schnittstellen des Computers ab, sprich das von derGrafikkarte ausgegebene VGA-Signal wird digitalisiert und dannüber das Netzwerk übertragen. Auf der anderen Seite kommtspezielle Software zum Einsatz, die die übertragenen VGA-Signalewieder in ein sichtbares Bild zurückübersetzt. Meistens handeltes sich dabei um eine proprietäre Software. Es gibt aber auchGeräte, die auf einen Standard wie VNC (Virtual Network Compu-ting) zurückgreifen. VNC gibt es auch als Serverapplikation,ähnlich wie zum Beispiel PC Anywhere.

Rainer Huttenloher (nach Unterlagen von Black Box Deutschland)

TECHNIK HINTER DEN KVM-EXTENDERN

Möglichkeiten bei Weitem gesprengt“, erläutert Hempel. „HomogeneMultiuser-Architekturen lassen sich nun auch gebäudeübergreifendaufbauen, wobei die Systemintegrität und Videosignalqualität gewahrtbleiben.“ Die Netzwerktechnologie erlaube hierbei, Flaschenhälse zuvermeiden und biete ausreichende Redundanz-Optionen über bewähr-te Verfahren wie etwa die Protokolle Spanning Tree und Rapid Span-ning Tree sowie das Trunking. „Wird eine derartige KVM-Lösung alsExtender genutzt, stehen selbst bei einer klassischen Punkt-zu-Punkt-Anwendung Auflösungen bis zu 1920ˇxˇ1200 bei 60 Hz und 24 BitFarbtiefe sowie 60 Frames pro Sekunde garantiert zur Verfügung“,fasst Hempel zusammen. „In einer Dual-Head-Version laufen sogarzwei Signale mit dieser Auflösung parallel über ein einziges CAT-Kabel. Damit minimiert sich zudem der Aufwand, den ein Unterneh-men in die Infrastruktur stecken muss. Denn neben den beiden Video-signalen werden Stereo-Audio-Signale in CD-Qualität geliefert.“

Anschluss von USB-Geräten bringt Flexibilität

Für den Anschluss von USB-Geräten gebe es beispielsweise beimServSwitch DTX noch zwei weitere Kanäle. Über einen werden Spei-chermedien (Virtual Media) mit Geschwindigkeiten bis etwa 12 MBit/sübertragen. Über den anderen steht ein pseudotransparenter Kanal fürden Anschluss eines USB-Smartcard-Lesers, für Grafiktabletts, Scan-ner oder Drucker zur Verfügung. „Dies ist nicht alles nur über die ma-ximale Segmentlänge von 100 Metern mit einer 1-zu-1-Verbindungmöglich“, so Hempel weiter. „Bei Verwendung von Ethernet-Switchesoder passenden Medienkonvertern ist sogar ein Vielfaches dessenmöglich und auch Route-bar – unabhängig davon, ob über Kupfer oderGlasfaser gesendet wird.“

Viele Geräte arbeiten dann auch als dynamischer Extender, ohnedie bisher genannten Funktionalitäten einzubüßen. In einem derartigenSzenario befinden sich mehrere Sende- und Empfangsgeräte am Netz.„Über einen ebenso am Netzwerk angeschlossenen Steuer- und Au-thentifizierungsrechner lassen sich User-Profile einrichten, welcheeinem Nutzer über das Login – und unabhängig von der verwendetenEmpfängereinheit – immer nur die Aufschaltung auf einen festenRechner ermöglichen“, stellt Hempel heraus. Dies sei mit einer Thin-Client-Architektur vergleichbar, in diesem Fall aber mit der Perfor-mance einer High-End-Grafikworkstation.

Hochleistungs-Rechnersysteme mit teurer Lizenzsoftware lassensich auf diese Weise effizienter nutzen, ohne dass die Benutzer ihrenArbeitsplatz wechseln müssten. Außerdem geschieht dies ohne lizenz-rechtliche Probleme, da ja nur die externen Schnittstellen verlängertwerden. Zudem ist ein Gruppieren – das sogenannte Pooling – vonDTX-Sendeeinheiten einstellbar: Beispielsweise kann ein CAD-Anwen-der immer den nächsten freien Rechner einer Gruppe aufgeschaltetbekommen. Der Matrix-Modus erweitert den dynamischen Extender-Modus. Einem User-Profil ist dabei nicht nur ein Rechner zugeordnet,sondern eine beliebige Anzahl davon. Sie lassen sich dann mittels On-Screen-Menü selektieren und aufschalten. „Bekannt ist dieser Vor-gang aus der analogen Multiuser-Matrix-Umschaltung, allerdings nichtmit deren Limitationen. Bei einem Netzwerk-Switch spielt es keineRolle, ob es sich um einen Port-Eingang oder -Ausgang handelt“, führtHempel aus. „Somit ist auch die Matrix nicht in Stufen eingeteilt wieheutige analoge Systeme. Im Gegenteil, sie ist frei skalierbar undwächst in Einser-Inkrementen. Je Rechner benötigt man einen DTX-Sender, je Konsole einen DTX-Empfänger. Dazu jeweils einen Netz-werkport am (Gigabit-) Switch und fertig ist die Erweiterung.“

Abgesehen von der gleichbleibenden Videoqualität über die Distanzsowie den mit einhergehenden Peripheriesignalen bietet die Netz-

werktechnik auch gleich ein Mehrfaches an Ausfallsicherheit. „Sicherkann der Ausfall eines Netzwerk-Switches als solches nicht ausge-schlossen werden“, erklärt der Produktmanager. „Aber klassische Fla-schenhälse wie bei der auf einer Baumstruktur basierenden analogenKVM-Matrix sind bei einem Ansatz mit einem DTX unbekannt. Dankder LWL-Übertragungstechnik können auch gebäudeübergreifendeMatrizen aufgebaut werden, ohne die Homogenität des Matrix-Sys-tems zu verletzen.“

Ein Steuerrechner, der den Matrix-Modus wie auch den dynami-schen Extender-Modus ermöglicht, übernimmt die Aufgaben der Au-thentifizierung der zugreifenden Anwender. Weiterhin dient der Steuer-rechner zur Administrierung des Gesamtsystems. Über ihn werdenbeispielsweise Aktualisierungen zentral eingespeist und an die Sende-und Empfangseinheiten verteilt. Während derzeit nur interne Authenti-fizierung möglich ist, sollen externe Authentifizierungsprotokolle (wieetwa LDAP, Lightweight Directory Access Protocol) in absehbarer Zeitfolgen und über Updates zur Verfügung stehen. Der Rechner protokol-liert alle Ereignisse im Gesamtsystem und zeigt sie dem Administratorauf Wunsch an.

Die Ausrichtung dieser Geräte und ihr Bandbreitenhunger habenauch Auswirkungen auf das Netzwerk. Der Bandbreitenbedarf richtetsich zum einen nach der zu übertragenden Auflösung, und zum ande-ren nach der Applikation, die letztlich die Änderung des Bildinhaltesbestimmt – und somit das, was an Daten übertragen werden muss.„Während sich bei 1280ˇxˇ1024 Bildpunkten und einer Wiederholratevon 60 Hz die benötigte Bandbreite im normalen Office-Betrieb oderBrowsen im Mittel nicht über 6 MBit/s bewegt“, so Hempel, „ver-schlingt das Abspielen einer DVD mit Audio – also kontinuierlichemVollbildwechsel – im Extremfall bis zu 140 MBit/s. Dieselben Anwen-dungen mit einer Auflösung und Wiederholrate von 1920ˇxˇ1200 undbei 60 Hz verdoppeln diese Werte.“

Anders sehe dies bei der Einspeisung eines analogen VGA-Signalsaus, so der Black-Box-Experte, welches im Office-Betrieb statt der beiDVI-D üblichen 6 MBit/s aufgrund des Signalrauschens sogar 32 MBit/sbenötige. Für Bewegtbilder ändern sich die Werte nicht, da ein Voll-bildwechsel ohnehin das Maximum darstellt. „Abgesehen von derBandbreite empfehlen sich für den Einsatz des ServSwitch DTX zumBeispiel Netzwerke mit einem Round Trip Delay (RTDs) von wenigerals 20 Millisekunden“, gibt Hempel vor. „Das beschränkt die Einsatz-gebiete im Wesentlichen auf LAN- oder Campus-Netze. Sollte der DTXim Matrix-Modus verwendet werden und hierbei das gleichzeitigeWiedergeben eines Videosignals auf mehreren Konsolen erforderlichsein, werden Multicast-fähige Switches benötigt.

Rainer Huttenloher

Rechenzentren und Infrastruktur III/2010 21

KVM-TECHNIK

Der ServSwitch DTX5002-R überträgt die KVM-Signale bis inentfernte Bereiche (Abb. 2).

Quel

le: B

lack

Box

Deu

tsch

land

F ällt ein Rechenzentrum (RZ) aus, kommt das für die betreffendenUnternehmen immer einer Katastrophe gleich. Mit einem entspre-

chenden Aufwand lassen sich allerdings sehr hohe Verfügbarkeitender RZ realisieren. Doch in diesem Fall steigen auch die Kosten extreman. Daher gilt es in der Regel, einen passenden Kompromiss ausHochverfügbarkeit und Bezahlbarkeit zu finden.

Um hier ein passendes Konzept zu entwickeln, muss man bereitsin der Planungsphase die Weichen stellen. Ein RZ-Verantwortlichersollte sich im Vorfeld Gedanken machen, wie die Struktur aussieht unddabei auch eine Erweiterbarkeit und somit einen Skalierungsfaktor inseine Überlegungen mit einbeziehen. Um konkrete Aussagen treffenzu können, ist ein mathematisches Modell nötig. Dabei geht es sozu-sagen um die Verschaltung der einzelnen Komponenten beziehungs-weise Funktionsblöcke des RZs. Es sind Fragen zu klären wie:• Bauen wir eine redundante Klimaanlage auf oder gleich zwei?• Setzen wir auf getrennte Stromwege?Aus diesen Fragestellungen lässt sich dann ein Dimensionierungs -modell abklären und anschließend auch bestimmen, wie die einzel-nen Komponenten zu verschalten sind. Dabei kommt die Klassifizie-rung der RZ ins Spiel.

Das Uptime Institute hat dazu eine Aufteilung in Tier 1 bis 4 defi-niert (siehe Abbildung 1). Die derzeit wichtigen Klassen sind Tier 2 bisTier 4. Über die Angaben zur Gesamtverfügbarkeit – darin unterschei-den sich diese Tier-Klassen, lässt sich im Planungsstadium bereitsalles durchrechnen. Daraus kann der Planer dann auch errechnen,wieviel Investitionskosten für dieses Konstrukt anfallen.

Die Erfahrungswerte aus vielen Projekten zeigen, dass man heut-zutage mit einem Investitionskostenfaktor von 3000 Euro pro Quadrat-meter RZ-Fläche ausgehen kann. Damit lässt sich dann ein RZ derTier-2-Klasse (und etwas darüber) aufbauen. Es gibt aber durchausProjekte mit hohen Verfügbarkeitsanforderungen, die sogar über10ˇ000 Euro pro Quadratmeter RZ-Fläche Kosten erfordern. Multipli-ziert mit der entsprechenden Quadratmeterzahl sind dann große Sum-men zu stemmen. Daher rechnen sich die Überlegungen, wie man ein-sparen und zugleich die Verfügbarkeit hoch halten kann.

Eine totale Ausfallsicherheit – sprich eine 100-prozentige Verfüg-barkeit – ist bei vielen Projekten die Ausgangsforderung. Doch wennder RZ-Verantwortliche dann sieht, welchen Aufwand das nach sichzieht, bleibt in aller Regel die Gewissheit: Das lässt sich nicht finanzieren.Somit besteht ein Optimierungsbedarf – man möchte das Maximum

22 Rechenzentren und Infrastruktur III/2010

RZ-AUSSTATTUNG

Totale Ausfallsicherheit istkaum zu bezahlenBerechnungsverfahren für die Verfügbarkeit von Rechenzentren

Die Verfügbarkeit von Rechenzentren (RZ) ist ein wichtiges Thema, denn die Daten einer Organisation sind inder Regel der relevanteste Faktor für den Erfolg des Unternehmens. Alle Prozesse in modernen Unter nehmenwerden über die RZ gesteuert und der Informationsaustausch läuft ebenfalls über diese Knoten. Daher mussman eine Messlatte in Form eines Berechnungsverfahrens bereithalten, um aus einzelnen Kenngrößen dieVerfügbarkeit des kompletten RZs ermitteln zu können.

Die Einteilung von Rechenzentrenin Tier-Klassen (Abb. 1)

Quel

le: U

ptim

e In

stitu

te/IT

ENOS

an Verfügbarkeit für das definierte Investitionsvolumen. Von ITENOSwurden in den letzten Jahren 35ˇ000 Quadratmeter an RZ-Fläche er-richtet. Zudem betreibt das Unternehmen auf eigene Rechnung RZ mitinsgesamt 25ˇ000 Quadratmetern. Derzeit sind RZ-Projekte mit einemGesamtumfang von 11ˇ500 in der Planung.

Beim Thema Verfügbarkeit von RZ haben sich die Vorgaben desUptime Institute als eine Art Leitlinie durchgesetzt. Auch der TÜV Nordsetzt bei seinen Zertifizierungen der Verfügbarkeit von RZ auf ein ent-sprechend vierstufiges Modell. Im Rahmen dieser Projekte hat sich beiITENOS gezeigt, dass für das Planen von derartigen Projekten dasDurcharbeiten aller Informationen des Uptime Institute nicht ausreicht.Um einen ingenieurmäßigen Ansatz zu bekommen, muss man seinePlanungen anders ausrichten.

Wichtig dagegen ist nicht allein die Frage nach den Bedrohungs-szenarien an sich. Dazu werden in der Klassifizierung zwar 100te vonFragen gestellt. Doch zudem muss die Häufigkeit der Fehler mit einbe-zogen werden. Dabei gilt es zu ermitteln, was die häufigsten Fehlersind und welche dagegen in der Realität so gut wie nie auftreten.Denn wenn man alle Bedrohungen gleich bewertet, prüft oder opti-miert man sich an einer Stelle zu Tode, die so gut wie keine Auswir-kung nach sich zieht.

In den letzten Jahren wurden deswegen bei ITENOS Risikoanalysenerstellt. Damit wurde ermittelt, wo die Risiken auftreten und wie sieverteilt sind. Ein Beispiel dafür ist die Häufigkeit von Störungen imStromnetz. Dabei hat sich gezeigt, dass Störungen mit einer kurzenDauer recht häufig auftreten. Lange Ausfälle von einer Sekunde bishin zu einer Stunde sind dagegen nicht so häufig (siehe Abbildung 2).Doch wenn sie dann auftreten, ist der Schaden größer – auch dasmuss man in den Überlegungen einbeziehen.

Im Hauptrechenzentrum von ITENOS, es liegt im Bereich desStromversorgungsgebiets von Frankfurt/Main, gab es im Jahr 2009vier längere Ausfälle. Bei ihnen mussten die Dieselaggregate starten.Insgesamt 12 große Dieselanlagen werden hier vorgehalten. Sie lie-fern eine Leistung im MW-Bereich. Bei den Fragen der Ausfallzeit darfman allerdings nicht allen Statistiken trauen. Die Stromversorger bele-gen mit ihren Zahlen, dass unser Stromnetz über das gesamte Jahrrund 20 Minuten nicht verfügbar ist. Dagegen hat der BITKOM andereWerte in petto: Demzufolge ist das Stromnetz an 3,5 Stunden im Jahrnicht verfügbar (siehe Abbildung 2). Daraus resultiert eine Verfüg -

barkeit des Stromnetzes von 99,96 Prozent (Berechnung siehe Abbil-dung 3). Laut Informationen von ITENOS stammen diese Werte ausdem Jahr 1986, heutige Werte sollen in etwa ähnlich sein. Allerdingsgibt es auch innerhalb von Deutschland eine Verteilung der Werte: Sosoll das Münchener Stromnetz bessere Verfügbarkeitswerte haben alsdas Frankfurter.

Eine andere Untersuchung aus der Schweiz (mit dem Titel „Strom -effiziente Rechenzentren durch Sensibilisierung über eine transparen-te Kostenrechnung“, Schlussbericht 10/2008) hat sich anhand empiri-scher Werte mit der Frage befasst: „Was kostet ein RZ nach Tier 1, 2,3 oder 4“. Auftraggeber der Studie war das Eidgenössische Departe-ment für Umwelt, Verkehr, Energie und Kommunikation (UVEK) ausdem Bundesamt für Energie (BFE). Unterschieden wurde dabei nachden Kapitalkosten, den Bewirtschaftungskosten und den Ausgaben fürden Strom. Dass es mit höherer Tier-Klasse teurer wird, wundert nicht.Was aber interessant ist: Der Unterschied von Tier 2 zu Tier 4 ent-spricht einer Verdoppelung der Gesamtkosten.

Die Redundanzkonzepte

Vor dem Hintergrund dieser Kosten muss man sich zunächst mit denverschiedenen Redundanzkonzepten in Bezug auf ihre Verfügbarkeits-werte und ihre Folgekosten auseinandersetzen. Dazu hat der Bran-chenverband BITKOM die Stufen• N,• N+1, • N+1 (in kleineren Portionen), • 2N sowie• 2(N+1)unterschieden (siehe Abbildung 4).

Dabei verfolgt man den Ansatz, die Technik eines RZs in einzelneModule aufzuspalten und dann über eine mathematische Vorgehens-weise die Verfügbarkeit des kompletten Systems zu berechnen. DieHerausforderung in diesem Fall lautet: Die Verfügbarkeiten der einzel-nen Module muss unabhängig von der Verfügbarkeit der anderen Mo-dule sein. Das hört sich leicht an, ist in der Realität allerdings schwerumzusetzen.

Dazu ein Beispiel: Angenommen einen Wartungstechniker passiertin allen Modulen bei seinen Arbeiten derselbe Fehler, dann ist zwar

Rechenzentren und Infrastruktur III/2010 23

RZ-AUSSTATTUNG

Statistik zu den Stromausfällen in Deutschland (Abb. 2)

Quel

le: B

ITKO

M/IT

ENOS

Quel

le: B

ITKO

M/IT

ENOS

Berechnung der Verfügbarkeitdes Stromnetzes (Abb. 3)

vom kalkulatorischen Ansatz her eine mathematische Trennung gege-ben, doch in der Realität bringt das nichts. Die technischen Modulesind so aufzutrennen, dass sie sich an den einzelnen Gewerken orien-tieren, die im RZ verbaut werden.

Die zweite Vorgabe in diesem Kontext lautet: Die Verfügbarkeit dereinzelnen Module muss vorliegen – sprich wie lautet die Verfügbarkeiteiner Unterbrechungsfreien Stromversorgung (USV), wie ist es um dieVerfügbarkeit des Stroms bestellt, und so weiter. Diese Ausgangswertesind für alle Module zu bestimmen.

Dabei sind die folgenden Definitionen zu beachten. Es wird zumeinen mit dem Begriff MTBF (Mean Time Between Failure; also diemittlere Zeit zwischen zwei Fehlern, ein Durchschnittswert) und zumanderen mit dem Terminus MTTF (Mean Time To Repair; sprich diemittlere Zeit bis zum Wiederherstellen der Funktionsfähigkeit, eben-falls ein Durchschnittswert) gearbeitet. Die Availability (abgekürzt A;deutscher Begriff Verfügbarkeit) ergibt sich damit als

A =MTBFMTBF + MTTR

und die Unavailability (abgekürzt U; deutscher Begriff Nichtverfügbar-keit) entsprechend als:

U =MTTRMTBF + MTTR

Will man die Verfügbarkeit in Prozent kalkulieren, ist die folgende For-mel angesagt:

Verfügbarkeit (in Prozent) = 1 – (AusfallzeitProduktionszeit + Ausfallzeit)× 100

Bei einer Verfügbarkeit von 99 Prozent ergibt sich danach eine Ausfall-zeit von 87,66 Stunden pro Jahr, bei 99,9 Prozent nur 8,76 Stundenim Jahr, bei 99,99 noch 52,6 Minuten pro Jahr und bei den oft zitiertenfünf Neunen (99,999 Prozent) immerhin noch 5,26 Minuten pro Jahr.Will man 99,9999 Prozent Verfügbarkeit haben, darf ein Modul im Jahrnur 0,5265 Minuten ausfallen – also knapp 32 Sekunden.

Dabei geben die Hersteller Werte für die Verfügbarkeiten von ein-zelnen Geräten an. Damit lässt sich vom RZ-Planer für ein Modulseine Verfügbarkeit berechnen – das ist alles noch mit dem Taschen-rechner machbar. Mithilfe der entsprechenden Redundanzverschal-tung (die Konzepte dazu zeigt die Abbildung 4) lassen sich dann dieVerfügbarkeiten für ein Modul bestimmen.

Dazu soll ein Beispiel im Bereich des USV-Moduls die Unterschie-de verdeutlichen. Die USV zählt zu den empfindlichsten Modulen imRZ-Design und haben daher auch die größten Auswirkungen auf die

Verfügbarkeit des RZs. Deshalb wird der Einsatz einer einzelnen USVheutzutage nicht mehr gemacht.

Bei einem Leistungsbedarf von 120 kVA (Scheinleistung) für dieUSV führt die redundante (1+1)-Konfiguration dazu, dass zwei großeUSV mit je 120 kVA anzuschaffen sind. Die Verfügbarkeit für diesesUSV-Modul hat dann laut Herstellerangaben eine MTBF von 600ˇ000Stunden und eine MTTR von 6 Stunden. Daraus ergibt sich eine Ver-fügbarkeit von 99,999 Prozent.

In einer anderen Konfiguration mit vier USV, die jede 40 kVA liefertund in einem (3+1)-Ansatz verschaltet ist, lauten die Werte für die MTBF500ˇ000 Stunden und die MTTR liegt bei einer halben Stunde. Darauserrechnet sich eine Verfügbarkeit von 99,9999 Prozent. Aus Sicht derVerfügbarkeit ein deutlicher Vorsprung für die (3+1)-Konfiguration.

Diese Berechnungen muss der RZ-Planer für alle Module im RZausführen. Dazu gehören die Netzanbindung, die Netzersatzanlagen,die Niederspannungshauptverteiler, die USV, die Unterverteilung sowiedie Klimaanlagen. Die Ausgangsdaten dazu sind in Abbildung 5 zusehen.

Um nun die einzelnen Module miteinander zu kombinieren, ist dieMathematik gefordert. Dazu finden der Multiplikationssatz der Wahr-scheinlichkeitsberechnung (auch als UND-Verknüpfung bekannt) undder Additionssatz der Wahrscheinlichkeitsberechnung (die ODER-Ver-bindung) Anwendung (siehe Abbildung 6). Schaltet man zwei Einzel-verfügbarkeiten von 0,9 in Reihe, ergibt sich eine Gesamtverfügbarkeitvon 0,81. Bei der Parallelschaltung von zwei 0,9-Verfügbarkeitenkommt es dagegen zu einer Gesamtverfügbarkeit von 0,99. Generellwerden entweder die Nichtverfügbarkeiten multipliziert oder die Ver-fügbarkeit – je nach Verschaltung. Hier erkennt man dann auch, dasses den berüchtigten „Single Point of Failure“ zu vermeiden gilt.

In Abbildung 7 ist ein Beispiel zu sehen, an dem man die Verfüg-barkeit eines RZs leicht durchrechnen kann. Es sind die Module Trafo,Generator, USV-Block (mit der A- und B-Schiene der Stromversor-gung/Unterverteilung), die Klimaanlage (in redundanter Konfiguration)zu sehen. Dabei kommt es zu einer Verfügbarkeit von 99,994 Prozent.

24 Rechenzentren und Infrastruktur III/2010

RZ-AUSSTATTUNG

Quel

le: B

ITKO

M/IT

ENOS

Redundanzkonzepte im Vergleich(Abb. 4)

Ausgangswerte fürdie Teilverfügbar -keiten von RZ-Modulen (Abb. 5)

Quel

le: I

TENO

S

Mit einer entsprechenden Berechnung lässt sich für jedes RZ dieeigene Konstellation ausrechnen. Diese Werte nutzen dabei nicht nurdem Techniker. Auch die juristischen Fragen, etwa wenn es um dieSchadensbewertung geht, lassen sich diese Werte – nachvollziehbar –verwenden. Dabei besteht Revisionssicherheit, und ein Kunde kanngut verstehen, wenn man zum Beispiel einen redundanten Zweig ausder Konfiguration entfernt. Des Weiteren zieht das Auswirkungen zumBeispiel auf die Einordnung des RZs in Bezug auf die Tier-Klassennach sich.

Der Knackpunkt für den Einsatz dieses mathematischen Modellsist der Unterschied zwischen der logischen Kapselung der einzelnenModule in der Theorie und der Praxis. Denn viele Schnittstellen er -weisen sich in der Realität als fließend, zudem bringt die Anzahl der Schnittstellen zwischen den Modulen einen Unsicherheitsfaktor

ins Spiel. Daher sind Abweichungen vom mathematischen Modell zu erwarten. Bei ITENOS hat man hierzu eigene Erfahrungswerte ge-sammelt.

Insgesamt überwacht ITENOS etwa 1,5 Millionen Messpunkte inseinen Projekten und hat daraus die Verfügbarkeitswerte dieser Anla-gen ermittelt. Dabei sind RZ nach Tier 2, Tier 3 und Tier 4 enthalten.Aus diesen realen Werte zeigt sich: Die Abweichung von der Mathema-tik und den theoretischen Werten liegen im 2- bis 3-tausendstel Pro-zentbereich – und zwar hin zum besseren.

Rainer HuttenloherDieser Beitrag basiert auf einem Vortrag der Firma ITENOS auf der iX-Konferenz

zum Thema Rechenzentrumsbetrieb und Verkabelung in Neuss 2010.

Rechenzentren und Infrastruktur III/2010 25

RZ-AUSSTATTUNG

Berechnungsformeln für dieAusfallwahrscheinlichkeiten(Abb. 6)

Verfügbarkeitsberechnungfür ein Beispiel-RZ (Abb. 7)

Quel

le: I

TENO

SQu

elle

: ITE

NOS

Austausch alter USV-Anlagen: Die Optimierung von Energie- und Be-triebskosten ist das elementare Ziel von Rechenzentrumsverantwortli-chen. Denn dort übersteigen die Kosten für Energie zum Teil die desEquipments. USV-Anlagen machen in diesen Umgebungen etwa fünfbis zehn Prozent des Gesamtverbrauchs aus – also ein nicht zu unter-schätzender Faktor bei Einsparungsvorhaben. Moderne USV-Anlagenmit erhöhtem Wirkungsgrad und weitere Lösungen für das Power-Ma-nagement bieten hierfür eine Reihe von praktikablen Möglichkeiten.

Eine transformatorlose Technologie mit sogenannten IGBTs (Insula-ted Gate Bipolar Transistors) im Gleichrichter und im Inverter reduziertdie Netzrückwirkung ohne zusätzliche Trafos oder Filter. Allerdingswaren trafolose IGBT-Systeme lange Zeit nur bei USV-Anlagen imniedrigen Leistungsbereich realisierbar. Seit einiger Zeit ist es möglich,dass USV-Systeme mit bis zu 1100 kVA transformatorlos arbeiten.

Wirkungsgrade von bis zu 99 Prozent erreicht man zum Beispielmit der ESS (Energy Saver System)-Technologie von Eaton. Hier über-

wacht ein integrierter Erkennungsalgorithmus kontinuierlich die Quali-tät des eingehenden Stroms. Wenn Spannung und Frequenz des Ein-gangsstroms eine akzeptable Güte haben, wird die Eingangsspannungungefiltert an die Last weitergegeben. Sinkt die Qualität ab, wird derUSV-Wechselrichter nahezu unterbrechungsfrei zugeschaltet. Diesererzeugt dann eine saubere Ausgangsspannung.

26 Rechenzentren und Infrastruktur III/2010

VORSCHAU

Rechenzentrum und Infrastruktur –Komponenten, Kabel, NetzwerkeDie nächste Verlagsbeilage erscheint mit der iX-Ausgabe 11/2010 am 21. Oktober 2010.Dabei ist unter anderem das folgende Thema geplant:

Impressum Themenbeilage Rechenzentren & Infrastruktur

Redaktionsbüro HuttenloherTelefon: 088 56/99 75, Fax: 088 56/99 76, E-Mail: [email protected]

Verantwortlicher Redakteur:Rainer Huttenloher (088 56/99 75)

Autoren dieser Ausgabe:Mario Bäcker, Rainer Huttenloher, Jörg Poschen, Thomas Weible

DTP-Produktion: Enrico Eisert, Wiebke Preuß, Matthias Timm, Hinstorff Verlag, Rostock

Korrektorat:Wiebke Preuß

Fotografie: Martin Klauss Fotografie, Despetal / Barfelde

Technische Beratung: Duc-Thanh Bui

VerlagHeise Zeitschriften Verlag GmbH & Co. KG, Postfach 61 04 07, 30604 Hannover; Helstorfer Straße 7, 30625 Hannover; Telefon: 05 11/53 52-0, Telefax: 05 11/53 52-129

Geschäftsführer: Ansgar Heise, Steven P. Steinkraus, Dr. Alfons Schräder

Mitglied der Geschäftsleitung: Beate Gerold

Verlagsleiter: Dr. Alfons Schräder

Anzeigenleitung (verantwortlich für den Anzeigenteil): Michael Hanke (-167), E-Mail: [email protected]

Stellv. Anzeigenleiter und Ltg. International: Oliver Kühn -395, E-Mail: [email protected]

Assistenz: Stefanie Frank -205, E-Mail: [email protected]

Anzeigendisposition und Betreuung Sonderprojekte: Christine Richter -534, E-Mail: [email protected]

Anzeigenverkauf: PLZ-Gebiete 0–3, Ausland: Oliver Kühn -395, E-Mail: [email protected],PLZ-Gebiete 8–9: Ralf Räuber -218, E-Mail: [email protected]: Isabelle Paeseler -205, E-Mail: [email protected]

Anzeigen-Inlandsvertretung: PLZ-Gebiete 4–7: Karl-Heinz Kremer GmbH, Sonnenstraße 2, D-66957 Hilst, Telefon: 063 35/92 17-0, Fax: 063 35/92 17-22, E-Mail: [email protected]

Teamleitung Herstellung: Bianca Nagel

Druck: Dierichs Druck + Media GmbH & Co. KG, Kassel

Eine Haftung für die Richtigkeit der Veröffentlich ungen kann trotz sorgfältiger Prüfungdurch die Redaktion vom Herausgeber nicht übernommen werden. Kein Teil dieserPublikation darf ohne ausdrückliche schriftliche Genehmigung des Verlages verbreitetwerden; das schließt ausdrücklich auch die Veröffentlichung auf Websites ein.

Printed in Germany

© Copyright 2010 by Heise Zeitschriften Verlag GmbH & Co. KG

Die InserentenDie hier abgedruckten Seitenzahlen sind nicht verbindlich. Redaktionelle Gründe können Änderungen erforderlich machen.Huber + Suhner www.hubersuhner.de S. 5Intel www.intel.de S. 6, 7

IP Exchange www.ip-exchange.de S. 28Raritan www.raritan.de S. 17Rittal www.rittal.de S. 14, 15Stulz www.stulz.de S. 2Thomas Krenn www.thomas-krenn.de S. 27

Zur Energy Advantage Architecturegehören das VMMS (VariableModule Management System) unddas ESS (Energy Saver System) –beide Module sind für die USVEaton 9395 verfügbar.

Quel

le: E

aton

Verkauf erfolgt ausschließlich an Gewerbetreibende, Firmen, Freiberufl er (Ärzte, Rechtsanwälte etc.), staatliche Institutionen und Behörden. Druckfehler, Irrtümer und Änderungen in Preis und Ausstattung vorbehalten. Unsere Versandkosten richten sich nach Gewicht und Versandart. Genaue Preisangaben fi nden Sie unter: www.thomas-krenn.com/versandkosten. Thomas-Krenn.AG, Speltenbach-Steinäcker 1, D-94078 Freyung

EU: +49 (0) 8551 9150-0 · AT: +43 (0) 7282 20797-3600 · CH: +41 (0) 848 207970www.thomas-krenn.com Made in Germany!

Überzeugen Sie sich vom SC846 Storage-Servermit NexentaStorTM Zertifi zierung

Server individuell konfi gurieren: www.thomas-krenn.com/sc846

UNIFIED STORAGE KOMPLETTSYSTEM

4.095,-SC846 STORAGE-SERVER+ NEXENTASTOR TM AB EUR

EINZIGARTIG

• Basierend auf Open Solaris und ZFS• Selbstheilendes Storagesystem• Einfaches Management über intuitive Weboberfl äche • Unübertroffene Datenintegrität und -konsistenz aufgrund des transaktionsbasierten Zugriffs• Perfekte Integration von SSD Technologie• Nahtlose Einbindung in VMware, XenServer und Hyper-V Umgebungen• Energiesparend dank Effi cientline Technologie

JETZT NEU! Flächendeckendes Händler- und Servicenetz in der Schweiz: www.thomas-krenn.com/ch

ix0810_b_000_thomas_krenn.indd 1 30.06.2010 16:41:09 Uhr

www.ip-exchange.de Nürnberg: Am Tower 5 PLZ: 90475 Tel. 0911/30950040 – München: Rundfunkplatz 4 PLZ: 80335 Tel. 089/904060630

Outsourcing für Serverstrukturen, von indiv iduel len Stel l f lächen bis ful l managed Host ing

Rechenzentren

IP Exchange ist einer der führenden Anbieter sicherer Rechenzentrumsflächen für Outsourcing in Deutschland. Wir sind dar-auf spezialisiert den höchsten Standard physischer Sicherheit und betrieblicher Stabilität zu gewährleisten. Ein modulares Pro-duktspektrum passt sich an die spezifischen Kundenwünsche an, bietet dauerhaft Flexibilität und wirtschaftlich effiziente Rah-menparameter. Von reiner IT Fläche bis hin zu full managed IT Ressourcen werden in den Standorten Nürnberg und München ausschließlich B2B Kunden auf einer Nutzfläche von über 10.000qm mit Dienstleistungen und 24/7 Service betreut. Des weiteren be-rät, plant, baut und betreibt IP Exchange ganze dedizierte Rechenzentren und Serverräume im Kundenauftrag an strategischen Stand-orten in ganz Europa – oder direkt im jeweiligen Unternehmen. Gerne beraten wir Sie unverbindlich über Kosten- & Aufwandsmini-mierung bei gleichzeitiger Effizienzsteigerung Ihrer Serverstrukturen bei zukünftigen Migrationsvorhaben und Budgetgestaltungen.

Business Class

Sprechen Sie mit uns über Ihre Anforderungen

für den für den sicherensicheren Betrieb Ihrer IT Systeme inBetrieb Ihrer IT Systeme in

erstklassigen deutschen Serverstandorten

urciingOuOutstsouou

usingHou

stingHos

anageme tntMM

NetzbetriebN

ConsultingC

24/7 Service2

DatentransportD

llobobalal C CDNDNgg

treamingSt

hivierungArc

uaualilisisiererununggViVirtrtuu