28
Eine Themenbeilage der Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR SERVER, KABEL, CLOUD-COMPUTING 2018 Was RZ-Betreiber jetzt angehen sollten powered by www.rechenzentren-infrastruktur.de Storage: Wie lokaler Speicher mit der Cloud klarkommt Klimatechnik: Wo kalt fließgepresste Kühlkörper passen Leistungsdichte: Wann High Density Computing heiß läuft SDN: Was Architekturen mit offenen Schnittstellen können RZ-Bau: Wer grüne Rechenzentren für Roboter baut Glasfaser: Was der Markt für LWL-Anschlüsse hergibt

Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Embed Size (px)

Citation preview

Page 1: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Eine Themenbeilage der Heise Medien GmbH & Co. KG

RECHENZENTREN UND INFRASTRUKTURSERVER, KABEL, CLOUD-COMPUTING

Ⅰ2018

Was RZ-Betreiberjetzt angehen sollten

powered by ⬛www.rechenzentren-infrastruktur.de

Storage: Wie lokaler Speicher mit der Cloud klarkommt

Klimatechnik: Wo kalt fließgepresste Kühlkörper passen

Leistungsdichte: Wann High Density Computing heiß läuft

SDN: Was Architekturen mit offenen Schnittstellen können

RZ-Bau: Wer grüne Rechenzentren für Roboter baut

Glasfaser: Was der Markt für LWL-Anschlüsse hergibt

Page 2: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger
Page 3: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Rechenzentren und Infrastruktur Ⅰ/2018 3

EDITORIAL

In diesem Jahr müssen wir mit allem rech-nen, mit hü oder hott: Dass wir kein eigenesRZ mehr brauchen (weil alles durch dieCloud geht). Und damit, dass wir mehr eige-nes RZ brauchen (obwohl der Platz jetztschon eng ist). Wie das funktionieren soll,bleibt selbstverständlich Ihnen überlassen.Hauptsache, Sie kennen sich mit Wechsel-richtern aus – denn demnächst speist dieFirma selbst PV-Strom ein. Ach, und was Sieder Chef noch fragen wollte: Was ist denndas mit Intent-based und Self-driving Net-works eigentlich?

Ob es im Einzelfall hü, hott oder hä? wird,kann Axel Oppermann auch nicht sagen. Aberer kann die Frage beantworten, was Data-center-Verantwortliche heute in die Handnehmen müssen, um ihre Anlagen strate-gisch für morgen aufzustellen. Er meint:Nicht trendgetrieben reagieren, sondern Be-darf und Märkte mit Verstand antizipierendagieren – „und zwar ohne Rücksicht auf dietechnologische Marketing-Sau, die geradedurchs Dorf getrieben wird.“ Seine Titelge-schichte beginnt, wenn Sie umblättern.

Als Seitenstücke dazu haben wir einige derderzeitigen Trendthemen genauer ausgefal-tet: mit welchen Mitteln High Density Compu-ting zu bewerkstelligen – und zu kühlen – ist(Seite 16), welche Sofortoptionen es aufRack-Ebene gibt (Seite 20) oder wie manPlattformdienste am besten organisiert (Seite14) und das Datacenter so aufstellt, dass derStorage on premises mit dem Speicher in derCloud klarkommt (Seite 8). Außerdem geht esnoch einmal um Software-defined Networksin seinen technologischen Varianten (Seite18) und um Big-Data-taugliche Netze, dieperformant genug für die vernetzte Industrie-4.0-Fertigung sind (Seite 12). Apropos Netze:5G wird für saftige Datenvolumina sorgen.Aber das ist noch nicht die Oberkante. Fried-rich List war beim Fraunhofer HHI und hatsich erkundigt, wie weit das Projekt Terra -nova ist (Seite 21) – es arbeitet bereits amMobilfunkstandard der übernächsten Genera-tion, mit Frequenzen im THz-Bereich. ZumStichwort Industrie 4.0 schließt sich noch einBericht aus Augsburg an: Dort hat die DataCenter Group für den RobotikspezialistenKUKA ein neues Rechenzentrum gebaut. DenReport dazu finden Sie auf Seite 22.

Auf zwei Beiträge möchten wir Sie beson-ders hinweisen. Zum einen hat sich DorisPiepenbrink hingesetzt, um akribisch diederzeit verfügbaren Übertragungstechnikenund Anschlussmöglichkeiten bei der LWL-Verkabelung zu sortieren: eine praktischeEntscheidungshilfe samt systematischer Ta-belle (Seite 24). Zum anderen haben wirdiesmal etwas aus der klassischen Material-kunde bzw. zu Fertigungsverfahren für Kühl-körper – oder, um ganz genau zu sein: zumFließpressen von Reinaluminium (Seite 10).Die Ergebnisse sind exzellente Wärmeleiterund nahezu frei in der Formgebung. Unswäre lieb, wenn Sie uns sagten, wie solche„RZ-vorgelagerten“ Themen bei Ihnen an-kommen. Wir selbst würden gerne mehr ausdieser Richtung erfahren.

Thomas Jannot

Aber der Wagen, der rollt

Inhalt

Zwischen Trend und NotwendigkeitZukunftsentscheidungen im Datacenter 4

Es läuft auf Flash-Speicher hinausStorage-Architektur und NVMe 8

Kalt fließgepresste KühlkörperLeistungsdichte und Wärmeabfuhr 10

Smart Factory, smarte InfrastrukturNetzwerke für die Industrie 4.0 12

Business über PlattformenContainer fürs Geschäft 14

Mehr Effizienz auf weniger RaumHigh Density Computing 16

DP-Auflösung in VariantenSoftware-defined Networking 18

Zukunftssicher aufgestelltSofortmaßnahmen rund ums Rack 20

Datenlast jenseits von 5GNoch mehr Druck aus den Mobilnetzen 21

Rechenzentrum für RoboterKUKA hat in Augsburg neu gebaut 22

Umgang mit der neuen VielfaltAnschlüsse für LWL-Strecken 24

Page 4: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

S chon lange sind IT-Abteilungen nicht mehr nur dafür verantwort-lich, dass in den Racks die Lichter – und davon immer mehr –

blinken. Sie sorgen längst dafür, dass die Lichter im Unternehmen nichtausgehen: Die IT-Abteilungen müssen in der Lage sein, das Geschäftzu ermöglichen; das ist ihre Aufgabe. Hierfür müssen sie nicht nur si-chere und kosteneffektive IT-Services bereitstellen, die den Geschäfts -anforderungen entsprechen. Sie müssen vielmehr immer einen Schrittvoraus sein, Trends antizipieren, wenn sie das Geschäft in die Zukunftführen wollen.

Die wirkliche Rolle, die die IT im Unternehmen hat, besteht darin,eine Infrastruktur zu schaffen, die bessere Prozesse, einen besserenKundenservice und mehr ermöglicht. Die Entscheidungen, die zu die-sem Zweck heute getroffen werden, haben großen Einfluss auf die Zu-kunft des Unternehmens. Dabei müssen neue Techniken und Servicesnicht nur eingeführt werden. Sie müssen verwaltet und weiterent -wickelt werden.

Herausforderung für RZ-Verantwortliche

Bei all den technischen Entwicklungen und Themen, den realen undzugedichteten Aufgaben der IT: Das eigene Datacenter ist bei vielenUnternehmen noch immer ein zentraler, wichtiger Bestandteil der IT-Strategie. Das Management, das Verwalten und Bereitstellen integrier-ter Infrastrukturen ist eine Kernaufgabe. Klar ist hierbei: Das ThemaCloud, insbesondere Hybrid Cloud, steht schon seit Langem auf der Ta-gesordnung, ebenso IoT- (Internet der Dinge) und Enterprise-Mobility-Technologien etc. Die Ausdehnung des Rechenzentrums zur Edge, also

das Verlagern der Rechenleistung an den Ursprung der Datengenerie-rung, wird dieses Jahr noch an Relevanz gewinnen und ganz neue He-rausforderungen schaffen. Und die Aufgaben erweitern.

Für nahezu alle Mittelständler und Großunternehmen haben sichdie Anforderungen an das Management der IT-Infrastrukturen sowieden Betrieb des Datacenters massiv gesteigert. Hinzu kommt: Fehlen-des Fachwissen, veraltete und starre IT-Infrastrukturen und zu niedrigeIT-Budgets sind laut den Befragten einer aktuellen NetApp-Umfragedie größten Hindernisse im Rechenzentrum.

Die konkreten Herausforderungen liegen allerdings in der Moder-nisierung der Rechenzentren an sich, in der Optimierung bzw. Ratio-nalisierung der Arbeitslast. Auch wenn allein diese Themen schon ar-beitsalltagsfüllenden Charakter haben, kratzen wir hier nur an derOberfläche. Zugleich prasseln zahlreiche Zielkonflikte und Herausfor-derungen auf die Verantwortlichen ein: Automatisierung. Sicherstellungder Services. Security. Verbrauchsgesteuerte IT, As-a-Service-Beschaf-fung und die Übertragung auf Chargeback-Zahlungsoptionen, also dasEntwickeln von geschäftsrelevanten Metriken für alle Service- undPay-as-you-go-Optionen – dies alles im Kontext eines permanentenMappings von Technologieausgaben auf die Geschäftsergebnisse. Und.Vieles. Mehr.

Strategie, Taktik, operative Umsetzung

Für nahezu jedes mittelständische und größere Unternehmen bestehtderzeit akuter Handlungsbedarf: „Modernisierung, Neubau, Colocationoder Outsourcing?“, lautet neben „Was zuerst?“ und „Wann?“ die zen-trale Frage. Aber auch das Wie, insbesondere bezogen auf die oft pre-käre Budgetsituation und die personellen Ressourcen, ist ein nicht sel-tenes Problem. Die Ansätze zur Bewältigung bzw. zur Identifikation derindividuell bestmöglichen Lösungen lassen sich systematisch in dreiBereiche einteilen: Strategie, Taktik, operative Umsetzung. Also dasklassische Spannungsdreieck.

Zu den strategischen Themen und Fragestellungen zählt im Jahr2018 weiterhin der geografische Standort des Rechenzentrums. Zwarist er weniger wichtig als vor einigen Jahren, dennoch darf man ihnnicht vernachlässigen. Darüber hinaus sind, wie bereits erwähnt, dieRolle von Edge Computing sowie das Thema Automatisierung respek-tive der Grad der Automatisierung basierend auf Quasi-KI- bzw. auto-nomen Ansätzen entscheidend. Also der gedankliche Umstieg vomReagieren auf proaktives, aktives, agiles und/oder automatisiertes Han-deln auf Basis von Analytics-Funktionen und dergleichen.

4 Rechenzentren und Infrastruktur Ⅰ/2018

RZ-UPDATE

Zwischen Trend undNotwendigkeitDer Innovationsdruck auf Rechenzentren steigt – zaghaft reagieren ist viel zu wenig

Die Lebenszeit eines Rechenzentrums wird nicht selten in Dekaden gemessen. Doch die Technologie darin und die Anforderungen verändern sich ständig. Jedes Jahr kommen neue Trends und Themen auf. Und das Tempo wird immer brutaler. Die Frage ist: Wie stellen sich Datacenter heute für morgen auf?

Mit dem neuen AF250 S2 macht Fujitsu All-Flash auch für kleineund mittlere Digitalisierungsprojekte verfügbar.

Quel

le: F

ujits

u

Page 5: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Zu den taktischen Herausforderungen zählt, das Application Perfor-mance Interface (API) als Grundlage des eigenen Ökosystems zu ge-stalten, also die Ein- und Anbindung Dritter. Exemplarisch sind hier externe Ökosysteme oder Plattformen zu nennen, Communities, Markt-plätze, Kunden, Lieferanten etc. In diesem Zusammenhang ist die Ge-staltung hin zum Nutzer und eine permanente Weiterentwicklung dersogenannten Nutzererfahrung bzw. des „Erlebnismanagements“ rele-vant. Aber auch die Bewertung und der Umgang mit Themen wieSchatten-IT und deren Einbindung bzw. Handhabung sind zurzeit tak-tische Fragen.

Zu den operativen Themen gehört momentan besonders das Be-reitstellen des richtigen bzw. relevanten Services in der richtigen Zeitzu einem Preis, der sich direkt und indirekt auf die Geschäftsergeb-nisse „rechtfertigen“ lässt bzw. diese erst ermöglicht. Dies geschiehtvor dem Hintergrund einer permanenten Kapazitätsoptimierung undder Art der Bereitstellung – also der jeweils idealen Mischung aus On-premises-, Colocation-, Hosting-, Public- und Private-Cloud-Lösungen.

Ausgangspunkt: das Rechenzentrum

Im Zusammenhang mit den derzeitigen und zukünftigen Herausforde-rungen sollte auch bzw. zunächst die Frage gestellt werden, was einmodernes Rechenzentrum auszeichnet. Anders gefragt: Was ist einmodernes Datacenter?

Eine eineindeutige Antwort hierauf wird es nicht geben. Das mo-derne Rechenzentrum kann als ein Aufbruch in eine neue Generationder Unternehmens-IT verstanden werden. Als die Grundlage digitalerUnternehmen. Vielleicht auch als Synonym für die digitale Transforma-tion. Diese wird getrieben durch die rasche Weiterentwicklung, zumBeispiel zu Cloud-Technologien, und der wirtschaftlichen Notwendig-keit, neue Geschäftsmodelle oder Prozesse einzuführen. Wie gesagt:Der geografische Ort ist weiterhin relevant, jedoch wird das moderneRechenzentrum im Jahr 2018 nicht mehr als physikalischer Ort gese-

hen, konzipiert oder betrieben. Es handelt sich um ein Konstrukt, dasdie durch ein Unternehmen benötigten Infrastrukturen bedarfsgerechtvereint bzw. bereitstellt.

Also: Was muss jetzt gemacht werden, um das eigene Rechenzen-trum auf Vordermann zu bringen, um die derzeitigen und zukünftigenAnforderungen zu erfüllen? Was sind Notwendigkeiten und was sindSpielereien? Sollen wir bei der Klimatisierung anfangen oder bei derVerdichtung im Kontext des Leistungsbedarfs des Rechenzentrums?Ist der tatsächliche Leistungsbedarf überhaupt bekannt? Welche Prio-rität hat eine auf künstlicher Intelligenz bzw. mathematischen Formelnberuhende Automatisierung gegenüber neuen Sicherheitskonzepten?Und: Was bietet der Markt – heute und in naher Zukunft? Beziehungs-weise: Kann der Markt die individuellen Anforderungen überhaupt be-friedigen?

Markt mit konkurrierenden Trends ...

Beim Betrachten des Marktes sind einige Trends zu erkennen. Wichtigist: Egal wie nachhaltig ein jeder Trend ist, im Einzelfall muss auf Ebenedes Unternehmens bewertet werden, was individuell die richtige Lö-sung ist.

Ein Beispiel: Laut den Marktforschern von QYReports wird der SDDC-Markt (Software-defined Datacenter) im Zeitraum 2017 bis 2022 miteiner durchschnittlichen Rate von 20 % wachsen. SDDC steht für einKonzept, das es RZ-Betreibern ermöglicht, ihre Infrastruktur nahtlos zuskalieren, Netzwerk und Serverspeicher zu vereinheitlichen sowie alleRessourcen vereinfacht zu verwalten. Dieser Ansatz gilt als kosteneffi-zient, ermöglicht Skalierbarkeit, bietet Flexibilität und erleichtert Adminsdie Arbeit. Software-defined Datacenter haben den Vorteil, dass sie aufjeder beliebigen Hardware implementiert werden können und auchmandantenfähig sind. Der Markt gliedert sich produktbezogen primärin die Bereiche SDN (Software-defined Networks), SDS (Software-de -fined Storage) und SDC (Software-defined Computing). Klar, werden Sie

5Rechenzentren und Infrastruktur Ⅰ/2018

RZ-UPDATE

Quel

le: C

isco

Cisco versteht Intent-based Networks als

Übersetzung (Translation) vonGeschäftszielen, die via

Policies im gesamtenNetzwerk umgesetzt werden

(Activation). EineKontrollschleife (Assurance)

soll sicherstellen, dass dasdurchgängig klappt.

Page 6: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

jetzt sagen, die softwarebasierte Steuerung eines virtualisierten Re-chenzentrums ist spätestens seit 2013/14 kein neues Thema. Aber derSpielraum für Optimierung ist noch da und wird zunehmend verein-nahmt; gerade durch mittelständische Unternehmen.

Das Ganze etwas konkreter erklärt, und zwar am Beispiel SDS imKontext eines weiteren Trends, nämlich All-Flash-Lösungen: Weitläu-fig gilt, dass All-Flash eine Menge an Problemen im Rechenzen-trumsdesign lösen kann. Die Analysten von Gartner gehen sogar da-von aus, dass bis zum Jahr 2021 bereits 50 % der RechenzentrenSSAs (Solid-State Arrays) für High-Performance-Computing und Big-Data-Workloads einsetzen werden – was ausgehend von der derzei-tigen Marktdurchdringung von etwa 10 % enorm ist. Ausschlagge-bend für den RZ-Erfolg von Flash-Speicher sind Fortschritte in derTechnologie und gleichzeitig geringere Preise bei einer immer grö-ßeren Auswahl. Exemplarisch seien die neuen Eternus-All-Flash- undHybrid-Systeme von Fujitsu oder Intel genannt. Doch wenn – etwaaus Budgetgründen – ein kompletter Umstieg auf Flash nicht möglichist, dann kann eben Software-defined Storage eine günstige und ef-fiziente Alternative sein.

… und der Aussicht auf neue Trends

Wird aber nun einerseits von SDDC und andererseits von SDS gespro-chen, muss im Zusammenhang mit der Speicherthematik auch von In-tent-based Networks (IBNs) und auf der anderen Seite von PersistentMemory gesprochen werden. Zunächst zu Persistent Memory: Hierbeihandelt es sich um eine Technologie, die die Lücke zwischen Flash unddem Arbeitsspeicher schließen soll. Die genutzten NVDIMM-Modulesind kompatibel zum normalen DDR4-Arbeitsspeicher und können al-ternativ in einen Teil der vorhandenen Steckplätze eingebaut werden(daher: „Memory“), der Inhalt bleibt auch beim Herunterfahren desSystems erhalten (deswegen: „Persistent“) und ermöglicht enorm flotteStarts. Die leistungsfähigere Anbindung an den Prozessor soll einedeutliche Verringerung der Latenz ermöglichen und erhöht somit dieVerarbeitungsgeschwindigkeit datenintensiver Arbeitslasten, etwa beiDatenbanken, Big-Data-Anwendungen, Software-defined Storage,RAID-Cache oder In-Memory-Datenbanken. Unter anderen setzt HPEschon seit geraumer Zeit auf Persistent Memory.

Kommen wir zurück auf das Intent-based (absichtsbasierte) Net-work, das in gewisser Weise auf Software-definierten Netzwerken auf-baut. Die Intentions- bzw. absichtsbasierte Vernetzung hat sich zu ei-nem Top-Schlagwort der Branche entwickelt. Im Kern läuft das Themaauf das Versprechen voll automatisierter Netzwerke hinaus. Geschäfts-ziele und Vorgaben werden in Netzwerkrichtlinien „übersetzt“ und um-gesetzt. Spezielle Funktionen prüfen kontinuierlich, ob das Netzwerkwie vorgesehen funktioniert. Grundlage sind maschinelles Lernen undAnalytik.

IBN-Vernetzung wird als revolutionäre Technologie positioniert undpostuliert, besonders getrieben von Cisco. Zunächst war man stark fo-kussiert auf die eigentlichen Unternehmensnetzwerke, derzeit baut

Cisco mit einem DNA-Center-Management-Dashboard, neuen Cata-lyst-9000-Switches und Sicherheitsanalysen sein Portfolio stetig aus.Im Januar 2018 wurden unterschiedliche „Assurance“-Funktionen insPortfolio aufgenommen, die Probleme schneller erkennen und Ausfällevermeiden sollen. Im Blickpunkt stehen die Gewährleistung von Sicher-heit und Compliance sowie eine kontinuierliche Verifizierung des Netz-werkverhaltens.

Juniper Networks spricht in diesem Kontext auch von Self-drivingNetworks und meint damit einen Ansatz, der über „Intent“ hinausgeht.Ein solches Netzwerk soll quasi autonom in der Lage sein, den Netz-werkverkehr selbst zu konfigurieren, zu überwachen, zu verwalten, zukorrigieren, zu verteidigen und zu analysieren, ohne dass menschlichesEingreifen erforderlich wäre. Maschinen treffen Entscheidungen aufder Grundlage von Algorithmen künstlicher Intelligenz, die sich mit derZeit anpassen und intelligenter werden. Auch wenn es sich um eineVision handelt, ist das Ziel doch klar erkennbar.

Ausgangspunkt: nackte Notwendigkeit

Wie gesagt: Nur einige Beispiele. Aber sie zeigen die Komplexität. Unddeshalb: Egal wie die individuelle Ausgangssituation ist, es besteht dieNotwendigkeit einer Veränderung im Rechenzentrum. Konvergentebzw. hyperkonvergente Infrastrukturen (HCI), die Server, Storage, Netz-werk und Virtualisierung kombinieren und sich einfacher verwalten undskalieren lassen, können ein Ziel, eine Notwenigkeit sein. Hybride IT-Infrastrukturen sind das Paradigma. Sie umfassen allerdings nichtmehr „nur“ lokale Rechenzentren oder verschiedene Clouds. Vielmehrverlagern sich die Infrastrukturen. Hierdurch entsteht Komplexität. Glei-ches gilt für die Daten: Erfassung. Verarbeitung. Speicherung. Und wasist mit den Themen, die sich anbahnen, etwa rings um KI und Quan-tencomputing? Und nochmals: Was ist mit den Klassikern, den Down-to-earth-Themen? Energieeffizienz? 50/100-GbE-Netzwerktechnolo-gie? Oder, noch kleinteiliger, aber in der Breite absolut relevant:Stromversorgung und Datenredundanz? Den Druck zur Veränderunggibt es überall.

Was auch immer die individuelle Ausgangssituation ist: Datacen-ter-Betreiber, Verantwortliche in IT-Abteilungen oder Administratoren,egal ob in mittelständischen Unternehmen oder im Konzern – sie soll-ten sich die Frage stellen: „Wie werden, wie müssen wir in drei oderfünf Jahren unsere Leistung erbringen?“ Und egal wie die individuelleAntwort lautet: Es muss ein Weg weg von einem reaktiven hin zu ei-nem proaktiven Ansatz gegangen werden, und zwar ohne Rücksichtauf die technologische Marketing-Sau, die gerade durchs Dorf getrie-ben wird. Das ist es. Das ist es, was Verantwortliche „in die Hand neh-men“ sollten: das Heft. Und zwar wider die Probleme mit Schatten-IT, Budgetrestriktionen und fehlenden personellen Ressourcen. Widerdie Legacy-Systeme. Und wider die Fehlanreize durch obsessive Fi-xierung.

Axel Oppermann,Avispador

6 Rechenzentren und Infrastruktur Ⅰ/2018

RZ-UPDATE

Juniper Networks steuert auf autonome Datacenter zu, die sich gegenüber einer vernetzten Industrie 4.0 vorausschauendselbst regulieren.

Quel

le: J

unip

er N

etw

orks

Page 7: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger
Page 8: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

E ine konvergente Infrastruktur kombiniert Computer-, Netzwerk- undSpeicherhardware in einer einzigen integrierten Architektur. Ziel ist

es, die Bereitstellungszeit zu verkürzen, die IT-Kosten zu reduzierenund das Implementierungsrisiko zu senken. Diese technischen und fi-nanziellen Vorteile sind Faktoren, die das Thema Konvergenz weiterbefeuern. Gartner sieht darin das am schnellsten wachsende Segmentim globalen Markt für integrierte Systeme, das im Jahr 2019 ein Volu-men von fast 5 Milliarden US-Dollar erreichen wird.

Konvergente Infrastruktur im Aufwind

Der Trend zur konvergenten Infrastruktur hat die Bereitstellung vonComputing-Ressourcen erheblich vereinfacht. Leider basieren diemeisten konvergenten Infrastrukturlösungen aber immer noch aufsperrigen, komplexen und langsamen festplattenbasierten Speicher-systemen. Diese können den Anforderungen eines modernen Rechen-zentrums kaum noch gerecht werden. Eine ebenso moderne, konver-gente Infrastruktur muss jedoch schlank sein, eine leichte Handhabungbieten und für niedrigere Betriebskosten sorgen. Daher werden sichIT-Abteilungen weniger auf den Kauf, die Integration und Verwaltungvon Produkten von einzelnen Anbietern konzentrieren, sondern mehrdarauf, wie sich Workloads unterstützen lassen, die Geschäfts- undWettbewerbsvorteile bringen.

Die zunehmende Bedeutung der Cloud hat eine neue Generationder konvergenten Architektur hervorgebracht. Diese intelligenteren,kompakteren und weitaus effizienteren Infrastrukturlösungen verfügenüber eine direkte Virtualisierungs- und Cloud-Integration. Sie ermögli-chen die schnelle Verfügbarkeit von historischen Daten und Echtzeit-daten. Zu den Einsatzbereichen zählt etwa das Gesundheitswesen, wodurch schnelleren Zugang zu Patientenakten und Bildinformationen diePatientenversorgung verbessert werden kann.

Unterwegs zu All-Flash-Speicher

Die entscheidenden Vorteile dieser neuen Generation konvergenter In-frastrukturlösungen sind:

1. Bessere Geschäftsergebnisse: Studien zeigen, dass eine redu-zierte Latenz in Anwendungen eine Korrelation mit der Zufriedenheitund dem Engagement der Benutzer hat. Sollen zufriedene Kundenmehr Waren und Dienstleistungen kaufen, gilt es, die Produktivität derMitarbeiter zu steigern, für einen besseren Einblick in die Daten zu sor-gen und die Latenz zu reduzieren.

2. Cloud-orientierte Skalierbarkeit: Wenn anspruchsvolle Anwen-dungen ohne die richtige Architektur virtualisiert werden, steht das IT-

Team vor Problemen. Mit geeigneten Tools, einschließlich leistungsfä-higer Server mit Serviceprofilen, und Stateless Storage lässt sich fest-legen, wie, wo und wann Workload-Instanzen implementiert werdensollen. Stateless-Technologien ermöglichen es, MAC-, WWN- (WorldWide Name), UUID- (Universal Unique Identification), Boot-Detail-, Firm-ware- und sogar BIOS-Einstellungen in der Software zu konfigurieren,auf einfachen Administrationsschnittstellen. Die Stateless-Architekturermöglicht die derzeit agilste konvergente Infrastruktur.

3. Vereinfachung des IT-Betriebs: Storage war bislang der Knack-punkt virtueller Infrastrukturen. Ein großer Teil der aktuellen Innovationkonzentriert sich auf die Implementierung verschiedener Lösungen, umVDI, OLTP-Datenbanken, Big-Data-Analysen oder den Kern der VM -ware-Cloud zu optimieren. Die konvergente Infrastruktur soll dabei dieGesamtzahl der verwalteten Geräte verringern, die Administration ver-einfachen und die Betriebskosten reduzieren. Darüber hinaus ist einevalidierte und verifizierte Lösungsarchitektur sehr nützlich, um die Im-plementierung zu erleichtern und die Risiken bei der Transformationder Rechenzentren zu reduzieren.

4. Dehnbare IT-Budgets: Die hohen Datenreduktionsraten und die ge-ringe Größe von All-Flash-Speichersystemen in Kombination mit effizien-ten Servern führen zu erheblichen Einsparungen beim Platzbedarf undbei den Energiekosten. All dies sorgt für eine enorme Vereinfachung derAdministration und eine verbesserte Wirtschaftlichkeit des Rechen-zentrums. Darüber hinaus können Lösungen wie FlashStack von PureStorage und Cisco einfach aktualisiert werden, sodass Kunden nur beiBedarf genau die benötigte Speicher- und/oder Rechenkapazität hinzu-fügen können. Kunden können Komponenten kaufen, die den aktuellenAnforderungen entsprechen, ohne dass sie Jahre im Voraus investierenmüssen, um hypothetisches zukünftiges Wachstum zu unterstützen.

Von daher ist die Entscheidung für eine konvergente Infrastrukturvon strategischer Bedeutung. Die Realität ist jedoch: Rechenzentrensind in Bezug auf Platz und Komplexität gewachsen, aber nicht beiSkalierbarkeit oder Performance. Der Ausweg liegt in modernen Stor -age-Lösungen, die All-Flash-Speicher mit Online-Datenreduktion kom-binieren, sowie leistungsstarken Private-Cloud-Plattformen.

Das richtige Cloud-Modell

Mit dem exponentiellen Wachstum des Datenvolumens ist das Daten-management zum strategischen und viel diskutierten Thema gewor-den – und es hat die Wahrnehmung der IT-Infrastruktur verändert: Waseinst als Ware angesehen wurde, ist zu einer Plattform geworden, aufder Unternehmen Anwendungen entwickeln und Erkenntnisse aus ge-schäftskritischen Daten gewinnen.

8 Rechenzentren und Infrastruktur Ⅰ/2018

STORAGE

Es läuft auf Flash hinausBei RZ-Strategien spielen Speicherarchitektur und Datenmanagement eine entscheidende Rolle

Als die derzeitigen Datacenter-Trends haben sich konvergente Infrastrukturen, Hybrid- und Multi-Cloud-Umgebungen sowie das Speicherklassenprotokoll NVMe herauskristallisiert. Die wichtigen strategischenEntscheidungen auf diesen Feldern sind eng mit der jeweiligen Storage-Lösung verknüpft.

Page 9: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

In letzter Zeit hat sich eine Verschiebung hin zur Public Cloud be-merkbar gemacht. Viele Unternehmen haben einen Teil ihrer Infrastruk-turressourcen bereits in die öffentliche Cloud verlagert, wenn auch ohneein wirkliches Verständnis für die Kosten und die betrieblichen Auswir-kungen. Langfristig kann die Public Cloud nämlich nicht die Kostensi-cherheit bieten, die CIOs benötigen. Die Vereinfachung bei der Adminis-tration wird durch komplexes Kostenmanagement nahezu aufgehoben.Einsparungen bei der Inhouse-Administration werden mittlerweile häu-fig durch Public-Cloud-Budgets aufgezehrt. Dies wird künftig häufigerauf den Prüfstand gestellt werden.

Die Public Cloud bietet nach wie vor in vielen Fällen kosteneffizienteElastizität sowie attraktive Experimentier-, Archivierungs- und Disas-ter-Recovery-Funktionen. Für planbare, leistungskritische Workloadswird sich jedoch die Private Cloud durchsetzen, denn die Latenzzeitenin der öffentlichen Cloud sind höher, und Bandbreite ist teuer. Die meis-ten Rechenzentren werden auf eine Mischung aus Public Cloud(IaaS/PaaS-Plattformen wie AWS und Azure) und Private Cloud – inForm einer Hybrid-Cloud – setzen, oder sie werden Multi-Cloud-Um-gebungen nutzen. Multi-Cloud steht für die Verwendung mehrerer öf-fentlicher Cloud-Dienste, wobei die Anwendungen in der Regel unab-hängig voneinander ausgeführt werden.

NVMe revolutioniert die Datennutzung

Eine moderne Datenplattform sollte nicht nur die Möglichkeit bieten,die Cloud-Operationen eines Kunden zu unterstützen, sondern mit derPublic Cloud klarkommen. Kunden können dadurch Multi-Cloud-Archi-tekturen für Anwendungsentwicklung, Bereitstellung, Datensicherungund Disaster Recovery nutzen. Bei der Integration mit der Public Cloudsollte dies eine native Integration sein, die den vollen Zugriff auf diePaaS-Services der öffentlichen Cloud ermöglicht und somit uneinge-schränkte Multi-Cloud-Agilität gewährleistet.

Wichtige Innovationen im Storage-Markt werden maßgeblich dazubeitragen, die Modernisierung im eigenen Rechenzentrum voranzutrei-ben. Bestes Beispiel hierfür ist NVMe (NVM Express), ein modernes Spei-cherklassenprotokoll für die Kommunikation zwischen CPUs und Flash.

Aktuelle Speichersysteme verwenden meistens das ältere SCSI- oderSAS-Protokoll, das einen Engpass darstellt und Leistungsverzögerungenbei der Kommunikation mit Flash verursacht. Das NVMe-Protokoll ver-spricht die Beseitigung des SCSI-Engpasses und ermöglicht massive Pa-rallelität mit bis zu 64.000 Warteschlangen und Verbindungen, die jedemCPU-Kern dedizierten Warteschlangenzugriff auf jede SSD ermöglichen.

Flash-Speicher-Arrays mit internem NVMe bieten eine bessere Leis-tung, höhere Bandbreiten und niedrigere Latenzzeiten sowie eine hö-here Dichte und Konsolidierung. All dies führt zu geringeren Kosten proWorkload. Von NVMe wird jedes Unternehmen profitieren, das seineDaten besser nutzen möchte. NVMe macht den Weg frei für technolo-gische Fortschritte wie superdichte SSDs, moderne Mehrkern-CPUs,neue, flexiblere Speichertechnologien und Hochgeschwindigkeitsver-bindungen.

Die Storage-Branche wird daher künftig die Verlagerung auf NVMe-Architekturen energischer vorantreiben. Analysten prognostizieren, dassNVMe, das die nächste Generation von Flash-Performance und -Dichteermöglicht, bis 2019 zum führenden Schnittstellenprotokoll für Flashavanciert. Eine kritische Masse von Consumer-Geräten hat sich bereitsauf NVMe verlagert, und Unternehmen werden nicht mehr hinterher-hinken.

Vorteil durch eigene Infrastruktur

Den Anschluss verlieren will kein Unternehmen. Immer mehr haben er-kannt, dass das auch im Rechenzentrum gilt – und sie werden ihre ei-gene Infrastruktur zunehmend als Wettbewerbsvorteil sehen. Die Dif-ferenzierung wird darin bestehen, ein leistungsfähiges Rechenzentrumzu betreiben, um Daten schneller zu analysieren, neue Erkenntnissezu gewinnen und neue Produkte und Erfahrungen zu liefern. Eines istsicher: Die Daten werden weiterhin mit einer noch nie dagewesenenGeschwindigkeit wachsen. Und: Konvergenz, Datenmanagement unddie Cloud werden in nächster Zeit bei großen Unternehmen weiterhindie strategische IT-Planung dominieren.

Güner Aksoy,Regional Sales Director Central Europe, Pure Storage GmbH

STORAGE

Page 10: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

D as formgebende Verfahren des Fließpressens findet vor allem beider Verarbeitung von Reinaluminium (AL1070/AL1050), aber auch

von Reinkupfer (CU1100/CU1020) Verwendung. Dazu wird ein flacherMetallrohling, der in etwa das gleiche Volumen wie das fertige Produktbesitzt, bei Raumtemperatur unter hohem Druck zum Fließen gebracht.Das Material füllt dabei sukzessive alle Hohlräume des Formwerkzeugsaus. Typischerweise sind die Fließpressteile rund und symmetrisch auf-gebaut, es sind aber auch individuell geformte Teile möglich.

Fließpressteile zeichnen sich durch zahlreiche positive Eigenschaftenaus: Ihre Materialstruktur ist extrem homogen und dicht, da der spe-zielle Umformprozess die Bildung von Luftblasen und Lunkern sowieden Einschluss von Fremdkörpern verhindert. Als Konsequenz darausist die thermische Leitfähigkeit des fertigen Produkts höher als die desRohmaterials. Oberflächenqualität und Formgenauigkeit sind außerdemso hoch, dass eine Nachbehandlung nur selten erforderlich ist.

Gestalterisch vielfältig

Aufgrund dieser Charakteristiken eignet sich das Verfahren des Fließ-pressens sehr gut für die Herstellung von leistungsstarken Stiftkühl-körpern für die Entwärmung von Hochleistungs-LEDs. Überdies könnenkalt fließgepresste Kühlkörper in vielen Anwendungen kleinere Alumi-niumdruckgusskühlkörper ersetzen. Das Verfahren des Fließpressensbietet sich besonders für die Produktion kleiner, projektspezifischerSerien an. Denn der Formgebung der Stifte und Rippen sind kaum ge-stalterische Grenzen gesetzt: Von zylindrischen Stiften über dünne La-mellen bis hin zu quadratischen Stab- oder hexagonalen Säulenformenist alles möglich. Die Dicke kann bis zu 0,7 mm betragen, bei einerMinimaldistanz zwischen den einzelnen Stiften von 1 mm.

Die dünnen und dicht gesetzten Rippen vergrößern die kühlendeOberfläche wesentlich und unterstützen damit die Konvektion. Da sichdie Luft in kalt fließgepressten Kühlkörpern zudem in drei Richtungenbewegt, statt nur in zwei Dimensionen wie in extrudierten Kühlkörpernmit langen Kühlrippen, ist ihre Kühlleistung höher. Auch bei der Form-gebung hat man großen Spielraum. Darüber hinaus ist die Kombinationmit Heatpipes ebenso möglich wie das Aufbringen einer Kupferplatteauf dem Aluminium-Kühlkörper. Beide Optionen begünstigen einenkontrollierten Wärmetransport.

Passgenaue Kühllösungen

Amphenol FCI (jetzt Amphenol ICC) etwa hat sich aus genau diesenGründen an CTX Thermal Solutions gewendet, als es darum ging, dieHochleistungsserver eines Datacenters auf engstem Raum zu kühlen.Konkret ging es darum, die Wärmeabfuhr eines High-Density-RZ zu ge-währleisten. Um die Kühlleistung auf der verfügbaren Grundfläche von18 x 18 mm zu erhalten, waren besonders lange, 25 mm hohe Stifteerforderlich, wie sie nur im Fließpressverfahren machbar sind.

Überdies kann man Basis und Stifte genau dem zu kühlenden elek-tronischen Bauteil entsprechend formen und auf diese Weise den Kon-takt zwischen Bauteil und Kühlkörper optimieren. Da das Fließpresseneine hochpräzise Formgebung erlaubt, gelangt die Wärme direkt ohnejeden Mediator und damit ohne zusätzlichen Widerstand in die Kühlrip-pen. Das ist ein wesentlicher Vorteil von fließgepressten Kühlkörpernbeispielsweise gegenüber Druckgusskühlkörpern sowie gefrästen undgelöteten Varianten, bei denen durch das Herstellungs- bzw. Fügever-fahren Lücken oder eine Luftschicht zwischen Bauteil und Kühlkörperund damit ein höherer thermischer Widerstand nicht ausgeschlossen

10 Rechenzentren und Infrastruktur Ⅰ/2018

KLIMATECHNIK

Kalt fließgepresste KühlkörperFließpressteile sind exzellente Wärmeleiter und nahezu frei in der Formgebung

Aufgrund ihrer thermischen und mechanischen Eigenschaften haben sich kalt fließgepresste Kühlkörper bereitsgut bewährt, etwa für die Kühlung von Hochleistungs-LEDs. Je höher die Leistungsdichte im RZ wird, destointeressanter wird das Fertigungsverfahren auch für die Klimatisierung im Datacenter.

Kalt fließgepresste Stiftkühlkörper eignen sich überall dort, woHöchstleistung gefragt ist: Auch wenig Raum lässt sich optimalnutzen.

Quel

le: C

TX T

herm

al S

olut

ions

Der Formgebung sind bei fließgepressten Kühlkörpern kaumGrenzen gesetzt – selbst Aussparungen im Stiftbett,beispielsweise für den Einbau von Lüftern, sind möglich.

Quel

le: C

TX T

herm

al S

olut

ions

Page 11: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

werden können. Hinzu kommt eine besonders glatte Oberfläche. Diesekann durch Anodisieren wahlweise silbern, schwarz, rot oder weiß ge-färbt oder auch elektrolytisch vernickelt werden – ohne Einschränkun-gen der Kühlleistung.

Kosteneffiziente Wärmeabfuhr

Im Fließpressverfahren produzierte Kühlkörper bestehen aus Reinalumi-nium oder Reinkupfer. Ihre thermische Leitfähigkeit ist mit 226 W/mKdeutlich höher als die von Aluminiumdruckgusskühlkörpern (96 W/mK)und extrudierten Aluminiumkühlkörpern (155 bis 200 W/mK). Bei glei-chem Design und Volumen besitzt ein kalt fließgepresster Aluminium-kühlkörper daher eine deutlich höhere Kühlleistung als ein Druckguss-kühlkörper oder ein extrudierter Kühlkörper. Er ist beispielsweise in der Lage, eine 5-W-LED-Leuchte zu kühlen, während ein Druckguss-kühlkörper gleichen Designs lediglich eine 3-W-LED entwärmt. Andersausgedrückt: Kalt fließgepresste Kühlkörper können wesentlich kleinerdimensioniert werden und nehmen deutlich weniger Platz ein alsDruckguss- oder extrudierte Aluminiumkühlkörper. Das bedeutet: Mankann auch die LED-Lampen, das Zubehör und andere Elektroniklösun-gen kleiner auslegen, was wiederum zu deutlichen Kosteneinsparun-gen führt.

Zugleich ist ein kalt fließgepresster Aluminiumkühlkörper zweimalleichter als die entsprechende Druckgussvariante. Da auch die Werk-zeugkosten rund 10 bis 20 % niedriger liegen, sind kalt fließgepressteKühlkörper insgesamt um 20 % günstiger – und das, obwohl teureresReinaluminium verwendet wird.

Lösungen für Hochleistungsszenarien

Eigenschaften wie hohe Wärmeleitfähigkeit und -verteilung sowie einepräzise verarbeitete Oberfläche sind entscheidend für die effizienteKühlwirkung eines Kühlkörpers. Kalt fließgepresste Kühlkörper bringenin all diesen Bereichen sehr gute Werte mit. Ihre Kühlleistung ist daher200 % höher als gleich dimensionierte Druckgusskühlkörper und 100 %höher als extrudierte Kühlkörper. Daher sind kalt fließgepresste Kühl-körper derzeit bereits die Bauteile der Wahl für Hochleistungs-LEDs undetablieren sich als eine sinnvolle Option für alle Einsatzbereiche, in de-nen kompakte und zugleich leistungsfähige Kühllösungen nach Maß ge-fragt sind.

Wilfried Schmitz,Geschäftsführer,

CTX Thermal Solutions GmbH

Rechenzentren und Infrastruktur Ⅰ/2018

CTX Thermal Solutions fertigt per Kaltfließpressen auchKombinationen aus einer Kupferbodenplatte mit Kühlstiften aus Reinaluminium zur schnelleren Wärmeabfuhr.

Quel

le: C

TX T

herm

al S

olut

ions

KLIMATECHNIK

Page 12: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Ein Fertigungsunternehmen lebt von der Effizienz und Stabilität des Her-stellungsprozesses. Für den Unternehmenserfolg im Rahmen von In-

dustrie 4.0 spielt aber die IT-Infrastruktur eine zunehmend tragende Rolle.Durch die Auswertung von Sensordaten und vorausschauende Analyselassen sich zum Beispiel IT-Fehler frühzeitig vorhersagen, Risiken vermei-den, Hackerangriffe abwehren und Wartungskosten reduzieren. Das Fun-dament dafür bildet allerdings ein hochleistungsfähiges Netzwerk, das fürdie Herausforderungen des IIoT (Industrial Internet of Things) ausgelegt ist.

Dazu gehört neben Agilität und Skalierbarkeit vor allem Big-Data-Fä-higkeit. Denn bei der Industrie 4.0 entsteht durch die enorme Anzahl anSensoren und die umfassende Vernetzung eine riesige Datenmenge, diedas Netzwerk quasi in Echtzeit an zentrale Rechenzentren übertragenmuss. Dies stellt eine solche Herausforderung dar, dass alternative Kon-zepte wie Edge Computing entwickelt wurden. Hier findet eine erste Ana-lyse der Rohdaten auf dem Endgerät selbst oder auf einem Server in derNähe statt, damit erste Auswertungen und damit deutlich weniger Datenan die zentralen Rechenzentren geschickt werden.

Very Big und Dangerous Data

Big Data stellt die Basis für analytisch fundierte Entscheidungen imProduktionsprozess dar, und zwar für die komplette vernetzte Wert-schöpfungskette vom Design über die Entwicklung bis zur Produktion.Dies gilt von Detailfragen, zum Beispiel wann eine Maschine idealer-weise gewartet werden sollte, bis hin zum strategischen Gesamtkon-zept. Schließlich verfolgen Fertigungsunternehmen im Zuge von Indus-trie 4.0 mehr und mehr datenbasierte Geschäftsmodelle. Dafürerhalten sie mehr technologische Möglichkeiten zur Datenerhebung, -auswertung und -speicherung. Durch die zunehmend vernetzte Pro-duktion können sie dann etwa Fehlfunktionen frühzeitig vorhersagenoder die Fertigungsstraße schnell zur umstellen.

Zwar beschäftigen sich viele Unternehmen mit Automatisierung unddatenbasierter Analyse. Aber um Big Data sinnvoll zu nutzen, benötigensie ein Netzwerk, das die Anforderungen des IoT bewältigen kann. Diegrößte Herausforderung stellt dabei die stark steigende Zahl der ver-netzten Geräte. Laut Cisco VNI Report (Visual Networking Index) müs-sen Netzwerkingenieure bis 2020 voraussichtlich eine Million Geräteverwalten. Dies lässt sich nur mit Unterstützung weitgehend automa-tisierter Netzwerkmanagementlösungen bewältigen.

Ähnliches gilt für die Fertigung: Die Intelligenz der Produktionsan-lagen sitzt in Zukunft nicht mehr ausschließlich in den zentralen Steue-

rungsmodulen und Verwaltungssystemen, sondern verlagert sich direktin die Maschinen. Denn dort befinden sich nicht nur immer mehr Sen-soren, sondern auch zunehmend intelligente Programme für erste Ana-lysen und Steuerungsfunktionen. Die Erfassung dieser Informationen,zum Beispiel zu Maschinenkonformität und Produktverschleiß, führt je-doch zu einer hohen Datendichte. Diese muss durch entsprechend di-mensionierte Lösungen bewältigt werden.

Daher sind in vielen Fällen neue, leistungsstärkere Netzwerkkom-ponenten notwendig. Diese sollten nicht nur anhand der aktuellen Per-formance-Anforderungen dimensioniert werden, sondern mit Blick aufdie weiter steigenden Datenmengen in den kommenden Jahren. Hinzukommt aus Sicherheitsgründen die Verschlüsselung von Daten, die zu-sätzliche Leistung erfordert. Ergänzend ist eine zuverlässige Netzwerk-infrastruktur mit hohen Bandbreiten nötig.

Das Netzwerk ist die Basis

Diese Anforderungen führen bei zahlreichen Unternehmen zu einerLoslösung von den bisherigen hardwarebasierten Konzepten. Denn diesebieten meist nicht die notwendige Flexibilität und Skalierbarkeit, die im IoT-Zeitalter nötig ist – schon gar nicht zu vertretbaren Kosten.Daher kommen zunehmend softwarebasierte Konzepte zum Einsatz.Hier befindet sich die Steuerungsebene von Netzwerkkomponentennicht mehr auf den Geräten selbst, sondern in zentralen Anwendun-gen. Auf diese Weise lassen sich die Eigenschaften aller Netzwerk -geräte mit einem Knopfdruck ändern – statt manuell an jedem Gerätvor Ort.

Big-Data-Analysen erfordern somit einen neuen Blick auf die ge-nutzte Plattform und die Infrastrukturkapazität. Um ein nachhaltigesSystem zur Echtzeitdatenanalyse aufzubauen, sind am Frontend hoheLeistung, niedrige Latenzzeiten und hochskalierbare Server notwendig,die mit der Menge und der Geschwindigkeit der Daten und Ereignisseeiner großen Anzahl gleichzeitig aktiver Clients mithalten können. ImBereich Analytik bzw. als Grundlage für Geschäftslogik sind Hochleis-tungsdatenserver und Middleware erforderlich, die Echtzeitdaten ver-arbeiten können, und dies mit hohem Durchsatz und auch hier mit ge-ringer Latenzzeit. Bei der Netzwerkinfrastruktur gehören darüberhinaus eine hohe Bandbreite und Paketverarbeitungskapazitäten zuden essenziellen Anforderungen.

Falko Binder,Head of Enterprise Networking Architecture Germany, Cisco

12 Rechenzentren und Infrastruktur Ⅰ/2018

INDUSTRIAL INTERNET OF THINGS

Smart Factory braucht smarte InfrastrukturIndustrie 4.0 funktioniert erst mit einem flexiblen, leistungsfähigen Netzwerk

Produzierende Unternehmen möchten heute mit autonomen Fertigungsstraßen möglichst effizient Produkte bisLosgröße 1 herstellen. Doch sie unterschätzen häufig die Bedeutung des Netzwerks. Nur wenn es flexibel,sicher und performant genug ist, lassen sich moderne Fertigungsprozesse erfolgreich umsetzen.

Page 13: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger
Page 14: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

D ie Cloud hat sich in der Digitalisierung zu einer zentralen Ressourceentwickelt. Sie hat für Unternehmen mittlerweile den gleichen

Stellenwert wie eine durchgängige Stromversorgung: Als elementarerTeil der eigenen Infrastruktur ist sie absolut grundlegend sowohl fürdie Business Continuity als auch für den unternehmerischen Erfolg. Di-gitalisierte geschäftskritische Prozesse und Services sind in den letztenJahren stärker in die Cloud gewandert und verschmelzen dort zuneh-mend zu einer zentralen digitalen Plattform.

Drehscheibe nach innen und außen

Cloud-Plattformen bilden nach außen die Schnittstelle zu Kunden undPartnern; Unternehmen stellen dort Dienste und Anwendungen für ihreProdukte bereit. Nach innen bildet die Plattform die Infrastruktur für

den Geschäftsbetrieb; auf ihr laufen relevante Systeme und Services,die sie miteinander vernetzt, sie bietet für DevOps-Teams notwendigeRessourcen, Tools und das passende Development Environment für dieNeu- und Weiterentwicklung digitaler Produkte. Im Grunde ist die Platt-form ein digitales Abbild der analogen Produktionshallen, Verkaufs-und Büroräume. Die gesamte Geschäftswelt und ihre Businessmodellebewegen sich in Richtung Plattformmärkte.

Plattformgetriebenen Geschäftsmodellen, wie sie etwa Apple, Ama-zon und Uber leben, wird eine rosige Zukunft vorhergesagt. In den letz-ten Jahren ist der von Statista erfasste weltweite Umsatz mit Plattformas a Service (PaaS) sprunghaft angestiegen: von 3,8 Milliarden Dollarim Jahr 2015 auf schätzungsweise 10,62 Milliarden für 2018. DieNachfrage nach Plattformen ist enorm gewachsen. Das Bundesminis-terium für Wirtschaft und Energie betont in seinem 2017 veröffentlich-

14 Rechenzentren und Infrastruktur Ⅰ/2018

PLATFORM AS A SERVICE

Bewegliches Business über digitale PlattformenContainer auf PaaS-Basis sind die Geschäfts- und Verkaufsräume des 21. Jahrhunderts

Immer mehr Workloads laufen heute auf cloudbasierten Plattformen, die sich zu zentralen Knotenpunktenentwickeln, in denen die verschiedensten Prozesse zusammenlaufen. Das bedeutet: Der Geschäftserfolg agilerUnternehmen hängt davon ab, wie diese Plattformdienste organisiert und gesichert sind.

Sowohl im Außenverhältnis zu den Kunden als auch bei den internen Abläufen: Das Geschäft verlagert sich derzeit mehr und mehrRichtung Cloud-Plattformen.

Quel

le: N

exin

to

Page 15: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

ten Weißbuch Digitale Plattformen: „Plattformen sind neue Treiber derDigitalisierung und einer ihrer Hauptwachstumsträger. Sie haben neueGesetzmäßigkeiten für das Wirtschaften geschaffen.“ Dementsprechendentwickeln sie sich zu einem neuralgischen Punkt im Unternehmens-betrieb. Das gestaltet ihren Aufbau und Betrieb besonders kritisch.

Hohe Relevanz, aber kaum bekannt

Obwohl digitale Plattformen eine solche Schlüsselposition einnehmen,zeigen deutsche Unternehmen in diesem Bereich offene Flanken. Seit2016 hat der Branchenverband Bitkom jährlich Studien zur Bekanntheitund Relevanz dieses Themas durchgeführt. Damals gaben 60 % an,nicht zu wissen, was die Begriffe „digitale Plattform“ und „Plattform-Ökonomie“ bedeuten. Demgegenüber stehen die jüngst veröffentlich-ten Zahlen von Januar 2018: 54 % gaben an, noch nie von diesen Be-griffen gehört zu haben. Mit nur sechs Prozentpunkten hat hier in denletzten Jahren lediglich eine minimale Verbesserung stattgefunden. VonUnternehmen, die mit der Thematik vertraut sind, geben immerhin55 % an, eigene Produkte oder Dienste auf einer Plattform anzubieten,43 % kaufen Produkte auf Plattformen oder buchen dort Dienstleistun-gen. Die Zahlen zeigen deutlich, dass dringender Nachholbedarf be-steht. Denn Vorteile und Mehrwerte der Plattformen werden in der di-gitalisierten Wirtschaft wettbewerbsentscheidend.

Also gut, aber wie anfangen?

Unternehmen sollten sich also stärker mit der Frage befassen, wie siein ihrer IT-Landschaft eine digitale Plattform etablieren. Die Cloud istdafür die technologische Grundlage. Den Sprung in die Wolke habendie meisten also schon geschafft. Dennoch geht eine digitale Plattformüber den einfachen Cloud-Betrieb hinaus. Es geht darum, die BausteineInfrastruktur, Plattformen und Services zu einem Gesamtkonstrukt zu-sammenzubringen. Dafür gibt es noch keine standardisierten BestPractices, Blaupausen oder Universallösungen.

Zunächst sollte man den Blick auf die eigene Infrastruktur richten:Eine der ersten Hürden sind an dieser Stelle Legacy-Systeme, die es –falls noch nicht geschehen – in die Cloud zu integrieren gilt. Für denAufbau digitaler Plattformen spielen zudem Container eine immerwichtigere Rolle. Sie ermöglichen es DevOps-Teams, neue oder aktua-lisierte Services über die gesamte Plattform bereitzustellen und los-gelöst von der restlichen Umgebung zu managen.

Auf Infrastrukturebene sind anschließend die Netzwerkverbindun-gen mit den relevanten Cloud Services beispielsweise via IPSec auf-zubauen. Im nächsten Schritt erfolgt der Aufbau der Virtualisierungs-ebene anhand virtueller Maschinen (VMs), auf denen dann diecontainerisierten Services und Systeme laufen. Das hat den Vorteil,dass man sie komplett von den einzelnen Herstellerarchitekturen undLocations unabhängig macht. Damit alle Services zusammenspielen,braucht es zusätzlich die passenden Schnittstellen (APIs) – sowohl zueigenen als auch zu Third-Party-Diensten. Diese infrastrukturellen As-pekte der digitalen Plattform sind der Bereich, der sich noch am ehes-ten über standardisierte Cloud- und Container-Lösungen abbilden lässt.

Serviceintelligenz aus Workflows

Steht die infrastrukturelle Basis, gilt es, die Services genauer zu be-trachten, die auf der digitalen Plattform laufen (sollen). Zur Kernauf-gabe der Plattform gehört unter anderem ein kontinuierliches Weiter-entwickeln, Integrieren und Bereitstellen der Services. Dies erforderteinen tieferen Blick in die Workflows. Denn Aufgabe der digitalen Platt-

form ist es ebenso, die businessrelevanten Prozesse auszuführen. Da-für muss sie Workflows interpretieren und abbilden können. Da keinUnternehmen dem anderen gleicht, muss man diesen Aspekt der di-gitalen Plattform individuell angehen. Ziel sollte es sein, alle auf derPlattform laufenden Prozesse in einem Workflow-System zu erfassen.Es ermöglicht Unternehmen, ihre Plattform über die APIs zu steuern,indem sie über entsprechende Trigger spezifische Prozesse auslösen.Das erlaubt eine zentrale Steuerung der Plattform über die einzelnenServices hinweg, um beispielsweise Kapazitäten zu regulieren oderWorkloads zu verschieben.

Die Steuerung der Plattform an sich sollte darüber hinaus zu dem ge-wünschten Betriebskonzept passen. Im Idealfall ist es unerheblich, obUnternehmen ihre digitale Plattform im Selfservice betreiben, komplettgemanagt durch einen Service Provider oder von beiden Parteien in en-ger Zusammenarbeit. Um unnötige Komplexität zu vermeiden, sollten dieSchnittstellen, Oberflächen, Workflows und Templates, die dafür notwen-dig sind, immer gleich sein. Dies lässt Unternehmen auch mehr Ent-scheidungsfreiheit, das Betriebsmodell bei Bedarf flexibel umzustellen.

Sicherheit ganzheitlich aufsetzen

Ein weiterer wichtiger Aspekt – und ein Dauerbrenner – ist die Sicher-heit, die bei digitalen Plattformen eine große Rolle spielt. Da alle rele-vanten Unternehmensprozesse sich hier abspielen, wären Ausfälle, Da-tenverluste oder Manipulationen katastrophal. Bei der Sicherheit giltes, zwei Dimensionen zu berücksichtigen: Zum einem müssen sämtli-che Services und Systeme bereits in sich geschützt sein (Intra-Secu-rity) und zum anderen ebenso das Gesamtkonstrukt der digitalen Platt-form (Inter-Security). Eine Ende-zu-Ende-Sicherheitskette mit zentralenBausteinen wie Intrusion Detection, Web Application Firewall, Loadba-lancer, Firewall und einem SIEM-System (Security Information andEvent Management) sollten Unternehmen heute bereits etabliert haben.

Etwas komplexer gestaltet sich der sichere Umgang mit Containern.Für diese relativ junge Technologie gibt es noch keine einheitlichenSecurity-Standards. Orientierung geben hier die von der ContainerCommunity formulierten Best Security Practices. So sollten die Dev -Ops-Teams beispielsweise selbstverständlich nur Container-Imagesaus bekannten, vertrauenswürdigen Repositories beziehen.

Security ist dabei nicht nur in Hinblick auf die Technologie, sondernauch auf die Organisation hin zu bewerten. Um die Sicherheit von Grundauf mit anzudenken und umzusetzen, ist es empfehlenswert, einen Plat-form Security Officer zu installieren. Denn gerade ein ganzheitlicher Sicherheitsansatz erfordert schon für den Aufbau der digitalen Plattformeine passende Strategie entsprechend der Unternehmensstrukturen und -prozesse.

Agile IT für veränderliche Märkte

Die Relevanz von cloudbasierten Plattformen als Basis für digitalisierteGeschäftsmodelle steigt zusehends. Gut zu beobachten ist, dass platt-formorientierte Unternehmen eine deutlich höhere Dynamik und Flexi-bilität bei der Implementierung von neuen Services und Produkten auf-weisen. Beim Aufbau einer digitalen Plattform ist aufgrund ihrergeschäftskritischen Rolle jedoch genau zu überlegen, welche Work-flows sie abbilden soll. Auf technologischer Ebene ist vor allem dasManagement der Infrastrukturen und Services zu bedenken. Containerund Schnittstellen sorgen dafür, dass diese zentral und automatisiertsteuerbar sind.

Carsten Sander,Director Consulting, Nexinto

15Rechenzentren und Infrastruktur Ⅰ/2018

PLATFORM AS A SERVICE

Page 16: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

A ls Treiber für das Datenwachstum gilt insbesondere die Digitalisie-rung, welche die Nachfrage nach Kapazitäten in Cloud-Rechenzen-

tren kräftig erhöht. Der Trend zur Verlagerung von Kapazität von un-ternehmenseigenen Racks und Storage-Equipment in zentral gelegeneCloud-Rechenzentren zeigt sich weltweit, mit unterschiedlichem Tempo.Im Zuge dessen siedeln sich auch verstärkt internationale Cloud-An-bieter in Deutschland an, da hier ansässige Unternehmen aus Daten-schutzüberlegungen die Daten im eigenen Land halten wollen. Der CiscoGlobal Cloud Index 2014–2019 geht sogar davon aus, dass im Jahr2019 beinahe 90 % der Arbeitslast in cloudbasierten Rechenzentrenverarbeitet wird. Den Analysten von Datacenter Dynamics Intelligence(DCDi) zufolge befeuern auch Forschung und Analytik den Trend, be-sonders Big Data und das Internet der Dinge (IoT).

Datenwachstum durch die Cloud

Das Borderstep Institut für Nachhaltigkeit und Innovation sieht derzeitdrei Trends:

1. Cloud-Rechenzentren werden mehr und mehr genutzt. Dies be-stätigt auch die Einschätzung von Cisco, wonach das weltweite Wachs-tum der Data Center Workloads in Zukunft ausschließlich im Bereichder Cloud-Workloads liegen dürfte.

2. Colocation-RZ, deren Anteil an der Gesamtfläche aller Rechen-zentren bis zum Jahr 2020 ca. 40 % betragen dürfte, nehmen stark zu.

3. Festzustellen ist aktuell ein deutlicher Anstieg der RZ-Kapazitätenvon mittelständischen Unternehmen, unter anderem im Maschinenbau,der sich mit zunehmender Durchsetzung von Industrie-4.0-Technolo-gien noch verstärken dürfte.

Das kontinuierliche Datenwachstum zeigt sich vor allem an den In-dikatoren Energieverbrauch und genutzte Fläche. DCDi zufolge hat derEnergieverbrauch von RZ längst über 45 GW erreicht. Auch Borderstepsieht hier mit einem Anstieg des absoluten Energieverbrauchs von biszu 60 % weltweit und 30 % in Deutschland innerhalb der nächstenzehn Jahre eine steigende Tendenz. Schon jetzt sei klar, dass durchdie verstärkte IoT-Vernetzung, aber auch der Rechenzentren selbst unddurch Interconnects der Stromverbrauch zunehmen wird.

Was die RZ-Fläche angeht, so folgen die Wachstumsraten inDeutschland und auf weltweiter Ebene einer ähnlichen Entwicklung.Laut Borderstep dürfte sie hierzulande im Zeitraum 2013 bis 2020 von1,6 auf etwa 2,3 Millionen Quadratmeter (+ 43 %) ansteigen.

Die Lösung: Verdichtung

Ein Erfolg versprechender Ansatz, um die immanenten Herausforde-rungen zu meistern, ist der Betrieb dichterer Rechenzentren. Verdich-tung bedeutet hier, dass die Rechenleistung in einem Rack bei gleich-bleibender Größe signifikant angehoben wird. Hierfür muss jedochauch mehr Energie bereitgestellt werden. Noch vor wenigen Jahrenkonnte jedes Rack in einem Rechenzentrum 2 bis 4 kW Leistung be-ziehen. Heute liegt der Wert bei 10 bis 30 kW oder darüber. DCDi defi-niert die Schwelle für High-Density-Racks bei einer Leistungsaufnahmevon 10 kW pro Rack.

Dabei müssen Rechenzentren jedoch für Racks mit großer Dichtegeeignet sein und die zusätzlich benötigte Leistung liefern können. In-teressant ist, dass High Density Computing zwar den Stromverbrauchpro Rack erhöht, diesen jedoch für die identische Rechenlast einesEndanwenders erheblich senken kann.

Anzupassen ist in jedem Fall die Kühlleistung, da High-Density-Ser-ver mehr Hitze produzieren. Doch die Kühlkapazität ist aufgrund mo-

16 Rechenzentren und Infrastruktur Ⅰ/2018

HIGH DENSITY COMPUTING

Mehr Effizienz auf weniger RaumBedarfsdruck und Platzmangel treiben zu höheren Server- und Leistungsdichten

Es vergeht kaum ein Monat, in dem nicht ein großes Rechenzentrum an den Start geht oder ausgebaut wird.Doch vor allem in Ballungszentren steht schlicht nicht genügend Fläche zur Verfügung. Für die Betreiber heißtes also, den Betrieb, sprich: die Platz- und Energienutzung effizienter zu gestalten.

Leistungsstarkes High Density Computing ist kompakter, brauchtaber mehr Strom.

Quel

le: N

TT E

urop

e

Page 17: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

derner Kühlkonzepte heute im Vergleich zu früheren Jahren wesentlichhöher. Zur Verfügung stehen zum einen die Kalt- oder Warmgangein-hausung, zum anderen auch moderne Adiabatik-Chiller, welche mithilfevon Verdunstungskühlung die Wärme deutlich effizienter abtranspor-tieren. Eine direkte oder indirekte Freikühlung gewährleistet bei ent-sprechenden baulichen und klimatischen Gegebenheiten hohe Ener-gieeffizienz. Seltenere Ansätze greifen auf die konstant niedrigeTemperatur von Grundwasser oder gar auf unterirdisch angelegte Be-cken zurück. Dort wird über den Winter Wasser unter den Schmelz-punkt abgekühlt und im Sommer zur Kühlung genutzt. Solche erneu-erbaren Energiequellen verbessern die Effizienz und senken dieGesamtstromrechnung der Nutzer, stehen aber auch deswegen hochim Kurs, weil sie umweltfreundlicher sind. Mehrheitlich dürften jedochnoch klassische Kompressorkühlanlagen zum Einsatz kommen.

Brandneu ist die Single-Rack- bzw. Rackreihenkühlung. Sie ist jedochteuer und erfordert viel Flexibilität. Ein hohes Potenzial für Einsparungenliegt in jedem Fall in einem perfekten Management und einer flexiblenAnpassung der Infrastrukturkomponenten an die aktuellen Anforderun-gen bzw. unterschiedlichen Workloads. Die Nutzung falsch dimensionier-ter oder nicht skalierbarer Aggregate führt dagegen zu massiven Verlus-ten, selbst wenn die neueste Technologie zum Einsatz kommt.

Technologie und Umsetzung

Erst die technologischen Errungenschaften der letzten Jahre habenHigh Density Computing aus der Taufe gehoben. Dazu gehört erstensdie kontinuierliche Weiterentwicklung der Server mit höherer Leis-tungsdichte. Mehrkernprozessorsysteme haben längst Einzug gehalten;traditionell randständige Funktionen wurden auf den CPU-Die verlagert.Ein zweites Element bilden hochskalierbare hyperkonvergente Platt-formen. Mit ihnen verringert sich der Platz- und Energiebedarf, denndank ihrer Flexibilität bedarf es keiner überdimensioniert großen Infra-strukturen mehr. Eine weitere Hardwarekomponente, die den Energie-bedarf senkt und gleichzeitig für stabile oder sogar verbesserte Leis-tung sorgt, sind sogenannte Predictive Flash Storage Arrays. So lässtsich zudem die Anzahl der Festplatten und SSDs in Storage-Systemenverringern.

Durch die Entwicklung und Nutzung von Rack-Systemen mit vollintegrierten Klimatisierungsmodulen kommen zwei Effekte zum Tragen:Erstens ist die Kühlung hochgradig effizient, und zweitens gestaltensich Erweiterungen bei künftigem Wachstum sehr einfach.

Ein letzter Punkt ist die Versorgung ganzer Racks oder Cages mitGleichstrom, wodurch die Wandlung von Wechselstrom wiederum ef-fizienter wird.

High Density Computing lässt sich auf drei Arten umsetzen. EineMöglichkeit ist der Einsatz neuer Servermodelle, die dank verbesserterProzessorleistung schlicht mehr Rechenleistung im gleichen Gehäusegenerieren. „Mehr Prozessorleistung pro Watt“ über eine stetig stei-gende Core-Anzahl pro physikalischem Prozessor ist die evolutionäreGrundlage bei der Verdichtung der Rechenkapazität.

Eine zweite Variante bieten Blade-Server. Sie können nach und nacheingeschoben werden, um Rechenkapazität hinzuzufügen. Blade-De-signs verfolgen das Konzept, Komponenten an der Peripherie oder au-ßerhalb des eigentlichen Servers in eine einheitliche Infrastruktur ein-zubinden. Hierzu zählt die Integration von IP- und SAN-Netzwerkensowie der Stromversorgung in das Chassis eines Blade-Centers, so-dass die einzelnen Blade-Server diese gemeinsam nutzen können.

Die dritte Option – oder die konsequente Fortsetzung des Blade-Gedankens – bezieht sich auf High-Density-Pods. Dabei handelt es sichin der Regel um eine oder mehrere Rack-Reihen, die eine Dichte pro

Rack von durchschnittlich 4 kW oder darüber gewährleisten. High-Den-sity-Pods verfügen über Kühl- und Stromanschlüsse, die in einer insich geschlossenen modularen Bauweise integriert sind.

Die Akzeptanz steigt

Die Nachfrage nach High-Density-Racks zieht aktuell stark an – eindeutliches Anzeichen dafür, dass sich der Umstieg auf diese Techno-logie offensichtlich lohnt. So bestellen die Kunden eher 47/48U- bis54U-Racks anstelle von 42U-Racks. Dennoch wird die Leistungsauf-nahme von 20 kW oder mehr pro Rack nur selten überschritten. Deraktuelle Durchschnitt liegt derzeit eher bei 8 bis 10 kW, Spitzenwertebei 27 kW pro Rack. Dies hängt jedoch stark von der Ausrichtung desAnwenders ab. So benötigt ein Cloud- oder Content-Provider norma-lerweise mehr Leistung als ein klassisches Großunternehmen. Sicher-lich spielen in Deutschland auch die extrem hohen Stromkosten eineRolle bei der wachsenden Akzeptanz von High Density.

Auch DCDi ermittelte in einer Befragung von Tausenden Führungs-kräften der Rechenzentrumsbranche, dass die Leistungsdichte proRack kontinuierlich zunimmt – ein deutliches Indiz für die Verbreitungvon High Density Computing. Dies könnte auch die Lage in Ballungs-räumen entspannen, wo adäquate Standorte aufgrund begrenzter Flä-chen sowie der damit einhergehenden hohen Grundstückskosten rarsind. Doch genau dort ist der Bedarf am größten. Kritische Faktorensind die Verkehrsanbindung, ein überschaubarer bürokratischer Auf-wand bei den Baugenehmigungen sowie gute Strom- und Netzanbin-dungen. Höhere Effizienz in bestehenden RZ ist daher unter Umständeneine lohnende Alternative. Zumindest wenn zusätzlicher Strom undKühlung bereitgestellt werden können.

Last, but not least senkt weniger IT-Equipment pro Rack den ope-rativen Handling-Aufwand. Denn das Rechenzentrum wird dank einergeringeren Anzahl an Racks und Kabeln überschaubarer und wenigerkomplex. Die Infrastrukturkosten sinken und die Zuverlässigkeit steigt.

RZ-Leistung bedarfsbezogen steigern

Betreiber moderner Rechenzentren, die standardmäßig Racks mit ho-her Energiedichte, wie zum Beispiel 20 kW pro Rack einsetzen, erfüllenin der Regel auch die entsprechenden Kühlanforderungen. Höhere Kos-ten müssen Nutzer daher kaum fürchten. Ein kommerzieller Vergleichzeigt dies schnell auf. Ein Bestandsrechenzentrum mit niedrigererEnergiedichte umzurüsten bedarf jedoch einer genauen Prüfung derlokalen Gegebenheiten. Mit einem effektiven Design besonders derKühlsysteme für High-Density-Racks lassen sich aber durchaus Kos-tenvorteile generieren. High Density Computing hilft Unternehmen, ihreRechenzentrumsleistung bedarfsbezogen zu erhöhen. Sie nutzen dievorhandenen Flächen und die eingesetzte Energie effizienter. Ein Ne-beneffekt ist eine höhere Zuverlässigkeit durch besseres RZ-Handling.

Wer erfahren möchte, inwieweit ein Rechenzentrum für High Den-sity geeignet ist, sollte seinen Betreiber auf den Prüfstand stellen. Kanner 20-kW-Racks bereitstellen? Ermöglicht er es dem Kunden, mehreredieser Racks gemeinsam zu verwenden? Das sollte Grundvorausset-zung sein. Weniger empfehlenswert hingegen wäre ein Modell, bei demdie Racks verteilt werden müssten und der Kunde die Kosten für dienicht genutzte Fläche trägt. Auch eine Umrüstung des Kühlsystemsoder eine Extrakühlung für das Rack zieht entsprechende Kosten nachsich. Daher verspricht ein im Hinblick auf High Density Computing op-timiertes Rechenzentrum den größten Nutzen.

Oliver Harmel,Country Manager CEE, NTT Europe Ltd. Germany

17Rechenzentren und Infrastruktur Ⅰ/2018

HIGH DENSITY COMPUTING

Page 18: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

L angjährig gewachsene Netzwerke haben in vielen Fällen die Gren-zen ihrer Leistungsfähigkeit erreicht. Administratoren sind damit

kaum noch in der Lage, die Dynamik und Flexibilität anspruchsvollerAnwendungsszenarien bereitzustellen, die Fachabteilungen verlangen.Ganz oben auf der Agenda stehen derzeit digitale Geschäftsmodelle,die in hohem Maße von mobil verfügbaren Apps und Daten geprägtsind. Dazu kommen die für die verschiedensten Private, Public undHybrid Cloud Services erforderliche Virtualisierung und Flexibilität. Einweiterer Treiber sind die hohen Skalierungsanforderungen in vielenIoT-Anwendungen. Mobility, Cloud Services und das IoT sind drei An-sätze, mit denen Unternehmen den digitalen Wandel vorantreiben.SDN und andere Virtualisierungstechnologien für Server und Storagesind die zentralen Bausteine, mit denen Rechenzentren solche IoT-Applikationen erfolgreich bereitstellen können.

Open SDN und SDN via APIs

In einem ersten Überblick führen zwei Wege zum Ziel des Software-defined Networking: Open SDN und SDN via APIs. SDN-Technologienkönnen sich oft auf eine Open-Source-Community stützen, die es sichzur Aufgabe gemacht hat, offene Standards zu fördern. Das gilt bei-spielsweise für den OpenFlow-Standard, für den die Open NetworkingFoundation (ONF) verantwortlich zeichnet.

OpenFlow trennt die Datenebene (Data Plane) von der Kontrollebene(Control Plane) und lagert die Control Plane von einem Network Deviceauf einen SDN-Controller aus. Das Network Device übernimmt dann

das Forwarding und die Data-Plane-Funktionen, während der SDN-Controller Funktionen der Steuerungsebene übernimmt. Dieser kanndann direkt mit den Network Devices wie Routern und Switches inter -agieren. OpenFlow ist dabei nur das Protokoll, das heißt, dass Unter-nehmen Open SDN bei Bedarf auch mit anderen Protokollen verwen-den können.

Eine SDN-Implementierung über APIs bezieht sich auf Southbound-APIs, mit denen Administratoren die Network Device Control Planekonfigurieren und programmieren. Unternehmen haben bereits eineReihe von Network Device APIs wie SNMP, CLO, TL1, RADIUS und TR-069 im Einsatz. Dazu kommen neuere APIs wie NETCONF/YANG, REST,XMPP und BGP-LS, die unterschiedliche Kontrollgrade über NetworkDevices, Data Plane und Topologie bieten. Ein wichtiger Unterschiedzum Open-SDN-Ansatz: OpenFlow wird verwendet, um direkt die DataPlane zu steuern, nicht nur die Konfiguration der Devices und der Con-trol Plane.

Auch in der heutigen Netz werkwelt konfigurieren Administratorendie meisten Geräte immer noch über ein Command Line Interface (CLI).Dazu verbinden sie sich entweder mit der Konsole oder über Telnet/sshdes Geräts. Jedes Device wird dann individuell konfiguriert. Der Open-SDN-Ansatz bietet demgegenüber technologische und operative Vor-teile. Er erfordert aber auch, dass ein Unternehmen alte durch neueHardware austauscht, die die Open-SDN-Technologie unterstützt, so-wie in einigen Fällen auch neue Protokolle wie OpenFlow einführt.

Verständlicherweise wird kein Unternehmen seine gesamte Netz-werkhardware über Nacht ersetzen, da ein solcher Schritt erhebliche

SOFTWARE-DEFINED NETWORKS

DP-Auflösung in VariantenEs gibt mehr als einen Weg, den Virtualisierungsrenner SDN umzusetzen

Mit Software-defined Networking (SDN) sind Administratoren nicht mehr an die statische Architekturtraditioneller Netzwerke gebunden, sondern können das Netzwerk über offene Schnittstellen zentral unddynamisch verwalten. Dies wird erreicht, indem die Kontrollebene von der Datenebene getrennt wird.

Der OpenFlow-Standard bietet ein sicheresKommunikations -protokoll undermöglicht dendirekten Zugriff auf die Kontrollebene(Control Plane) einesSwitches.

18 Rechenzentren und Infrastruktur Ⅰ/2018

Quel

le: D

ell E

MC

Page 19: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Kosten sowie Implementie-rungs- und Architekturpro-bleme mit sich bringen wür-de. Ältere Devices, die dasEnde ihres Lebenszyklus er-reicht haben, durch neuerezu ersetzen, ist eine der Mög-lichkeiten, um von einer Soft-ware-defined-Networking-In-frastruktur zu profitieren. Eineandere Option besteht darin, im Einsatz befindliche Network Devices miteiner RESTful API als zusätzlicher Abstraktionsschicht „aufzurüsten“, so-dass sie von einem SDN-Controller gesteuert werden können, der dazunicht das OpenFlow-Protokoll benötigt.

OpenDaylight mit hybridem Ansatz

OpenDaylight (ODL) ist ein Open-Source-SDN-Projekt, das darauf ab-zielt, die Verbreitung softwaredefinierter Netzwerke zu fördern. Dazustellt das Projekt ein von der Open Source Community entwickeltesund von IT-Unternehmen unterstütztes Framework für den OpenDay-light-Controller bereit. OpenDaylight lässt sich als hybrider Ansatz cha-rakterisieren: Auf der einen Seite kommt im Sinne eines reinen Open-SDN-Ansatzes OpenFlow zum Einsatz. Der ODL-Controller unterstütztjedoch auch Southbound-APIs, um mit Plugins wie NETCONF und BGP-LS/PCE-P die Legacy Control Plane auf Netzwerkgeräten zu program-mieren. Einige Unternehmen wie etwa Dell EMC verfolgen bei Open-Daylight einen strikten Open-Source-Ansatz, andere haben SDNController auf Basis von OpenDaylight entwickelt und um proprietäreFunktionen erweitert.

SDN via APIs ermöglicht einen schrittweisen Übergang zu einemcontrollerbasierten Networking-Modell, und diese Variante eignet sich

beispielsweise für Unternehmen mit einer großen Zahl von proprietä-ren und Legacy Network Devices. Ein Vorteil gegenüber Open SDN: Esgibt keinen Single Point of Failure, wie er in einem reinen Open-SDN-Modell anzutreffen ist. Schwerpunktmäßige Einsatzgebiete von SDNvia APIs sind typische Rechenzentren in Unternehmen. Die hier benö-tigte Skalierbarkeit und Performance stellen API-basierten Lösungenproblemlos bereit.

SDN by Overlays

Dell EMC unterstützt sowohl Open SDN als auch OpenDaylight undSDN via APIs. Dazu kommt als weitere Option SDN by Overlays, die aufeinem Hypervisor Network Virtualization Model basiert. Analog zur Ser-vervirtualisierung sind Administratoren mit diesem Modell in der Lage,in einem physischen Netzwerk mithilfe virtueller Switches mehrere vir-tuelle Netzwerke zu betreiben. Die virtuellen Netzwerke verhalten sichAnwendern gegenüber wie ein physisches Netzwerk. Dell EMC arbeitetin diesem Umfeld beispielsweise mit Intel, Midokura und VMware zu-sammen.

Alexander Thiele, Director Enterprise Solutions &

Networking, Dell

SOFTWARE-DEFINED NETWORKS

Eine SDN-Implementierungvia APIs bezieht sich auf

Southbound-APIs, welchedie auf dem Gerät aktive

Kontrollebenekonfigurieren und

programmieren.

SDN trennt die Datenebene (Data Plane) von derKontrollebene (Control Plane). Das Forwarding Modeldefiniert eine Abstraktionsebene, die unabhängig von

der darunterliegenden Hardware ist.

Quel

le: D

ell E

MC

Quel

le: D

ell E

MC

19Rechenzentren und Infrastruktur Ⅰ/2018

Page 20: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

D abei sind es insbesondere die Energiekosten, die CIOs im Blick be-halten sollten. Das Borderstep Institut geht in einer Schätzung da-

von aus, dass der jährliche Energiebedarf deutscher Rechenzentrenvon 2015 bis 2020 um 16 % steigen wird. Vier Punkte sind für einezukunftssichere IT-Strategie besonders wichtig.

Intelligente Klimatisierung

IT-Verantwortliche sollten zunächst die im Rechenzentrum installiertenKomponenten für die IT-Kühlung analysieren und auf Optimierungspo-tenzial prüfen. Auf die Kühlung entfällt der größte Teil der IT-Infrastruktur -kosten. Hier gibt es verschiedene Ansätze. Bei kleineren Umgebungenkann es sinnvoll sein, anstatt Raumkühlung eine DX-basierte (DirectExpansion) Rack-Kühlung zu verwenden. Hierbei kommen Split-Klima-geräte mit Kühlmittel zum Einsatz, die direkt am Rack montiert werden.Eine Kühlung ist am effizientesten, je näher sie an der Wärmequellemontiert ist. Wichtig ist, dass die verwendeten Geräte mit inverterge-steuerten Kompressoren arbeiten, die schnell und direkt auf Lastän-derungen der Server im Rack reagieren. Darüber hinaus sollten Venti-latoren mit regelbaren EC-Motoren zum Einsatz kommen, da sieweniger Strom verbrauchen. Drehzahlgeregelte Ventilatoren sind ge-rade im Teillastbereich sehr sparsam (und auch deutlich leiser). Einesolche Lösung kann leicht um eine Kaltgangeinhausung erweitert wer-den, die heiße und kalte Luftströmungen trennt.

Es gibt jedoch auch physikalische Verfahren, die indirekt für Energie-effizienz sorgen, beispielsweise die adiabatische Freikühlung. Hierbeiwird die einströmende Luft, noch bevor sie auf einen Wärmetauschertrifft, mit zerstäubtem Wasser versetzt. Die feinen Tropfen führen dazu,dass das Wasser in dem warmen Luftstrom sofort verdunstet und damitder umgebenden Luft die Wärme entzieht. Als Folge trifft deutlich kühlereLuft auf den Wärmetauscher und die Kühlleistung des Klimageräts steigt.

Welches Verfahren sich im eigenen Rechenzentrum eignet, sollte ge-meinsam mit einem erfahrenen Spezialisten ermittelt werden, da hier Fak-toren wie das Klima und die Nutzung der IT-Systeme eine Rolle spielen.

Geprüfte Stromversorgung

Ist geplant, die Server zu erneuern, sollte zunächst bei der Stromversor-gung inklusive USV-Anlage geprüft werden, ob diese die neuen Anfor-derungen unterstützen. Moderne Blade-Systeme mit integrierten Schalt-netzteilen erzeugen eine kapazitive Last, während alte USV-Anlagen häufignoch auf induktive Leistungsfaktoren ausgelegt sind. Im Klartext: Die USVerreicht nicht den optimalen Arbeitspunkt, damit leidet die Effizienz undbringt nicht die nominale Leistung, die für den Ernstfall eingeplant wurde.

Die Modernisierung der USV-Systeme steht ohnehin an. Ein wesent-licher Grund dafür sind die starken Veränderungen des Stromnetzes inDeutschland: Durch die Einspeisung aus regenerativen Stromquellenbesteht die Gefahr, dass das Netz instabil wird. Dann übernimmt dieUSV die Aufgabe, solche Störungen zu filtern und eine stabile Strom-versorgung zu gewährleisten. Durch den Gleichstromzwischenkreis wirddie Sekundärseite, an der die IT angeschlossen ist, von der Primärseiteentkoppelt. Darüber hinaus ist der Zustand der USV-Batterien regelmä-ßig zu prüfen – sie sind das schwächste Glied in der Backup-Kette. Mo-derne USV-Systeme sollten mit einem Wirkungsgrad von wenigstens98 % arbeiten. Ein hoher Wirkungsgrad senkt den Eigenverbrauch derUSV-Anlage und damit die Gesamtbetriebskosten des Systems.

Im Zusammenhang mit der Stromversorgung sind außerdem diePDUs zu untersuchen. Wer hier Energie sparen möchte, verwendetPower Distribution Units mit bistabilen Relais. Diese verbleiben strom-los in ihrem jeweiligen Schaltzustand und reduzieren so den Eigenver-brauch auf unter 15 W. Gerade im 24/7-Betrieb lassen sich damit dieEnergiekosten spürbar senken. Gleichzeitig haben RZ-Betreiber durchdie Messfunktionen die Energie, die Auslastung und die Phasensym-metrie pro Rack genau im Blick.

Monitoring für Ausfallsicherheit

Komponenten wie Kühlsysteme, USV oder PDU verfügen über Ether-net-Schnittstellen. Damit können IT-Administratoren via SNMP alle re-levanten Daten auswerten und über eine DCIM-Software (Data CenterInfrastructure Management) analysieren. Um den Erfolg einer Moder-nisierung zu dokumentieren, sollten IT-Manager klare Ziele definierenund regelmäßig den Ist-Zustand mit dem geplanten Soll-Zustand ab-gleichen. Die dafür notwendigen Funktionen liefert die DCIM-Software.Einige der am Markt verfügbaren Lösungen sind für die Überwachungkompletter Rechenzentren ausgelegt und bieten daher einen sehr brei-ten Funktionsumfang. Rittal zum Beispiel liefert mit RiZone eineschlanke und modular aufgebaute DCIM-Anwendung, die sich dazueignet, den Energieverbrauch der IT zu optimieren. Auf diese Weiselassen sich die Systeme auch dauerhaft überwachen, wodurch sichdie Ausfallsicherheit verbessert.

Nicht zuletzt muss ein Wandel in den Köpfen der IT-Manager statt-finden: Anstatt jeden IT-Service selbst zu leisten, sollte sich die IT-Or-ganisation als Service-Broker aufstellen und gezielt Leistungen ausder Cloud beziehen und aktiv den Fachbereichen anbieten. So gelingtes, die Anforderungen der Fachabteilungen flexibel umzusetzen unddie Kosten für den IT-Betrieb zu senken.

Andreas Keiger,Executive Vice President Global BU IT Infrastructure, Rittal

20 Rechenzentren und Infrastruktur Ⅰ/2018

ENERGIEEFFIZIENZ

Zukunftssicher aufgestelltKühlung und Stromversorgung sind die ersten Ansatzpunkte für Sofortmaßnahmen

IT-Verantwortliche stehen vor der Aufgabe, die Weichen zu stellen, um ihr Rechenzentrum auf kommendeAnforderungen vorzubereiten. Denn die digitale Transformation führt dazu, dass IT-Systeme weiter ausgebautwerden und neue IT-Infrastrukturen entstehen – und zwar eher explosionsartig als schrittweise.

Page 21: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

M it dem kommenden Mobilfunkstandard 5G sind enorme Leis-tungssteigerungen verbunden – mit Übertragungsraten von bis

zu 10 GBit/s. Damit wird das mobile Netz noch schneller und leistungs-fähiger, nachdem bereits mit dem heute genutzten 4G-Standard zahl-reiche neue Anwendungen möglich geworden sind. Dazu gehören Vi-deotelefonie, Video-on-Demand auf dem Handy, aber auch dieVernetzung von Maschinen und Fahrzeugen. Der Datenhunger wirdaber immer größer. Das führt dazu, dass die heutige Datenrate von1 GBit/s bald schon ein limitierender Faktor sein wird.

Das Netz von übermorgen

Deswegen werfen Wissenschaftler i1m Rahmen des Projekts Terranovaeinen Blick in die Zukunft jenseits von 5G. Unter dem Dach dieses Pro-jekts arbeiten Forscher des Fraunhofer-Instituts für Angewandte Fest-körperphysik IAF, des Fraunhofer-Instituts für Nachrichtentechnik, Hein-rich-Hertz-Institut HHI sowie weitere europäische Partner ausForschung und Industrie an Lösungen für den Mobilfunk der über-nächsten Generation. Ziel sind Netzverbindungen im Terahertz-Bereich,die so stabil sind, dass sie problemlos Daten mit Geschwindigkeitenvon bis zu 400 GBit/s übertragen können.

Im EU-geförderten Projekt Terranova geht es darum, Glasfasertech-nologie mit der Richtfunkübertragung zu verbinden. „Die EU will mitder Förderung anregen, sich über Technologien jenseits von 5G Ge-danken zu machen“, sagt Dr. Colja Schubert, zuständiger Gruppenleiterfür optische Untersee- und Kernnetze im Fraunhofer HHI. „Die Stan-dardisierung für 5G ist noch in vollem Gange. Erst ab 2019 oder 2020wird man über eine Standardisierung jenseits von 5G nachdenken.“

Mit dem Ausbau des Glasfasernetzes ließen sich natürlich hohe Da-tenraten erzielen. Aber das löst nicht das Problem, mobile Geräte oderdrahtlos vernetzte Maschinen ebenfalls durch hohe Datenraten anzu-binden. Deswegen bringt Terranova die Richtfunkübertragung ins Spiel.„Die Glasfasernetze werden bestehen bleiben“, sagt Projektleiter Dr.Thomas Merkle vom Fraunhofer IAF, „aber sie werden durch ein Funk-netz im THz-Bereich ergänzt.“ Und diese Funknetze sollen dieselbeÜbertragungsqualität und Stabilität bieten wie Glasfasernetze. Terra-nova untersucht Frequenzbänder im THz-Bereich, weil die Frequenz-bänder im GHz-Bereich schon durch 5G belegt sind.

„Grundsätzlich gilt: Je niedriger die Frequenz, desto weniger Band-breite. Um auf der Funkstrecke eine Datenrate zu erreichen, die mit derGlasfaser vergleichbar ist, muss daher auf Frequenzen im THz-Bereichgesendet werden. Diese haben zwar eine niedrigere Reichweite als Fre-quenzen im MHz-Bereich, verfügen aber über eine deutlich höhere Band-breite“, erläutert Dr. Merkle. „So liegen die Frequenzen bei 4G im Bereichvon 800 bis 2600 MHz und damit bei einer Bandbreite von maximal

1 GBit/s. Bei Frequenzen im THz-Bereich hingegen steht genügend Band-breite zum Erreichen von Datenraten bis zu 400 GBit/s zur Verfügung“,so Dr. Merkle weiter. „Aus diesem Grund arbeiten wir an einem Transfervon optischer zu drahtloser Datenübertragung, das heißt, wir wollen dasPotenzial, das in der Glasfaser liegt, voll ausschöpfen, es aber nicht aufdas Kabel beschränken, sondern auch auf die Funkstrecke übertragen.“

Die Bandbreite ist tatsächlich die größte Herausforderung. „Je grö-ßer die Bandbreite, desto mehr Daten können übertragen werden“, er-innert Dr. Schubert. Will man mehr Bandbreite nutzen, muss man hö-here Frequenzen verwenden.

„Dabei geht es jedoch nicht allein um die Geschwindigkeit der Da-tenübertragung“, fährt Dr. Schubert fort. „Eine weitere Herausforderung,die im Rahmen des Projekts angegangen wird, ist der nahtlose Über-gang zwischen den verschiedenen Zugangstechnologien. Schon heutewechseln mobile Nutzer je nach Verfügbarkeit zwischen Mobilfunknetzund WLAN, und bei Laptops kommt zusätzlich die Möglichkeit hinzu,sich über Kabelverbindungen ins Internet einzuwählen. Es gibt aller-dings derzeit keinen fließenden Wechsel zwischen den Zugangsarten,sodass es oft zu Unterbrechungen kommt. Im Rahmen von Terranovasoll das Erleben und Erfahren für den Nutzer so gestaltet werden, dasser Übergänge zwischen den Zugangstechnologien gar nicht bemerkt.“

Die Wissenschaftler konzentrieren sich auf Frequenzen bei 300 GHz.Bei 300 GHz ist auch eine starke Bündelung des Richtstrahls möglich,ohne dass dafür große Antennen notwendig sind. Daraus ergeben sichzudem Vorteile wie eine größere Stör- und Abhörsicherheit.

Experimentelles Funkmodul

Ziel ist nun, ein Funkmodul zu bauen, das diese Frequenzen überträgt.Das macht die moderne Halbleitertechnik möglich. Dabei soll dasFunkmodul möglichst energieeffizient und kostensparend arbeiten. Beider Hardware-Entwicklung ergänzen sich beide Institute. Das Fraun-hofer IAF bringt seine Expertise aus der Hochfrequenzfunktechnik undder Millimeterwellentechnik im analogen Bereich ein. Die Wissen-schaftler dort beschäftigen sich also primär mit der Funkstrecke undder Integration von Funkmodulen auf den Chip.

Das Fraunhofer HHI greift auf seine Erfahrungen bei der Entwicklungvon Netzkonzepten und bei zahlreichen 5G-Projekten zurück. Im Rah-men von Terranova erforschen die HHI-Wissenschaftler die Signalver-arbeitung beim Abstrahlen durch die Richtfunkantenne. Die Signalemüssen mit hoher Geschwindigkeit und zudem möglichst energiespa-rend verarbeitet werden. Das erfordert die Entwicklung spezieller Algo-rithmen. Experimentelle Hardware wird bereits im Labor getestet.

Friedrich List,freier Journalist, Hamburg

21Rechenzentren und Infrastruktur Ⅰ/2018

PROJEKT TERRANOVA

Datenlast jenseits von 5GDie Forschung arbeitet bereits am Mobilfunkstandard der übernächsten Generation

Die steigende Zahl vernetzter IoT-Geräte wird eine schier unabsehbare Flut von Daten erzeugen. Noch drücktdie fünfte Mobilfunkgeneration nicht mit voller Last in die Rechenzentren, da zeichnet sich schon ab, dass dievon 5G genutzten Frequenzbänder mittelfristig nicht mehr ausreichen werden.

Page 22: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

D ie KUKA AG ist als einer der führenden Robotikhersteller nicht nurin der eigenen Produktion auf eine zuverlässig funktionierende IT

angewiesen, sondern hat für ihre Kunden, Partner und Mitarbeiterauch Vorbildcharakter. Zugleich gelten bei einem innovativen Ferti-gungsunternehmen, das zu den weltweit wichtigsten Playern der In-dustrie-4.0-Automatisierung gehört, strengste Sicherheitsvorkehrun-gen – nicht nur auf den Zugriffsschutz bezogen, sondern auch auf denlaufenden Betrieb.

In Augsburg wurde 2015 eine neue Firmenzentrale errichtet. Darinwar von Beginn an ein eigenes Rechenzentrum vorgesehen. Dass dieseIT-Infrastruktur absolut sicher ausgelegt ist, war Grundbedingung.Denn das Datacenter soll zum einen die besonderen Automationspro-zesse, die bei der Herstellung von Robotern erforderlich sind, steuern,zum anderen stellt es vom Hauptsitz in Augsburg aus alle IT-Servicesund Applikationen für die global verteilten Dependancen bereit. KUKA

hat beinahe 40 Niederlassungen weltweit, von den USA über Deutsch-land bis nach China, rund 12.000 Mitarbeiter und einen Jahresumsatzvon über zwei Milliarden Euro. Die Hochverfügbarkeit der Systeme istdaher unabdingbar. Sämtliche Services müssen 24 Stunden am Tag,sechs bis sieben Tage die Woche nutzbar sein. „Downtime für War-tungsarbeiten an der RZ-Infrastruktur ist ein Luxus, den wir uns nichtleisten können“, erklärt Martin Kugelmann, Director Digital OperationCenter EMEA Datacenter & Network bei KUKA.

Risikoanalyse und Konzeptstrategie

Im Rahmen der Planung wurden daher im Vorfeld alle technischen An-forderungen und Risikofaktoren für ein sicheres RZ evaluiert, darunterauch der Standort. Selbstverständlich wurden bei der Risikoanalysegemäß EN 50600 vor Baubeginn auch die Gebäudeanschlüsse der

22 Rechenzentren und Infrastruktur Ⅰ/2018

RZ-BAU

Grünes Rechenzentrum für orange RoboterKUKA steuert seine Produktion aus einem neuen Datacenter in der Augsburger Zentrale

Im Zuge der Digitalisierung hat der internationale Robotikspezialist KUKA seine gesamte IT konsolidiert und neu aufgestellt – und ein neues Rechenzentrum gebaut. Die drei Hauptanforderungen waren durchausanspruchsvoll: Autark und grün sollte es sein. Vor allem jedoch hochverfügbar.

Für den Roboter -hersteller KUKA hat dieData Center Group einhochverfügbaresRechenzentrum inAugsburg gebaut, vonder Risikoanalyse undPlanung bis zu Wartungund Instandhaltung.

Quel

le: D

ata

Cent

er G

roup

Page 23: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

Strom- respektive Kühlwasserversorgung ebenso wie die Netzwerk-technik bewertet. Im Fokus standen bei KUKA redundante Leitungs-und Kabelwege. Die Größe des Rechenzentrums ist bereits so ausge-legt, dass es auch künftige Anforderungen der Digitalisierung und Au-tomatisierung abdecken kann – „obwohl es relativ schwer zu bewertenwar, wie viel Platz IT-Komponenten in zehn Jahren beanspruchen wer-den“, gibt Kugelmann zu.

Um dieser Unbekannten Herr zu werden, skalieren die KUKA-Re-chenzentren über moderne Hybrid-Cloud-Lösungen. Der Weg in dieCloud und die Kopplung beider Welten ist dabei von besonderer Be-deutung, denn gerade die globale Verfügbarkeit von Daten und Infor-mationen ist die Basis für ein umfassendes Digitalisierungskonzept,wie es dem international operierenden Anbieter von intelligenten Au-tomatisierungslösungen vorschwebt. Den notwendigen Maßnahmen,um relevante Information auch im Cloud-Zeitalter zu schützen, kommtdabei eine besondere Bedeutung zu. Unternehmenskritische Informa-tionen und Systeme gibt es bei KUKA eine ganze Menge, von den Pro-zessdaten und ERP-Systemen bis zu FuE-Vorhaben und Konstruktions-plänen. KUKA hat außerdem parallel zum RZ-Bau eine ganze Reihestrategischer Entscheidungen getroffen, die ebenfalls Auswirkungenauf die Planungen hatten. Dazu gehört beispielsweise die Konsolidie-rung der gesamten SAP-Lösungen und der entsprechende Einsatz vonSAP-HANA-kompatiblem NetApp-Flash-Storage.

Unterstützung für die Umsetzung

Im nächsten Schritt suchte KUKA dann für die Umsetzung der Theoriein die Praxis einen Partner, der das Rechenzentrumsprojekt gemeinsammit dem Unternehmen realisieren sollte. Die Vorgaben an das Rechen-zentrum orientierten sich am TSI-Level 3 (Trusted Site Infrastructure)des TÜV Nord. Dieser Zertifizierungsstandard fordert mitunter, dass einDatacenter vollständig redundant ist und keinerlei Wartungsfenster er-forderlich sind. Kugelmann: „Vor der Realisierung fiel uns auf, dass un-sere Vorstellungen an Sicherheit und Verfügbarkeit nur von einem er-fahrenen Fachmann umgesetzt werden können. Die eingereichtenVorschläge gewöhnlicher Baufirmen waren nicht ausreichend, um diegeforderte Qualität gewährleisten zu können, da der RZ-Bau nicht ihrKerngeschäft war.“

Mit der Data Center Group aus Wallmenroth im Westerwald war die-ser Partner schließlich gefunden. Das Unternehmen versteht sich alsKomplettanbieter für physikalische IT-Infrastrukturen. Zu den Leistun-gen gehören sowohl die Analyse und Planung kompletter Rechenzen-tren als auch die schlüsselfertige Errichtung von IT-Standorten sowieanschließende Service- und Instandhaltungsdienstleistungen. Die ein-zelnen Kompetenzen stellt der Anbieter durch unterschiedliche Ge-schäftsbereiche dar. So auch bei dieser Kooperation. Konkret begannsie mit der Beratung durch den Geschäftsbereich SECUrisk, ging weitermit der Realisierung des Rechenzentrums durch proRZ und mündeteschließlich in Instandhaltungs- und Wartungsvereinbarungen mitRZservices. Zudem erstellten die Fachleute das Pflichtenheft und be-gleiteten die Zertifizierung durch den TÜV Saarland.

Verfügbarkeit und Energieeffizienz

Die erste Anfrage erfolgte im Februar 2014. Im Mai startete dann diePlanungsphase. Abgeschlossen war der Bau des neuen Rechenzen-trums bereits im Oktober 2015. Das RZ war damit betriebsfertig. Endedes Jahres wurde es dann durch die KUKA bezogen und in Betrieb ge-nommen. Zu der technischen Gebäudeausrüstung zählen InRow SideCooler, Kalt- und Warmgänge, Racks, PDUs und die Elektrotechnik. Die

Kälteerzeugung sowie die redundant ausgelegten USV-Anlagen warenindes bauseitig vorhanden bzw. sind über die TGA (Technische Gebäu-deausstattung) zugekauft worden. Für eine redundante Kälteerzeugungsorgen Zuleitungen über Brunnen sowie ein Kältekompressor.

Denn ein weiterer wichtiger Faktor für KUKA war genuin grüne IT.So läuft die Wasserversorgung zur Kälteerzeugung über ein Brunnen-system. Hierfür steht dem Rechenzentrum als Primärversorgung einHauptbrunnen zur Verfügung; ein zweiter Brunnen kann zugeschaltetwerden; ein dritter bildet die Notversorgung. Sollten die beiden Haupt-brunnen als Wasserversorger ausfallen und der dritte nicht für genü-gend Leistung sorgen können, wird die Klimatisierung über eine Käl-temaschine auf dem Dach gewährleistet. Für den Ausfall wurdenverschiedene Lastgänge festgelegt, bei denen im Sinne der Verfügbar-keit immer das Datacenter den Vorrang in der Versorgung erhält. Dasheißt: Im Notfall wird als Erstes das RZ über die Kältemaschine ver-sorgt und erst danach sind weitere Abteilungen an der Reihe.

Daher spielen auch das Infrastrukturmanagement und das Monito-ring des gesamten Rechenzentrums eine wichtige Rolle. „Wir setzenmehrere Systeme ein“, erklärt Martin Kugelmann. „Zum einen wurdendie Hauptstörungen auf die Gebäudeleittechnik aufgelegt. Dadurchkönnen wir kurzfristig reagieren, wenn ein Alarm auftritt. Ein zusätzli-ches Monitoring unserer Systeme erfolgt durch die IT, welche bei-spielsweise PDUs, Cooler oder Differenzströme überwacht. Schließlichwird das Personal, das Bereitschaft hat, über unterschiedliche Kanäleerreicht. Sogar wenn das gesamte Datacenter trotz USV schlagartigausfallen sollte. Das ist aber kaum denkbar, denn auch die Stromver-sorgung stellen wir selbst. Dazu haben wir zwei Einspeisungen vonNetzversorgern sowie ein Netzersatzaggregat mit über 1 MW Leistung.Sie reicht sogar dafür, dass der Netzversorger die Möglichkeit hat, un-ser Aggregat im Falle eines Stromengpasses für sich zu nutzen. Zu-sätzlich ist eine Treibstoffbevorratung vorhanden, sodass die Anlageeine Woche völlig autark laufen kann.“

Zertifizierung und Notfallübungen

Das Rechenzentrum ist nun seit Ende 2015 in Betrieb. Die TÜV-Zerti-fizierung erfolgte aufgrund vieler paralleler IT-Projekte innerhalb desKonzerns erst 2017. So wurde beispielsweise die für KUKA sehr wich-tige Videoüberwachung des Datacenters mit der ohnehin geplanten An-schaffung eines neuen Videoüberwachungssystems für das gesamteWerksgelände zusammengelegt. Ebenso wurde die Zertifizierung derIT-Infrastruktur des Rechenzentrums in eine Gesamtzertifizierung derIT nach ISO 27001 (BSI) eingebettet. Bei den Wartungsarbeiten hat sichKUKA für die RZservices der Datacenter Group entschieden.

Der Betrieb an sich läuft seitdem zuverlässig, störungs- und aus-fallfrei. Dennoch werden die Redundanzen regelmäßig getestet. „DieNotstromeinspeisung zum Beispiel wird scharf getestet“, erklärt Ku-gelmann. „Das bedeutet, wir aktivieren nicht einfach das Dieselaggre-gat, um zu sehen, ob es funktioniert. Sondern wir stellen den Stromab und prüfen, ob es anspringt und auch längere Zeit den Betrieb auf-rechterhalten kann. Nur so können Redundanzen sicher geprüft wer-den. Auch die Hauptkühlstränge, die doppelt ausgelegt sind, werdenregelmäßig von einem Weg zum anderen getauscht.“

Unterm Strich sind die Verantwortlichen zuversichtlich, dass sichdas neue Rechenzentrum in Augsburg nicht nur bei Performance, Si-cherheit und Verfügbarkeit auszahlt, sondern auch in puncto Kosten-effizienz: „Deutliche Energieeinsparungen sind bereits jetzt erkennbar“,sagt Martin Kugelmann.

Simon Federle,freier Journalist

23Rechenzentren und Infrastruktur Ⅰ/2018

RZ-BAU

Page 24: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

D ie Datacenter-Landschaft ist im Umbruch. Zunehmend setzen auchmittelständische Unternehmen auf Virtualisierung und hybride

Cloud-Lösungen. Hinzu kommt der Trend zu Software-defined (SD) In-frastrukturen und Rechenzentren. Dabei werden Daten nur noch aufServern und Hosts gespeichert, tauchen aber in der Management-Soft-ware nicht mehr als Hardware auf, sondern nur noch als im Netz ein-gebundene Kapazitäten. Anwendungen und Netzwerkkapazitäten las-sen sich so je nach Bedarf auch per Private oder Public Cloud zu- oderabschalten. Das geht bis hin zum vollständig automatisierten Rechen-zentrum, bei dem der Faktor Mensch als Fehlerursache kaum nochauftaucht. Wichtig ist allerdings: Die zugehörigen Netzwerkinfrastruk-turen und Verkabelungslösungen müssen modular ausreichend Band-breite bereitstellen können und sich an künftige Anforderungen anpas-sen lassen.

Hyperscale-Rechenzentren

Rechenzentren wie die von Amazon, Cisco, Google oder von großenCloud- und Netzwerkanbietern sind bereits heute so aufgebaut. Fürsolche Netze gelten 100 GBit/s bereits als Flaschenhals. Mit einer soft-waredefinierten Infrastrukturlösung können Netzbetreiber Leitungs-bandbreiten in 100-GBit/s-Schritten in Minuten durch einfache Soft-wareaktivierung bereitstellen.

In diesen Netzen kommt allein schon wegen der großen Dimensio-nen nur Singlemode-Technik zum Einsatz. Um Platz zu sparen, werdenkompaktere Transceiver-Bauformen wie µQSFP entwickelt; sie bietetim Footprint eines SFPs den QSFP-Funktionsumfang. Noch platz- undvor allem energiesparender ist es, wenn die Medienkonvertierung mitzugehöriger Optik auf die Chips verlagert wird (On Board Optics). Dannkann die optische Verbindung über eine passive MPO-Kupplung am Portrealisiert werden. Die Server und Switches senden und empfangen danndirekt die optischen Signale. Diese Verbindungen lassen sich jedochnicht mehr über eine strukturierte Verkabelung realisieren, sondern nurnoch über Punkt-zu-Punkt-Verbindungen (One-Hop-Verbindungen).

Software-defined Infrastrukturen

Solche Rechenzentren sind natürlich die Spitze des Marktes. Doch derRest zieht nach. Das Forschungsinstitut Markets and Markets prognos-tizierte im März 2017, dass der SD-Datacenter-Markt von derzeit25,61 Milliarden US-Dollar auf 83,21 Milliarden Dollar im Jahr 2021steigen wird. Auch eine Umfrage von 451 Research im Herbst 2016ergab, dass 67 % der weltweit befragten Unternehmen ihre Ausgabenfür SD-Infrastrukturen erhöhen wollen. Haupttreiber für SD-Rechen-zentren sind laut Markets and Markets das Ressourcenpooling zurSenkung der Betriebskosten. Zudem erhöhe sich damit die Flexibilität

24 Rechenzentren und Infrastruktur Ⅰ/2018

LWL-VERKABELUNG

Umgang mit der neuen VielfaltWer heute Glasfaserstrecken plant, plant am besten gleich für die Zukunft

Für optische Ethernet-Übertragungen im Datacenter bietet der Markt derzeit so viele Übertragungstechnikenund Anschlussmöglichkeiten wie noch nie. Neben den verschiedenen IEEE-Standards etablieren sich einigeproprietäre Systeme. Diese Vielfalt verunsichert den Markt, gibt aber auch Handlungsspielraum.

Bei vermaschten Leaf-Spine-Architekturen treten viele Punkt-zu-Punkt-Verbindungen auf.

Quel

le: D

ätw

yler

Page 25: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

und Skalierbarkeit. Auch das DC-Management sei weniger komplex alsbei klassischen Rechenzentren.

Ein mittelständischer Herstellungsbetrieb wird deshalb sein Re-chenzentrum nicht komplett umstrukturieren, aber sicher das eine oderandere integrieren. Doch um in Cloud-basierten Umgebungen Engpässezu vermeiden und Latenzzeiten zu minimieren, verfügen Rechenzen-tren zunehmend über vermaschte Leaf-Spine-Architekturen mit zahl-reichen direkten Verbindungen. Auch in Rechenzentren mit anderen Ar-chitekturen wird es deshalb bei der Verkabelung von aktivenKomponenten in einem Rack oder zwischen zwei benachbarten Rackskünftig mehr Punkt-zu-Punkt-Verbindungen geben.

Schon heute bietet der Markt zum Beispiel für Cloud-Umgebungenbeidseitig mit SFP- oder QSFP-Transceivern vorkonfektionierte An-schlusskabel für Datenraten bis 100 GBit/s an. Sie sind nicht nurschneller und kostengünstiger als Direct-Attach-Kabel auf Kupferbasis,sie sind auch leichter, flexibler und in Längen bis 300 m erhältlich. Esgibt sie auch als Breakout-Kabel mit SFP-Transceivern.

Optische Übertragungstechniken

Um Datenraten von 40 GBit/s und mehr zu erzielen, gibt es heute zahl-reiche Übertragungstechniken. So können die Signale auf mehrere Ka-näle (Lanes) aufgeteilt und parallel über mehrere Faserpaare gesendetwerden. Dazu werden in der Regel MPO-Verbindungen verwendet. Al-ternativ können Datenraten bis 50 GBit/s wie in der Kupfertechnik miteiner PAM4-Modulation über ein Faserpaar transportiert werden. AuchÜbertragungen über mehrere Wellenlängen mit einem WDM-System(Wavelength Division Multiplexing) kommen mit einem Faserpaar aus.Diese Übertragungstechnik wurde bisher nur für Singlemode-Faserngenutzt. Doch 2016 wurde die Wideband-Multimode-Faser OM5 stan-dardisiert. Sie ist rückwärtskompatibel zur OM4-Faser und für das Coarse Wavelength Division Multiplexing (CWDM) über vier Wellenlän-gen von 850 bis 900 nm optimiert. So kann sie zunächst wie eineOM4-Faser eingesetzt werden und später mit Transceivern für das Mul-tiplexing nachgerüstet werden.

Gegen WDM-Lösungen und PAM4-Modulation spricht, dass die ak-tive Technik teurer ist als bei der Parallelübertragung und dass damitnur Punkt-zu-Punkt-Übertragungen realisiert werden können. Außer-dem müssen die MPO-Anschlüsse sehr präzise gefertigt sein. Mit den

Übertragungsraten steigen generell auch die Anforderungen an dieSteckverbindung. Vor allem bei höherer Modulation ist die Rückfluss-dämpfung der kritischste Parameter.

Wieder anwendungsorientiert

Schon 2017 präsentierte die Ethernet Alliance auf der OCF einen Über-blick über die derzeit verfügbare Technik zu allen Ethernet-Übertragungs-varianten. Neben Lösungen für 400-GBit/s-Übertragungen wurden Switches, Netzwerkkarten und Server präsentiert, die für 25- bis 100-GBase-Ethernet-Übertragungen ausgelegt sind. John D’Ambrosia, Vor-sitzender der Ethernet Alliance und Chefingenieur bei Huawei sagte: „DieVielfalt der Lösungen gibt Netzwerkplanern die Möglichkeit, ein maßge-schneidertes Netzwerk zu errichten, angepasst an individuelle Anforde-rungen und den jeweiligen Bandbreitenbedarf der Anwendungen.“

Natürlich sind der Vielfalt Grenzen gesetzt. Es müssen sich be-stimmte Lösungen im Markt durchsetzen, die dann zu akzeptablenKosten in großen Stückzahlen produziert werden können. Auch fürMessgerätehersteller ist es untragbar, unzählige Adapter- und Mess-routinen für jede einzelne Übertragungstechnik zu entwickeln und an-zubieten. So zeichnet sich schon heute ab, dass sich LC-Duplex undMPO als optische Anschlusstechniken durchsetzen werden.

25Rechenzentren und Infrastruktur Ⅰ/2018

LWL-VERKABELUNG

Für Datenraten bis 100GbE gibt es bereits Lösungen. WelcheVariante lässt sich im eigenen Rechenzentrum am besten inte-grieren und wie kann ich die Core-Verbindungen für 400GbE vorbereiten?

Switches, Server und Speicherlösungen werden wieder verstärktdirekt angeschlossen und das zunehmend mit aktiven optischenKabeln (AOCs).

Der Trend geht zu automatisierten Rechenzentren, und dabeisollte auch die Verkabelung über ein AIM in das übergeordneteManagementsystem eingebunden sein.

ZENTRALE KRITERIEN FÜR DIE VERKABELUNG

ÜBERTRAGUNGSTECHNIKEN FÜR LWL-VERBINDUNGENÜbertragungstechnik Geschwindigkeit Distanz Medium Aufteilung Multiplexing Wellenlänge40GBase-SR4 40 GBit/s 125 m 8 x MM 4 x 10 GBit/s – 850 nm40GBase-LR4 40 GBit/s 10 km 4 x SM 4 x 10 GBit/s CWDM 1310 nm40GBase-SWDM4 40 GBit/s 70/100 m 2 x MM 4 x 10 GBit/s SWDM 850 nm40GBase-SR Bidi (Cisco) 40 GBit/s 150 m 2 x MM 2 x 20 GBit/s 2 Wellenlängen 850 nm40GBase-CSR4 (Cisco) 40 GBit/s 300/400 m 8 x MM 4 x 10 GBit/s – 850 nm50 GBase-SR 50 GBit/s 100 m 2 x MM 2 x 25 GBit/s – 850 nm50 GBase-FR 50 GBit/s 2 km 2 x SM 2 x 25 GBit/s – 1310 nm100GBase-SR4 100 GBit/s 100 m 8 x MM 4 x 25 GBit/s – 850 nm100GBase-LR4 100 GBit/s 10 km 4 x SM 4 x 25 GBit/s DWDM 1310 nm100GBase-SWDM4 100 GBit/s 70/100 m 2 x MM 4 x 25 GBit/s SWDM 850 nm400GBase-SR16 400 GBit/s 70 m 32 x OM3 16 x 25 GBit/s – 850 nm400GBase-SR16 400 GBit/s 100 m 32 x OM4 16 x 25 GBit/s – 850 nm400GBase-DR4 400 GBit/s 500 m 8 x SMF 4 x 25 GBit/s – 1310 nm400GBase-FR8 400 GBit/s 2 km 2 x SMF 8 x 25 GBit/s PAM4 -DWDM 1310 nm400GBase-LR8 400 GBit/s 10 km 2 x SMF 8 x 25 GBit/s PAM4 -DWDM 1310 nm

Page 26: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger

RZ-Betreiber werden bei vermaschten Leaf-Spine- und Cloud-Com-puting-Architekturen sowie bei der Anbindung von Highspeed-Flash-Speichersystemen die Verkabelung einsetzen müssen, die über dieSchnittstellen vorgegeben wird. Auf einer RZ- und Verkabelungstagungim Februar 2018 in München riet der Netzwerksachverständige Man-fred Patzke deshalb dazu, die Trassen in Rechenzentren künftig sehrgroßzügig auszulegen. So ließen sich bei einem Technologiewechselauf der aktiven Seite die bisher genutzten Direktverbindungen währenddes laufenden Betriebs gut entnehmen und durch die dann benötigtenVerbindungen für die neuen Server und Switches ersetzen.

Normkonform oder proprietär

Die zahlreichen Übertragungsstandards haben sich entwickelt, weil einwachsender Bedarf an Verbindungsgeschwindigkeiten über 10 GBit/shinaus bestand. So wurden Lösungen für 40 und 100-GBit/s-Ethernetentwickelt, die mittlerweile in die Normierung eingebunden sind. Darü-ber hinaus hat das MSA-Konsortium um Microsoft, Broadcom, Google,Cisco und Dell Lösungen entwickelt, die aufgrund der namhaften Her-steller mittlerweile als De-facto-Standards gelten. Dabei werden über

eine PSM2-Schnittstelle (Parallel Single Mode 2 lane) Datenraten von50 GBit/s über zwei Lanes übertragen und mit der 100-GBit/s-Schnitt-stelle PSM4 je 25 GBit/s über vier parallele Singlemode-Faserpaare(maximale Distanz: 500 m).

Zudem hat Cisco mit Bidi eine proprietäre 40-GBit/s-Lösung überein einfaches Multimode-Faserpaar entwickelt. Diese nutzt zwei 20-GBit/s-Kanäle mit Wavelength Division Multiplexing über zwei Wellen-längen. Die neue OM5-Faser bietet sich für diese Variante an, ist abernicht notwendig. Die Technik ist für OM3- und OM4-Fasern entwickeltund soll zum Beispiel die Weiternutzung von vorhandenen Kabelstre-cken ermöglichen. Derzeit ist IEEE 802.3 dabei, die Normierung fürCoarse-Wavelength-Division-Multiplexing-Übertragungen (vier Wellen-längen) um Varianten für OM5-Fasern zu ergänzen. Dann sind Über-tragungsraten bis 100 GBit/s auch über ein MM-Faserpaar mit LC-Duplex-Steckverbindung im Standard definiert.

Praktische Umsetzung

Grundsätzlich sollten bei Neuverkabelungen mindestens OM4-Faserneingesetzt werden, und das auch nur über Distanzen bis 100 m. Denndie Längenrestriktionen verschärfen sich mit zunehmender Datenrate.Außerdem sollte der Planer bei der Auswahl der Übertragungstechnikdarauf achten, dass entsprechende Transceiver in einer gängigen Bau-form wie QSP4 oder SFP zu erschwinglichen Preisen zur Verfügungstehen. Die Entwicklungen des MSA-Konsortiums haben mittlerweileeine solche Marktmacht, dass man davon ausgehen kann, dass sie zu-mindest als De-facto-Standard angesehen werden können. Das heißt:Es gibt auch bezahlbare Transceiver dafür.

Doris Piepenbrink,freie Journalistin

26 Rechenzentren und Infrastruktur Ⅰ/2018

LWL-VERKABELUNG

Beispiel für einen MPO-Steck verbinder für 40- und 100GBase-SR4-Übertragungen.

Quel

le: L

aser

200

0

Impressum Themenbeilage Rechenzentren und Infrastruktur

Redaktion just 4 business GmbHTelefon: 08061 34811100, Fax: 08061 34811109,

E-Mail: [email protected]

Verantwortliche Redakteure:Thomas Jannot (v. i. S. d. P.), Ralph Novak, Florian Eichberger (Lektorat)

Autoren dieser Ausgabe:Güner Aksoy, Falko Binder, Simon Federle, Oliver Harmel, Andreas Keiger, FriedrichList, Axel Oppermann, Doris Piepenbrink, Carsten Sander, Alexander Thiele, WilfriedSchmitz

DTP-Produktion: Lisa Hemmerling, Matthias Timm, Hinstorff Media, Rostock

Korrektorat:Thomas Ballenberger, Hinstorff Media, Rostock

Titelbild: Fotolia, © zentilia

VerlagHeise Medien GmbH & Co. KG, Postfach 61 04 07, 30604 Hannover; Karl-Wiechert-Allee 10, 30625 Hannover; Telefon: 0511 5352-0, Telefax: 0511 5352-129

Geschäftsführer: Ansgar Heise, Dr. Alfons Schräder

Mitglieder der Geschäftsleitung: Beate Gerold, Jörg Mühle

Verlagsleiter: Dr. Alfons Schräder

Anzeigenleitung (verantwortlich für den Anzeigenteil): Michael Hanke (-167), E-Mail: [email protected], www.heise.de/mediadaten/ix

Leiter Vetrieb und Marketing: André Lux

Druck: Dierichs Druck + Media GmbH & Co. KG, Frankfurter Straße 168, 34121 Kassel

Eine Haftung für die Richtigkeit der Veröffentlich ungen kann trotz sorgfältiger Prüfungdurch die Redaktion vom Herausgeber nicht übernommen werden. Kein Teil dieserPublikation darf ohne ausdrückliche schriftliche Genehmigung des Verlages verbreitetwerden; das schließt ausdrücklich auch die Veröffentlichung auf Websites ein.

Printed in Germany

© Copyright by Heise Medien GmbH & Co. KG

Die Inserenten AT+C EDV www.atc-systeme.de S. 9

B1 www.b1-systems.de S. 27

bytec www.bytec.de S. 28

FNT www.fnt.de S. 7

Rausch www.rnt.de S. 2

Wagner www.wagner.eu S. 11

Die hier abgedruckten Seitenzahlen sind nicht verbindlich. Redaktionelle Gründe können Änderungen erforderlich machen.

Page 27: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger
Page 28: Heise Medien GmbH & Co. KG RECHENZENTREN UND INFRASTRUKTUR · UND INFRASTRUKTUR SERVER, KABEL, ... Business über Plattformen Container fürs Geschäft 14 Mehr Effizienz auf weniger