97
www.storage-insider.de B E S T O F NEUAUFLAGE!

NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

+++ So funktioniert der k-Means-Algorithmus +++ Multi Cloud: Kommt 2020 der große Durchbruch? +++ Erbarmungslos nahe - Der Verzicht auf RAID-Arrays +++ DevOps in Legacy-IT integrieren +++ Cloud-born Workplace: zukunftsweisendes Betriebsmodell +++ Ist die ePVO wirklich das Ende des Targeting? +++ Fünf Tipps für den Aufbau skalierbarer Speicherumgebungen +++ Die wichtigsten Big-Data-Technologien +++ Windows-Server mit Amazon Web Services virtualisieren +++ Server gehen immer öfter baden +++ Low-Code-Entwicklung – Ansatzund Tools +++ Mit SD-WAN in die digitale Zukunft +++ Intrusion-Detection und -Preventi-on-Systeme +++ Geschützte Quantenbits. +++ So funktioniert der k-Means-Algo-rithmus +++ Multi Cloud: Kommt 2020 der große Durchbruch? +++ Erbarmungs-los nahe - Der Verzicht auf RAID-Arrays +++ DevOps in Legacy-IT integrieren +++ Cloud-born Workplace: zukunftsweisendes Betriebsmodell +++ Ist die ePVO wirk-lich das Ende des Targeting? +++ Fünf Tipps für den Aufbau skalierbarer Speiche-rumgebungen +++ Die wichtigsten Big-Data-Technologien +++ Windows-Server mit Amazon Web Services virtualisieren +++ Server gehen immer öfter baden +++ Low-Code-Entwicklung – Ansatzund Tools +++ Mit SD-WAN in die digitale Zukunft +++ Intrusion-Detection und -Prevention-Systeme +++ Geschützte Quantenbits.

www.storage-insider.de

BEST OF

NEUAUFLAGE!

Page 2: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

BEST OFMANAGEMENT & STRATEGIE

HPE kooperiert enger mit innovativen Software-Playern ....................................................... 3

Die Cloud an sich ist nicht die Lösung für den Restore ......................................................... 7

Storage ist der Nano-Motor der IT ......................................................................................11

Die Rückkehr des Originals in die digitalisierte Kommunikation ........................................... 21

Personenbezogene Daten On- und Offline datenschutzkonform verwalten ..........................24

Datenrettung für ein einzigartiges Filmprojekt ..................................................................... 28

Speichertechnik heute und morgen ................................................................................... 31

Komprise gibt Cold Data eine Spezialbehandlung .............................................................. 36

Software-definierte Speicher sind das Bindeglied .............................................................. 40

OneDrive for Business in Office 365 konfigurieren .............................................................. 45

Fünf Schlüsselprinzipien datenzentrischer IT-Architekturen ................................................. 49

Fünf Tipps für den Aufbau skalierbarer Speicherumgebungen ............................................ 53

TECHNOLOGIE & ZUKUNFT

200 Mal schneller: IBM demonstriert massiv-paralleles In-Memory-Computing .................. 57

Software-defined Datacenter wird abgelöst von composable Infrastructure ........................ 58

Qumulo bringt skalierbares File-System für große Volumina ............................................... 66

Samsung kündigt 30,72- Terabyte-SSD an .......................................................................... 69

3,5-Zoll-SDD mit 100 TByte 3D-NAND ................................................................................71

Die Hardware-Komponenten des Panasas NAS-Clusters ................................................... 73

Die ausgeklügelte Software-Architektur des Panasas Dateisystems ................................... 76

WD beseitigt Schwächen im Petabyte-Portfolio .................................................................. 80

Verborgene Hinweise im Krebsgewebe .............................................................................. 83

Mit Zusatztools für mehr Sicherheit sorgen ........................................................................ 87

Mit „Tarnkappe“ zu mehr Festplattenkapazität .................................................................... 91

Geschützte Quantenbits .................................................................................................... 95

IMPRESSUM:Vogel IT-Medien GmbHMax-Josef-Metzger-Straße 2186157 AugsburgTel.: +49 (0) 821-2177-0Fax: +49 (0) 821-2177-150Email: [email protected]: www.vogel-it.de

Handelsregister AugsburgHRB 1 19 43Umsatzsteueridentifikationsnummer: DE 127502716

Geschäftsführer: Werner Nieberle

Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:Nico Litzel, Florian Karlstetter, Ulrike Ostler, Stephan Augsten, Andreas Donner, Peter Schmitz, Rainer Gra efen (Anschrift siehe Verlag)

Vogel IT-MedienDie Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Communications Group, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informa-tionstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind: IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, Dev-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel IT-MedienDas Fachmedienhaus Vogel IT-Medien GmbH ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeit-schriften und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedie-nen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.

Page 3: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 3

BE S T OF www.storage-insider.de

Die Storage-Ecke auf der Discover 2017

HPE kooperiert enger mit innovativen Software-PlayernEchte Storage-News gab es auf der diesjährigen Europa-Konferenz HPE Discover 2017 nur wenige. Einige interes-sante Einsichten ergaben sich aber auf der angeschlos-senen Ausstellung.

Storage als das Zentrum der diesjährigen HPE Discover zu be-trachten, wäre sicher eine Übertreibung. Im Mittelpunkt standen ganz eindeutig die Cloud- und Edge-Strategie des Herstellers. Dennoch scheint man auch auf dem Storage-Bereich eine klarere Ausrichtung gefunden zu haben, die sich vor allem bei einem Gang über die an den Kongress angeschlossene Ausstellung deut-lich offenbarte.

Den ersten, schnellsten Storage-Tier scheint HPE ansonsten fest in eigenen Händen behalten zu wollen. Hier hat man inzwischen mit 3Par, Nimble, der Hyperkonvergenz-Plattform Simplivity und der frei konfigurierbaren („Composable“) Infrastruktur Synergy, für die HPE inzwischen mehr als 1000 Kunden reklamiert, ein zeitgemäßes Portfolio zusammengekauft.

Es zeigt deutlich: Auch HPE kann es nicht mehr allein. Bei den Servern ist im kommenden Jahr zu erwarten, dass HPE erste Va-rianten mit dem von Intel und Micron gemeinsam entwickelten nichtflüchtigen Technologie 3D XPoint auf den Markt bringen wird.

Auf der an die HPE

Discover angegliederten

Ausstellung waren auch

zahlreiche neue

Storage-Partner mit

innovativen Software-

lösungen vertreten,

hier der Stand von

Kooperationspartner

Commvault.

Bild

: Aria

ne R

üdig

erMANAGEMENT & STRATEGIE

nicht löschen wird für das automatische Inhaltsverzeichnis benötigt!

Page 4: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 4

BE S T OF www.storage-insider.de

Frühe Plattformabsichten

Ansonsten verlautbarte HPE, man werde die Plattformen Simpli-vity und Synergy auf Dauer zusammenführen. Weiter ist geplant, Infosight, die intelligente Analysesoftware von Speicher-Aufkauf Nimble zunächst auf alle übrigen Speicherplattformen, als erstes auf 3Par, auszudehnen. Wann genau das passieren wird, sagte HPE allerdings nicht. Später soll dann die gesamte Infrastruktur-palette von HPE mit Infosight-Mechanismen überwacht werden. Mit ihnen ist es möglich, viele Fehler – angeblich 86 Prozent - und beispielsweise den Speicherbedarf von Applikationen vor-herzusagen. Alain Andreoli, Präsident Hybrid IT: „Level-1- und Level-2-Fehler sind jetzt selbstheilend, erst auf Level 3 müssen Supportspezialisten an die Arbeit gehen.“

Zudem stellt HPE seinen Kunden die gesamte Online gesammel-te Infosight-Knowledge-Base, die Daten aus dem Gerätebetrieb aller Nimble-Anwender umfasst, anonymisiert zur Verfügung, so dass sich Einzelfälle nicht identifizieren lassen. Damit können sie beispielsweise ihre Installation mit anderen ähnlich gelagerten vergleichen und Hinweise für die Optimierung erhalten.

Vom Memristor, HPEs Halbleiterplattform, gibt es auch weiter-hin keinen Durchbruch zu melden. Der designierte Whitman-Nachfolger Antonio Neri verwies auf laufende Versuche, die Pro-duktion zu optimieren, damit die neuartigen Speicherbausteine zu lohnenden Kosten hergestellt werden können. Ohnehin sei die neue Speichertechnologie erst dann so richtig sinnvoll, wenn die für das IoT-Zeitalter prognostizierten Datenmassen anrollen.

Filesystem für die Multi Cloud

Interessant ist, was sich auf der zweiten und nachgelagerten Spei-cherebenen tut, wo Daten zwar schnell, aber nicht sofort, wie etwa Transaktionsdaten, zur Verfügung stehen müssen. Hier scheint HPE inzwischen auf die Kooperation mit besonders inno-vativen Hard- und Softwarepartnern abzuheben. Von denen gab es in Madrid einige zu besichtigen.

So bietet HPE zusammen mit Commvault unter dem Label Green-lake Flex Capacity einen Backup-Service mit flexibler, nach Nut-zung abgerechneter Speicherkapazität an.

Viele der neuen Partner verwenden als Hardware-Basis ihrer Softwarelösungen die Apollo-Systeme oder andere HPE-Server, vorzugsweise Gen10, die Software verkauft HPE bei Kundenbe-darf als OEM-Leistung obendrauf.

Page 5: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 5

BE S T OF www.storage-insider.de

Qumulo etwa, gegründet 2012, hat mit dem Produkt File Fab-ric ein neues Scale-out Filesystem für Hybride Clouds entwickelt und ist damit seit Juni OEM von HPE. Die Software wird zusam-men mit den Apollo-Systemen, ab 2018 auch mit Gen10, der ak-tuellen Servertechnologie von HPE, vertrieben. Am 1. Dezember eröffnete Qumulo ein deutsches Büro.Das Startup arbeitet mit Erasure Coding, verteilt die codierten Daten also so, dass sie auch dann ohne separates Backup auf jeden Fall wieder hergestellt werden können, wenn Systeme ausfallen. Die Minimalversion eines Clusters, auf den Daten verteilt werden können, hat vier Knoten. Gespeichert wird auf SSDs und Fest-platten. Üblicherweise kaufen Anwender mindestens 200 TByte nutzbare Kapazität, die in Blöcken zu je 10 TByte lizenziert wird. Außerdem gibt es die Software auch als Service bei AWS.

Metadaten weisen den SpeicherortBekannt ist Qumulo besonders für seine analytischen Manage-mentanwendungen, die genau feststellen, welche Filetypen am häufigsten abgefragt werden oder wo sich Verkehrsengpässe bil-den. Zu den Kunden gehört der langjährige HPE-Kunde Dream-works. „Wir haben viele Abnehmer aus Medienbranche und Enter-tainment“, sagt Jim Beggans, Director Alliances bei Qumulo. Für diese Branche ist der Umgang mit großen Files selbstverständlich.Auch Hedvig ist seit 1. November HPE-OEM-Partner, und auch hier dient Apollo als Hardwareplattform. Das gleichnamige File-system trennt die Anwendungen, über die Nutzer auf gespeicherte Daten zugreifen, logisch von der Datenebene. Dadurch ignoriert die Software, um welche Plattform, welche Protokolle und wel-che Workloads es sich handelt. Die Anwender nutzen dieselben Schnittstellen wie bisher, greifen aber, ohne dies wahrzunehmen, lediglich auf Metadaten zu, die dann wiederum den Weg zu den gesuchten Daten finden.Für die unterschiedlichen Datenformen braucht man deswegen weder getrennte Speichermedien noch getrennte Kompartimente auf einem Speichersystem. CEO Avinash Lakshman konnte bis-her 50 Kunden vom Wert dieser Herangehensweise überzeugen, mit HPE bekommt das Unternehmen nun einen Hebel, der mit etwas Glück die Unternehmensentwicklung vorantreiben dürfte.

Partner auf dem PrüfstandSchon seit 2014 mit von der HPE-OEM-Partie ist Scality, ein Anbieter software-definierter Storage-Lösungen. Die Hälfte des

Page 6: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 6

BE S T OF www.storage-insider.de

Scality-Umsatzes, dessen Spezialität der Umgang mit unstruk-turierten Daten in Petabyte-Dimensionen ist, stammt von HPE. Außerdem hält das Unternehmen zehn Prozent an dem Storage-Newcomer. Eine typische Anwendung ist die Speicherung der Daten bildgebender medizinischer Verfahren. Bereits um die hundert Kunden hat der Ansatz überzeugt. In Zukunft sollen Software und HPE-Hardware enger verzahnt werden, um poten-zielle Effizienz-Vorteile abzuholen.

Nicht immer geht es bei den Kooperationen mit Storage-Neu-lingen um Apollo: Beim Backup-Spezialisten Cohesity besteht die Hardwarebasis aus Proliant-DL-360-Maschinen, zukünf-tig der Gen10, die als Backup-Knoten konfiguriert werden. Die Minimalkonfiguration besteht aus drei Knoten, von denen jeder 30.000 Dollar kostet, nach oben sind die Grenzen offen. Inline-Deduplizierung und -Kompression, wobei beides auf den vorge-schalteten Systemen stattfindet, gehören zu den Leistungen der Lösung. Separate Speichergeräte und Backupsoftware entfallen, was den recht hoch erscheinenden Preis wieder relativiert.

Das erst zwei Jahre existierende Startup Cohesity hat außer HPE auch Cisco als Partner gewonnen und konkurriert zudem mit ei-gener Hardware um Kunden. Der virtuelle I/O-Spezialist Zerto, spezialisiert auf Disaster Recovery in der Cloud, gehört ebenfalls zur HPE-OEM-Riege. HPEs Beraterzweig Pointnext verwendet das Tool für Migrationen. In hybriden Infrastrukturen könnte Microsoft Azure als DR-Ziel fungieren. Schließlich ist HPE mit dem Cloud-Zweig von Microsoft eng verbandelt.

Die Beispiele zeigen: Offensichtlich sieht es HPE nicht als seine primäre Aufgabe, neue Softwarelösungen für Spezialaufgaben der Speichertechnik zu entwickeln und kooperiert dafür lieber mit anderen – möglicherweise aus der Überlegung heraus, dass man die eigenen Energien im Bereich der Storage-Softwareer-stellung lieber auf Lösungen rund um den Memristor konzent-riert, der in dem Zukunftsprojekt „The machine“ den Kern einer neuen IT begründen soll. ■ Ariane Rüdiger

Page 7: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 7

BE S T OF www.storage-insider.de

Moderne Programmierung und verteilte Daten-haltung schaffen neue Backup-Probleme

Die Cloud an sich ist nicht die Lösung für den RestoreWer gedacht hat, seine Strukturen für die Datensiche-rung sind bombenfest da lange erprobt, sieht sich durch die neuen Speicherorte in der IT erneut vor Probleme ge-stellt. Wie sichert man Container-Daten oder Informatio-nen in verteilten Clouds und Data Center? Wer kümmert sich um die Abwehr von Ransomware und wie schnell sind Daten nach einem Gau wieder verfügbar?

Unter Druck geraten insbesondere Firmen, die Software as a Ser-vice (SaaS) nutzen und ihre Daten bei großen Cloud-Providern lagern. Die halten mit ihren Warnungen nicht hinter den Berg, etwa Microsoft: „Bei Office 365 geht es um Ihre Daten. Sie gehö-ren Ihnen und Sie kontrollieren sie auch.“

Salesforce empfiehlt, sich eine Backup-Lösung aus dem Partner-verzeichnis zu suchen und Google konstatiert: „Ganz einfach ge-sagt, Google besitzt Ihre Daten nicht.“

Ohne Datensicherung kein Restore möglich

Die Warnungen sind berechtigt, sollen doch laut einer Umfrage der ehemaligen EMC-Tochter Spanning unter 1.000 IT-Entschei-dern in den US und Großbritannien 77 Prozent der Nutzer von SaaS innerhalb von zwölf Monaten mindestens einen Vorfall mit Datenverlust beklagen.

Eingang zum Head-

quarter von Rubrik in

Palo Alto.

(Bild

: KR

iem

hild

e K

lipp

stät

ter

Page 8: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 8

BE S T OF www.storage-insider.de

Denn die SaaS-Anbieter tragen nur die Verantwortung für Fehler in Hardware- und Software, für Stromausfall, Naturkatastrophen und Löschaufträge. Programmfehler, menschliches Versagen, Sa-botageakte von Internen und Externen sowie Bedrohungen durch Viren und Ransomware bleiben im Entscheidungs- und Abwehr-bereich der Nutzer.

Analysten von Gartner oder ESG Research machen auf die Be-drohung ebenfalls aufmerksam. ESG etwa stellt fest: „Wenn Sie Cloud-Applikationen nutzen und keine Lösung für die SaaS-Da-tensicherheit verwenden, sinkt der Status ihrer Daten von bisher sehr gut geschützt auf ungeschützt.“

Bei Gartner liest sich das so: „Einige Organisationen haben viel-leicht übersehen, dass die Verfügbarkeit- und Recovery-Möglich-keiten der SaaS-Anbieter nicht ausreichen, um sich vor Datenver-lust durch Fehler, Datenbeschädigung und schädliche Angriffe zu schützen.“

Die Gefahren für ungeschützte Daten bei SaaS-Anbietern werden langsam zur Kenntnis genommen. Nicht umsonst findet man im Silicon Valley - und nicht nur dort - eine Reihe von Startup-Un-ternehmen, die sich genau diesen Themen widmen und mit neuen Lösungen in den Markt drängen.

Dazu erkennen auch die etablierten Platzhirsche, dass die Daten-sicherung komplizierter geworden ist und die Archivierung von Daten keine Lösung für aktive Applikationen darstellt. Nachfol-gend zwei Unternehmen, die ich kürzlich im Auftrag von Sto-rage-Insider vor Ort in den USA besucht haben.

Spanning: Datensicherung fürs Cloud-Computing

Die Geschichte der texanischen Spanning Cloud Apps ist eng mit Dell und EMC verbunden. Die Company, einst als Startup in Austin gegründet, wurde 2014 von EMC übernommen und dort in die Data Protection Group eingegliedert. Ein Jahr später kam mit „Backup for 0365“ das bislang erfolgreichste Produkt des Un-ternehmens auf den Markt.

Im gleichen Jahr eröffnete das Unternehmen ihr europäisches Data Center in Dublin für das Backup von Salesforce-Daten, ein Jahr später für 0365-Daten. Als Dell im September 2016 EMC übernahm, „gingen wir in der neuen Organisation verloren“, be-schreibt Spanning-CEO Jeff Erramouspe die verzwickte Situati-on und den Grund dafür, dass er sich Ende 2016 zusammen mit 54 Mitarbeitern aus dem neuen Verbund löste.

Page 9: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 9

BE S T OF www.storage-insider.de

Im April diesen Jahres übernahm der Venture-Kapitalist Insight Ventures Partners das junge Unternehmen und seitdem geht es steil bergauf: Mehr als 8100 Kunden, ein Drittel davon in Europa, vertrauen auf Spanning, der Umsatz wächst in diesem Jahr um 90 Prozent, pro Woche werden mehr als 2 Milliarden Items gesichert. Dabei hat man Dell/EMC nicht komplett den Rücken gekehrt, sondern bleibt strategischer Partner. Derzeit wird über ein OEM-Abkommen für die Backup-Lösungen von Spanning nachgedacht.

Der Firmenchef erklärt seine Produkte so: „Spanning Backup ist eine Cloud-to-Cloud Datensicherungslösung, die von Anfang an für SaaS-Unternehmen entwickelt wurde.“ Der Cloud-to-Cloud-Service soll sich in Minuten installieren lassen, zusätzliche Hard- oder Software entfällt. Die Lösung erfüllt die Sicherheitsnormen SOC 2 type II und HIPAA (für Daten im US-Gesundheitswesen) und bietet End-to-end-Verschlüsselung.

Derzeit werden die Backup-Lösungen von Spanning für Office 365, Salesforce und die G-Suite von Google Cloud angeboten. Die Kunden, unter ihnen Adidas, das seine Salesforce-Kundendaten damit absichert, profitieren insbesondere von den umfangreichen Restore-Möglichkeiten: Beispielsweise ist die Point-in-Time-Recovery vor allem beim Befall mit Ransomware hilfreich und die „genaue und granulare Suche sorgt dafür, dass der Restore schnell und genau erfolgt“, wirbt Erramouspe. Der Restore der Daten darf – dank intuitiv zu bedienendem Design - auch vom Endbenutzer und von fast jedem Gerät (Desktop, Tablet, Smart-phone) aus angestoßen werden.

Was die europäischen Belange angeht, verspricht Spanning, spä-testens bis Mai 2018 die Compliance-Regeln von GDPR zu erfül-len. Spanning nutzt Amazon AWS, trennt aber die Metadaten von S3. Demnächst könnte auch MS Azure als Plattform zum Zug kommen und: Data Analytics steht auch im Fokus der weiteren Entwicklung.

Rubrik: Cloud Data Management

Noch einen Schritt über Backup und Restore hinaus geht Rubrik mit seinem System und nennt das „Cloud Data Management“. Zu den Funktionen Backup, Instant Recovery, Replikation, Suche, Compliance und Archivierung gesellen sich unter einem skalier-baren Dach noch Analyse und Copy Data Management.

Die Company aus Palo Alto, Kalifornien, wurde 2014 gegrün-det und beschäftigt bereits rund 650 Arbeitnehmer. „Pro Monat

Page 10: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 10

BE S T OF www.storage-insider.de

kommen zwischen 40 und 45 neue Mitarbeiter hinzu“, beschreibt CEO und Mitgründer Bipul Sinha, was sich derzeit in seiner Fir-ma abspielt. Seit der Gründung hat das Startup-Unternehmen insgesamt 292 Millionen Dollar von Ventrue-Capital-Partnern eingesammelt, „darunter ist keine IT-Firma“, bekräftigt der CEO die Eigenständigkeit.

Die Scale-out-Lösung beruht unter anderem auf folgenden Kom-ponenten. Ein distributed Filesystem, das für „Infinite Storage“ und „skalierbare I/O-Perfomance“ sorgen soll. Mit Infinite Sto-rage ist es nicht notwendig, viele Storage-Systeme zu verwalten und Daten zwischen ihnen zu verteilen. Skalierbare I/O-Perfor-mance erlaubt es, verschiedene Anwendungslasten auf einem System abzuarbeiten und so den Belangen aller Geschäftseinhei-ten gerecht zu werden.

Die wichtigste Komponente im Rubrik-System nennt sich „Cere-bo“. Dahinter verbirgt sich das „Gehirn“, der Daten-Management-Layer. Er koordiniert die Lageveränderung der Kundendaten von der ersten Erfassung an und schlägt eine Weiterleitung auf andere Lokationen vor etwa zu Cloud-Speichern oder entfernt liegende Cluster für Replikationszwecke.

In Cerebro sitzt auch die Logik für Deduplizierung und Daten-kompression. Zudem verbindet Cerebro den API-Integration Lay-er mit den verschiedenen Storage-Layern - dem hauseigenen „At-las“ und von Cloud-Anbietern wie Amazon und Google. Dazu benutzt Cerebro ein distributed Metadaten-System, das in einem schnellen RAM-Speicher abgelegt ist und ein Task-Framework, das alle Aufgaben über das gesamte System hinweg ausführt, für die Einhaltung der SLAs sorgt und die Daten auf Effizienz unter-sucht damit sie schnell wiederhergestellt werden können.

Arvid Nithrakashyap, Rubrik CTO und Mitbegründer, fasst zu-sammen, was die heutigen „Always-on Services“ benötigen:

● 1. Die Applikationen von der Infrastruktur lösen,

● 2. Den Applikationen erlauben, sich – basierend auf SLAs und Sicherheitskriterien – frei zu bewegen und

● 3. Die Cloud nutzen, um beweglich zu bleiben, denn sie ist schnell und kann als Recovery Center genutzt werden.

Rubrik sieht sich für diese Aufgaben bestens gewappnet, denn „unsere Company ist in der Cloud geboren.“ ■ Kriemhilde Klippstätter

Page 11: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 11

BE S T OF www.storage-insider.de

Storage & Data Analytics Technology Conference 2018

Storage ist der Nano-Motor der ITAm 22.3. findet in Stuttgart die erste von vier Veranstal-tungen der Vogel IT-Akademie zum Themenkomplex Storage & Data Analytics statt. Storage-Insider hat mit Professor Dr. Brinkmann gesprochen, der in diesem In-terview ganz ausführlich zusammenfasst, was sich im Storage-Umfeld in den nächsten Jahren ändern wird.

Storage gilt vielen Beobachtern der IT-Szene als, nett gesagt, Commodity. Sie halten KI, autonome Vehikel, virtuelle Realitä-ten und anderes mehr für aufregender, bekommen darüber aller-dings nicht mit, dass diese modernen Anwendungen in einer er-heblichen Performance-Klemme stecken. Nur massive Änderungen in der Speichertechnik wird das Scheitern vieler Projekte verhindern. Das klingt dramatisch. Wenn Sie diesen Ar-tikel gelesen haben, könnte es sein, dass sie ihre Meinung än-dern.

CIOBRIEFING: Herr Professor Brinkmann, Sie halten dem-nächst eine Keynote vor den Teilnehmern der Storage & Data Analytics Conference 2018. Was wird Ihr Thema sein?

André Brinkmann: Schwerpunkt des Vortrags werden die Mög-lichkeiten sein, die sich aus dem Einsatz von Storage Class Me-mory (SCM) in Server-Architekturen ergeben. SCM verspricht als byte-adressierbare Speichertechnologie die Geschwindigkeits-vorteile von DRAM mit dem nichtflüchtigen Verhalten von Flash und magnetischen Festplatten zu verbinden. Dieses beinhaltet, dass SCM deutlich preiswerter und damit größer als DRAM sein kann und gleichzeitig Daten auch über Ausfälle oder Boot-Vor-gänge hinweg sicher speichert. Die Speicherhierarchie wird somit um eine weitere Komponenten mit neuen Eigenschaften erwei-

Veranstaltungstermine

der Storage & Data

Analytics:

Stuttgart: 22.3

Hamburg: 10.4

Wiesbaden: 24.4

Köln: 26.4

Bild

: Vog

el IT

-Aka

dem

ie

Page 12: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 12

BE S T OF www.storage-insider.de

tert, die es ermöglicht, leistungsfähige Prozessoren schneller mit Daten zu versorgen und somit die Geschwindigkeitsvorteile von Mehrkernarchitekturen zu nutzen.

SCM steht für eine gesamte Klasse von Speichertechnologien, bei der heute noch kein klarer Gewinner vorausgesagt werden kann.

Die Bandbreite der Technologien reicht von

Phase Change Memory (PCM), bei dem über Temperaturände-rungen die Leitfähigkeit des zugrundeliegenden polykristallinen Chalcogenids verändert wird,

Race Track-Memory, das magnetische Zellen innerhalb eines Drahtes verschiebt oder

Spin-transfer torque memory (STT-RAM) als eine Ausprägung des magnetorestiven Speichers (MRAM).

Die verschiedenen Technologien haben dabei unterschiedliche Ein-satzgebiete. Phase Change Memory ermöglicht eine höhere Dichte als DRAM und kann somit zu einem günstigeren Preis gefertigt werden, wohingegen STT-RAM schnellere Zugriffe als DRAM ermöglicht, aber einen höheren Flächenverbrauch aufweist und somit zum Beispiel als Cache zum Einsatz kommen kann.

CIOBRIEFING: Mit einem Halbleiterspeicher wie Flash wird eine „riesige“ Latenzlücke zwischen DRAM und Fest-platte geschlossen. SCM ist allerdings mehr als noch ein Spei-chermedium, es ist eine prozessornahe Speicherorganisation. Welche Auswirkungen hat das auf die IT?

André Brinkmann: Eine neue Ebene in der Speicherhierarchie erfordert aber auch immer Anpassungen der zugrundeliegenden Server-Technologien. Flash konnte in Form von SSDs über eine Block-Schnittstelle relativ einfach in bestehende Server-Archi-tekturen eingebunden werden und hat insbesondere bei Daten-bankanwendungen schnell Vorteile aufzeigen können.

Eine effiziente Nutzung von Flash als Read-/Write-Speicher hat es aber erfordert, dass die Lebenszeit von Flash durch bessere Algorithmen in dem Flash Translation Layer (FTL) und einen höheren Overprovisioning-Faktor verbessert wurde.

Eine optimierte Geschwindigkeit hat weiterhin die Einführung neuer Schnittstellentechnologien wie NVMe sowie schnellere Kontroller erfordert. Der gesamte Prozess hat dabei mehr als 10 Jahre benötigt und wir sind heute bei mehreren 100.000 IOPS pro

Page 13: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 13

BE S T OF www.storage-insider.de

SSD und Lebenszeiten von fünf Jahren bei 10 Drive Writes pro Tag angekommen. Diese Daten waren noch vor wenigen Jahren nicht denkbar.

Eine ähnliche Entwicklung wird die Einführung von SCM neh-men. Die Vorteile von SCM können sofort genutzt werden, wenn SCM „einfach“ über eine Blockschnittstelle zur Verfügung ge-stellt wird. Dabei wird SCM höhere IOPS-Zahlen als Flash auf-weisen. Eine Adaptierung von Programmen, so dass alle Eigen-schaften von SCM genutzt werden können, wird aber nur über mehrere Server- und Programm-Generationen möglich sein.

Ein Aspekt, der hierbei noch einmal an Bedeutung gewinnen wird, ist die Lokalität von Daten. Ein lesender Zugriff auf eine SSD erfordert heute nur noch wenige zehn µ-Sekunden. Dieser lesende Zugriff liegt dabei in der gleichen Größenordnung wie die Latenz, um Daten zwischen zwei Servern über ein Netzwerk zu bewegen, ein schreibender Zugriff auf eine SSD ist sogar deutlich langsamer. SCM-Technologien versprechen Lese- und Schreiblatenzen von unter 100 ns, der Zugriff auf das Speicher-system ist somit erstmalig deutlich schneller als die

Netzwerklatenz und Leselatenzen können nicht mehr versteckt werden. Die Vorteile von SCM können daher nur dann vollstän-dig genutzt werden, wenn der zugreifende Server den Speicher direkt hostet.

CIOBRIEFING: Storage Class Memory verbindet zur Zeit Flash-Memory als sozusagen permanenter Speicher mit DRAM. Wie funktioniert das Zusammenspiel zwischen bei-den Komponenten? Wann werden wir SCM-Produkte sehen?

André Brinkmann: Die Gemeinsamkeit von DRAM und SCM ist, dass beide direkt in den Speicherbus des Prozessors einge-setzt werden und über die gleichen Protokolle zugegriffen werden können. Hieraus ergeben sich aber auch direkt die Herausforde-rungen der neuen Technologie. Der Prozessor sieht und verwaltet SCM (falls nicht als Festplatte gekapselt) auf die gleiche Art und Weise wie Hauptspeicher. Zugriffe auf SCM werden somit di-rekt in die Cache-Lines des Prozessors geladen, bzw. gesichert und durch diese noch einmal beschleunigt. Während der Rechner korrekt funktioniert, stellt der Prozessor über sein Cache-Proto-koll sicher, dass immer die aktuellsten Daten im Hauptspeicher und im SCM genutzt werden.

Page 14: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 14

BE S T OF www.storage-insider.de

Dieses sieht bei einem Ausfall der Stromversorgung jedoch kom-plett anders aus. Bisher waren die Daten in dem Cache und in dem Hauptspeicher einfach verloren und das System musste auf Basis des Dateisystems neu starten. Daten im SCM sind aber nach einem Neustart des Servers weiterhin verfügbar und es ist somit notwendig, dass die Daten in dem SCM zu jedem Zeit-punkt einen konsistenten, d.h. sinnvollen Zustand der zugreifen-den Programme abbilden.Programme, die SCM nutzen, müssen daher die Caching-Proto-kolle des Prozessors mit betrachten, so dass nicht im schlimmsten Fall ein Teil der im Cache gespeicherten Daten im SCM gesichert werden, die nur unter Zuhilfenahme weiterer, noch im Cache be-findlicher Daten Sinn ergeben. Die Konsistenz der Daten kann zum Beispiel durch Cache Flushes und Barrieren bei dem Zu-griff auf den Hauptspeicher sichergestellt werden. Ein Flush des kompletten Cache sowie Barrieren sind aber kostspielige Opera-tionen, die den Zugriff auf SCM deutlich verlangsamen würden.Einige Prozessorhersteller passen daher bereits ihre Cache-Ar-chitekturen an, so dass der Programmierer einen fein-granula-ren Zugriff auf den Cache bekommt und zum Beispiel einzelne Cache-Lines in den Hauptspeicher zurückspielen kann. Weiter-hin können diese Flushes so genutzt werden, dass nicht gleichzei-tig auch die Cache Line invalidiert wird und somit Daten immer wieder aus dem SCM geladen werden müssen, die eigentlich be-reits im Cache gespeichert sind.Eine weitere Herausforderung ist die Sicherheit bei der Nutzung von SCM, insbesondere im Cloud-Umfeld. Daten, die einen Neu-start eines Rechners überleben, können prinzipiell in den Ad-ressraum eines unprivilegierten Prozesses eingebunden werden, wenn diese von dem Betriebssystem vor der Vergabe nicht über-schrieben werden.SCM als Hauptspeicherergänzung ist bisher nur in relativ klei-nen Kapazitäten erhältlich. Eine interessante Alternative sind DRAM-Bausteine, die im Fall eines Stromausfalls durch Flash-Speicher gepuffert werden. Weiterhin ist die Unterstützung durch Prozessoren und Betriebssysteme noch gering. Produkte, die auf „echtem“ SCM basieren, werden bereits seit längerem angekün-digt, werden aber bestenfalls in kleinen Kapazitäten ausgeliefert.

Eine alternative Bereitstellung von SCM ist die Kapselung über eine Block-Schnittstelle. Erste Systeme werden hier bereits von Herstellern angeboten. SCM kann dann wie Flash über NVMe als „Festplatte“ bereitgestellt werden, ohne dass die Programme

Page 15: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 15

BE S T OF www.storage-insider.de

oder das Betriebssystem hierfür geändert werden müssen. Ein Großteil der Geschwindigkeitsvorteile von SCM gegenüber Flash kann dann natürlich nicht genutzt werden, da der Overhead eines Dateisystems und der Blockschnittstelle diese wieder aufheben.Vorteile von SCM gegenüber Flash ergeben sich aber auch in die-sem Fall. Flash kann eine hohe Anzahl von IOPS nur dann er-zielen, wenn jederzeit viele Anfragen auf alle Kanäle und Chips auf der SSDs erfolgen. Dieses liegt daran, dass einzelne Anfra-gen eine relativ hohe Latenz haben und die Flash-Bausteine die Geschwindigkeit einer SSD limitieren. Bei SCM-basierten Spei-chersystemen hingegen ist der Kontroller die limitierende Kom-ponente und die Latenz der Zugriffe ist gering. Selbst bei we-nigen parallelen Zugriffen kann somit eine geringe Latenz und prinzipiell eine hohe IOPS-Anzahl ermöglicht werden.

CIOBRIEFING: Können Anwendungen aus dieser neuen SpeichertechnikohneweitereModifikationenVorteileziehen?

André Brinkmann: Es bieten sich zwei Möglichkeiten, aus dem Einsatz von SCM auch ohne weitere Modifikationen der Anwen-dungen direkte Vorteile zu erzielen.Wie bereits im Rahmen der vergangenen Ausführungen ange-merkt, kann SCM über eine Blockschnittstelle wie eine Festplatte bereitgestellt werden. Die Protokolle und Konsistenzeigenschaf-ten entsprechen somit denen einer Festplatte oder einer SSD und die Anwendungen können direkt von den geringeren Latenzen und einer höheren Bandbreite des SCM profitieren. Latenzen be-wegen sich in diesem Fall aber immer noch im µs-Bereich, da der Software-Stack des Dateisystems und der Blockebene durchlau-fen werden muss.Verbesserungen versprechen hier direct access (DAX)-Erweite-rungen von Dateisysteme, die Dateien in den virtuellen Speicher der Anwendungen einblenden, so dass nur noch Metadatenope-rationen durch das Betriebssystem verwaltet und somit ein teurer Sprung in den Kernelkontext nur selten vorgenommen werden muss. Der eigentliche Datenzugriff erfolgt dann wie der Zugriff auf den Hauptspeicher. Shadow Paging, das Daten nicht direkt überschreibt, verspricht hier, die Konsistenz der Daten ohne Mit-wirkung der Anwendungen sicherzustellen. Daten werden von dem Dateisystem erst dann aktualisiert, wenn die Anwendung die Datei schließt oder eine Synchronisierung vornimmt. Diese Aktualisierungen können dann atomar erfolgen, indem Zeiger in dem Dateisystembaum einfach umgehängt werden.

Page 16: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 16

BE S T OF www.storage-insider.de

Eine weiter Möglichkeit zur transparenten Nutzung von SCM besteht darin, dass die Persistenzeigenschaft von SCM nicht ge-nutzt wird und SCM einfach als „billige“ Hauptspeichererweite-rung eingesetzt wird. Server können somit mit mehr Hauptspei-cher ausgestattet werden, ohne dass hochpreisige DRAM-Chips höchster Kapazität eingebunden werden.Die Steigerung der Geschwindigkeit hängt dabei aber stark von der Anwendung und auch von dem verwendeten Caching-Algo-rithmus ab. SCM ist deutlich schneller als Flash und die Zugriffs-geschwindigkeiten bewegen sich in einer vergleichbaren Größen-ordnung wie die Zugriffszeiten auf Hauptspeicher. Dennoch sind die meisten (und insbesondere die preiswerten) SCM Technolo-gien beim Lesen und Schreiben langsamer als Hauptspeicher und somit würde sich eine Anwendung verlangsamen, wenn sie vor-rangig auf dem SCM arbeitet. Der Unterschied kann beim Schrei-ben dabei noch einmal größer als beim Lesen sein.Es ist somit notwendig, dass ein Caching-Algorithmus Daten zwi-schen Hauptspeicher und SCM verschieben kann, so dass hoch-frequent zugegriffene Daten im Hauptspeicher liegen und weni-ger wichtige Daten oder Daten, die vorrangig gelesen werden, im SCM gesichert sind. Die Fähigkeit des Caching-Algorithmus, Daten derart aufzuteilen, hängt aber auch an den Eigenschaften der Anwendungen. Falls diese ein zufälliges Zugriffsmuster auf-weist und keine Lokalität sicherstellen kann, kann sich der Algo-rithmus auch nicht an die Zugriffsmuster anpassen.Eine weitere Eigenschaft von SCM ist in diesem Zusammen-hang zu betrachten. Verschiedene SCM Technologien, wie Pha-se Change Memory, altern wie Flash bei Schreibzugriffen. Im Gegensatz zu Flash, dass über ein Wear-Leveling und eine ge-genüber dem Hauptspeicher langsame Schnittstelle verfügt, kann aber auf SCM deutlich schneller zugegriffen werden und es ist somit möglich, SCM in kürzester Zeit altern zu lassen. Erfahrun-gen mit dem realen Einsatz von SCM werden zeigen, inwieweit Speicherallokatoren im Betriebssystem und im Virtual Memory Management in der Lage sein werden, diesen Alterungsprozess in Grenzen zu halten und über den gesamten SCM zu verteilen.

CIOBRIEFING: Passen SCM und SDS zusammen? (High-speed im Server versus Massenspeicher über Ethernet)

André Brinkmann: Die Zusammenführung von SCM und Soft-ware-defined Storage (SDS) scheint auf den ersten Blick wider-sprüchlich. SDS ermöglicht es prinzipiell, Speichersysteme un-

Page 17: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 17

BE S T OF www.storage-insider.de

abhängig von einem Hardware-Hersteller preiswert zu skalieren und bildet in der Speicherhierarchie von Unternehmen eher eine untere Ebene ab, an die teilweise auch entsprechend geringere Verfügbarkeits- und Geschwindigkeitsanforderungen geknüpft werden. Bei SCM handelt es sich auf der anderen Seite um den schnellsten (und teuersten) persistenten Speicher in einem Re-chenzentrum.

SCM ist aber per Definition durch seine enge Integration in die Rechner Software-defined. Sowohl Virtualisierungs-, als auch Cloud-Umgebungen müssen SCM verstehen, in ihre Manage-ment-Infrastruktur einbinden und Daten zwischen den einzelnen Hierarchieebenen migrieren, um SCM auch als persistenten Spei-cher nutzen zu können.

Neben diesem Mehraufwand bei der Integration von SCM in SDS-Strukturen bieten sich hierdurch aber eine Reihe von Chan-cen, die aber auch ein neues Denken bei dem Aufbau von SDS und Rechenzentren im Allgemeinen erfordern. Neben der einfa-chen Nutzung als Cache für Daten bietet SCM die Möglichkeit, eine engere Kopplung zwischen Rechen- und Speicherressourcen voranzutreiben. (Kleinere) Anwendungen und Micro-Services können bei Bedarf direkt zu den auf SCM gespeicherten Daten migriert werden und von der hohen Zugriffsgeschwindigkeit auf das SCM profitieren.

Dabei scheinen auch für den Aufbau von SCM-Pools Objektspei-cher eine interessante Alternative, da Objektspeicher das Rech-temanagement direkt in den Objekten speichern können und die zu einem Objekt gehörigen Daten auf wenigen Servern gesichert werden können. Die Verwaltung der Objektspeicher wiederum kann auf die Konzepte der Peer-to-Peer-Systeme und die dyna-mische Datenverteilung zurückgreifen, die auch die Grundlage vieler SDS-Systeme bilden. Das Speichersystem wird hierdurch, insbesondere bei der Nutzung von Micro-Services, zu einem Server, eine klare Trennung zwischen beiden Eigenschaften wird unmöglich.

SCM kann aber auch direkt einige der Nachteile von SDS-Sys-temen und hier insbesondere von objekt-basierten Systemen ab-mildern. Klassische Dateisysteme haben über ihre Verzeichnisse eine „natürliche“ Ordnung bei dem Zugriff auf Daten, da zusam-mengehörige Daten häufig in dem gleichen Verzeichnis abgelegt werden. Die Skalierbarkeit von Objektspeichern wird aber gerade durch das Aufbrechen der Strukturen gewonnen und flache Ob-jektspeicher kennen den semantischen Zusammenhang zwischen

Page 18: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 18

BE S T OF www.storage-insider.de

verschiedenen Objekten nicht mehr. Sie können daher zusam-mengehörige Metadaten nur sehr schwer gemeinsam cachen.

CIOBRIEFING: Auch wenn Metadaten heutzutage einen schlechten Ruf genießen, ohne diese Abstraktionsebene von Inhalten,wirdmandie„StecknadelimHeuhaufen“nichtfin-den können.

André Brinkmann: Das stimmt, aber SCM ermöglicht es nun, mehr Metadaten im Hauptspeicher oder auf sehr schnellem Se-kundärspeicher zu halten und somit die Zugriffszeiten auf diese Metadaten deutlich zu reduzieren. Die Reaktionszeiten von SDS-Systemen sollten sich somit deutlich verbessern lassen.

Im Augenblick sieht es so aus als ob die Verbindung zwischen Prozessor und Speicher wie auch die Entwicklungsgeschwindig-keit bei der Anwendungsprogrammierung weitere Innovationen verhindern, die eigentlich für die Datenanalyse notwendig wären.

Datenanalysen sind naturgegeben durch die Geschwindigkeit li-mitiert, mit der die beteiligten Prozessoren mit Daten versorgt werden können. Insbesondere bei komplexen Datenzusammen-hängen, die nicht-sequentielle Zugriffe auf die Daten erfordern, kommen SSDs und magnetische Festplatten schnell an ihre Gren-zen und bilden den Flaschenhals des Gesamtsystems.

Reine In-memory Datenbanken und Datenanalyseumgebungen wie Spark ermöglichen es, diesen Flaschenhals nach dem Ein-lesen der Daten zu umgehen. Auf Spark aufsetzende Pakete wie Alluxio bilden einen zusätzlichen Cache, der das Rückschreiben von Daten auch zwischen den verschiedenen Phasen einer Daten-analyse verhindert, indem er die Hauptspeicher der beteiligten Knoten in einem Pool zusammenfasst und Daten in diesem Pool speichert. Zugriffe auf persistenten Speicher können hierdurch häufig komplett umgangen werden.

Klassische Datenanalysen profitieren von SCM daher nur in-sofern, dass sich der Hauptspeicher deutlich vergrößern lässt. Vergleichbares gilt für das Trainieren großer neuronaler Netze. Durch mehr Hauptspeicher können mehr Gewichte trainiert und komplexere Netze gebaut werden. Auch können mehr Trainings-daten im Hauptspeicher gehalten werden. Negativ für SCM wirkt sich hier aus, dass mittlerweile selbst der Hauptspeicher für das Trainieren neuronaler Netze zu langsam erscheint und Beschleu-niger sowie GPUs mit High Bandwidth Memory (HBM) ausge-

Page 19: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 19

BE S T OF www.storage-insider.de

stattet werden, um Daten noch schneller in die Prozessoren zu bringen. Hier kann SCM nur als weitere Caching-Ebene dienen.

Generell hat SCM aber dazu beigetragen, dass im akademischen und industriellen Umfeld wieder verstärkt über die zugrundelie-genden Algorithmen und Protokolle nachgedacht wird. Es wur-den verschiedenste Datenstrukturen entwickelt, die konsistent und ohne einen Zwischenschritt über den Hauptspeicher effizient im SCM persistiert werden können. Insbesondere im Datenban-kumfeld müssen Transaktionen somit nicht mehr explizit über ein sekundäres Speichersystem persistiert werden, sondern sind sofort in diesem erweiterten „Hauptspeicher“ gemäß der ACID-Anforderungen gesichert. Latenzzeiten von Datenbanken können somit noch einmal deutlich reduziert werden.

Offen ist heute noch, wie sich SCM auf die Entwicklung von Programmiersprachen auswirkt. Selbst Hardware-nahe Program-miersprachen wie C abstrahieren von der Registerebene oder den Caches und bieten diese dem Programmierer transparent an. Dieses hat dazu geführt, dass zum Beispiel in der Vergangenheit Vektor-Erweiterungen in Prozessoren wie SSE und AVX vorran-gig über Maschinenbefehle angesprochen werden mussten, wenn sich der Programmierer nicht auf den Compiler verlassen wollte oder konnte. Dieses erhöht die Komplexität der Anwendungen und macht diese gleichzeitig weniger portabel und erhöht den Pflegeaufwand. Es zeichnet sich ab, dass sich für C (und weitere Programmiersprachen) eine Standardisierung bei der Program-mierung von Vektor-Erweiterungen herauskristallisiert, die eine HW-unabhängige Code-Entwicklung ermöglicht.

Vergleichbare HW-unabhängige Konzepte für das Ansprechen von SCM fehlen zum jetzigen Zeitpunkt noch. Die hohe Komple-xität der Konsistenzprotokolle sowie die nicht einfach detektier-baren, subtilen Fehlerzustände, die eventuell bei einem Ausfall des Rechners auftreten können, erfordern aber eine Unterstüt-zung der Anwendungsentwickler direkt aus den Programmier-sprachen heraus.

CIOBRIEFING: Ist SCM eine Vorstufe für NVMe over Fabric? Kommt der Speicherpool wieder zurück?

André Brinkmann: NVMe wurde entwickelt, um die Techno-logievorteile moderner SSDs gegenüber magnetischen Festplat-ten nutzen zu können und die Geschwindigkeit nicht bereits in

Page 20: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 20

BE S T OF www.storage-insider.de

der Schnittstelle zum Speicher zu verlieren. Vorteile von NVMe gegenüber SATA und SAS sind insbesondere die Unterstützung einer höheren Parallelität der Zugriffe durch eine Reduzierung notwendiger Locking-Operationen und die direkte Nutzung des PCI-Busses. Blockbasierte SCM-Lösungen können somit eben-falls von diesem neuen Protokoll profitieren, sie sind sogar auf die zugrundeliegenden Neuerungen angewiesen.

Werden Speicherpools über ein Netzwerk angeboten, ist die Nutzung von RDMA-Konzepten, die auch in NVMe over Fab-ric vorgesehen sind, die Grundlage, dass die CPUs in den Spei-chersystemen nicht zum Flaschenhals werden. Der Erfolg hierauf aufbauender Speicherpool-Konzepte wird aber sicherlich von der Preisgestaltung der Hersteller abhängen. Sollte die Preisentwick-lung für SCM ähnlich attraktiv wie für Flash verlaufen, ist es möglich und wahrscheinlich, dass All-SCM-Arrays vergleichbar der All-Flash-Arrays besonders hohe Leistungsanforderungen im Storage-Bereich abdecken werden.

SCM als byte-adressierbare Speichertechnologie kann auf der nächst höheren Ebene in der Speicherebene dazu dienen, gro-ße, verteilte Hauptspeicherkonzepte umzusetzen, die ebenfalls über Pool-Konzepte an einzelne Anwendungen verteilt werden. An dieser Stelle spielt aber die Lokalität wieder eine sehr große Rolle, da entfernte Zugriffe 10 bis 100-mal langsamer als lokale Zugriffe sein werden. ■ Rainer Graefen

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 21: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 21

BE S T OF www.storage-insider.de

Das Neueste zur Storage & Data Analytics Technology Conference 2018

Die Rückkehr des Originals in die digitalisierte KommunikationDr. Sönke Bartling ist Gründer der Blockchain for Science, Forscher im Bereich der medizinischen Bild gebung und nicht zuletzt Keynote-Speaker auf der S&DA-Veran-staltung der Vogel-Akademie. Storage-Insider hat mit Dr. Bartling über die Vorzüge und Notwendigkeit von Blockchain in der wissenschaftlichen Forschung ge-sprochen.

CIOBRIEFING: Herr Dr. Bartling, Sie halten demnächst eine Keynote vor den Teilnehmern der Storage & Data Analytics Conference 2018. Was wird Ihr Thema sein?

Sönke Bartling: Es geht um die Blockchain-Revolution in der Forschung. Man sollte vielleicht erst einmal klären, was Block-hain überhaupt ist. Hierauf werde ich in der Keynote eingehen. Blockchain ist zunächst einmal die sehr profane Datenstruktur, in der Bitcoin-Transaktionen abgelegt werden.

Die Bedeutung hat sich aber gewandelt. Dies ist am ehesten mit der Wandlung des Begriffes “Internet” zu vergleichen. Das Inter-net war zunächst einmal eine Schnittstelle zwischen Netzwerken, es ist heute aber viel mehr für uns geworden.

Veranstaltungstermine

der Storage & Data

Analytics:

Stuttgart: 22.3

Hamburg: 10.4

Wiesbaden: 24.4

Köln: 26.4

Bild

: Vog

el IT

-Aka

dem

ie

Page 22: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 22

BE S T OF www.storage-insider.de

Ähnlich ist es mit dem Begriff “Blockchain”, er bedeutet schon lange mehr als die profane Datenstruktur hinter Bitcoin. Block-chain bedeutet eine neue Art über Computerservices und Da-tenbanken nachzudenken. Und dann kommen noch so einige Abstraktion dazu, z. B. taucht der Begriff “Vertrauen” oft auf. Blockchain bedeutet, dass ein Computerservice, eine Anwen-dung, etc. ablaufen kann, ohne dass man demjenigen, der diese Anwendung zur Verfügung stellt, d. h. derjenige, der die Kont-rolle über die Hardware hat, vertrauen muss. Mit anderen Wor-ten, die Kontrolle über die Hardware wird von der Kontrolle über die Software abgelöst.

CIOBRIEFING: Können Sie einem technisch nicht ganz so versierten Menschen an einem einfachen Beispiel erklären, woBlockchainseineVorteileentfaltet.

Sönke Bartling: Was sich eben noch auch so abstrakt anhört, kann man vielleicht mit anderen Worten ausdrücken. Vergleichen wir einmal ein Computerprogramm oder einen Onlineservice heute mit einem Stück Papier, auf dem z. B. ein Vertrag unter-schrieben ist.

In einem Computerdokument kann man jederzeit eine Unter-schrift löschen, ergänzen oder ein Datum ändern, ohne dass wir irgendwelche Spuren hinterlassen. Auf einem Stück Papier geht das realistisch eigentlich nicht, ein Stück Papier ist “immutable” (unveränderbar, die Red.)

Blockchain erzeugt diese “Immutabilität” in der Computerwelt. Und damit ist eine neue Art von “Vertrauen” in Computerservices verbunden. Ich versuche das für die Forschung zu kommunizie-ren und so das Vertrauen in Forschungsergebnisse zu verbessern, für eine neue Offenheit zu sorgen, vielleicht auch Kontrolle durch andere Forscher.

CIOBRIEFING: Muss man damit rechnen, dass es dann bald vieleVariantengebenwird,dieähnlichwieBlockchainarbei-ten, aber nicht miteinander kooperieren können?

Sönke Bartling: Ja, das ist ein interessanter Entwicklungsbe-reich. Um eine Immutabilität zu erreichen, braucht man nicht un-bedingt eine Blockchain im engeren Sinne, und die Idee “Block-chain” kann man durch einige andere Dinge auch gut erreichen … das lässt sich leider an dieser Stelle in der gebotenen Kürze nicht erklären, aber es ist auf jeden Fall ein interessantes Thema.

Page 23: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 23

BE S T OF www.storage-insider.de

CIOBRIEFING: Häufigeristzulesen,dassdieTransaktions-geschwindigkeit von Blockchain nicht die von Banken benö-tigte Geschwindigkeit hat. Woran liegt das und ist es notwen-dig das zu ändern?Sönke Bartling: Es gibt hier ganz einfach physikalische Grenzen. In einer komplett offenen Blockchain wie sie Bitcoin ist, muss jeder Knoten, alle Transaktionen der anderen evaluieren, und es dauert halt bis die Transaktionen durch das Netzwerk verschickt werden.Wer daran weiter interessiert ist, sollte nach dem CAP-Dreieck oder Brewer-Theorem googeln. Viele Anwendungen, die sagen, dass sie “Blockchain” mit hohem Transaktionsdurchsatz reali-siert haben, verwenden kleine Tricks, die hinter Marketingaussa-gen versteckt sind. Oft verwenden sie Supernodes, etc. und sind dann doch nicht dezentral.Eine Lösung zu finden, die einen hohen Durchsatz hat, 100 Pro-zent stimmig ist UND dezentral, das wäre der holy grail, quasi einen Nobelpreis wert. Bis dahin aber, stellen Bitcoin/Blockchain und zentrale Systeme wie die Banken eine interessante und für sich jeweils relevante Ausprägung der Limitationen von verteil-ten Systemen dar und beide werden bestehen bleiben.

CIOBRIEFING: Blockchain soll ja die Datensicherheit re-spektive Fälschungssicherheit von Verträgen sicherstellen.Trotzdem ist von Fälschungen zu lesen. Stimmt das überhaupt und ließe sich das vollständig unterbinden?Sönke Bartling: Kein Computersystem oder Blockchain kann einen Beweis über die Wirklichkeit beinhalten, mit anderen Wor-ten, wenn ich fehlerhafte Dinge in die Blockchain tue, dann blei-ben sie auch fehlerhaft. Viele nennen das das Realworld/Block-chain-Interface-Problem.

CIOBRIEFING: Sie arbeiten im Bereich der medizinischen Bildgebung. Wozu braucht man hier die Blockchain-Technik?Sönke Bartling: Ich komme zwar aus der Grundlagenforschung im Bereich der medizinischen Bildgebung, beschäftige mich jetzt aber mit Blockchain für die Forschung, Forschungsdatenverwal-tung, -speicherung, Forschungsgelderverteilung und Patente. Besonders spannend ist in Ihrem Kontext die Forschungsdaten-speicherung - mittels Blockchain könnte sie zensursicher abge-legt werden. Denken Sie nur einmal an Präsident Trump, der die Klimadaten löschen lassen wollte - mittels Blockchain wäre das nicht möglich … ■ Rainer Graefen

Page 24: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 24

BE S T OF www.storage-insider.de

DSGVO und Storage-Compliance

Personenbezogene Daten On- und Offline datenschutz-konform verwaltenDie Datenschutz-Grundverordnung der EU, kurz DSGVO, ist keinesfalls eine rein juristische Angelegenheit, die al-lein in den Verantwortungsbereich der Rechtsabteilung oder des Datenschutzbeauftragten fällt. Wenn es darum geht, die neuen Gesetze im Unternehmen einzuhalten, spielt die Technologie eine entscheidende Rolle. Und so führen die Regelungen aktuell zu hohem Handlungs-druck in den IT-Abteilungen.

Noch herrscht Unklarheit darüber, welche Maßnahmen bei der DSGVO zu ergreifen sind. Leider gibt es keine universelle DS-GVO-konforme Lösung – allein deshalb, weil es noch gar keine Zertifizierung hierfür gibt. Das heißt konkret: Keine Software oder Hardware kann zum jetzigen Zeitpunkt sicherstellen, dass alle Anforderungen der DSGVO erfüllt werden.

Es ist dennoch machbar, zentrale Aspekte hinsichtlich Backup, Archivierung und Disaster Recovery zu berücksichtigen, und gleichzeitig die Auswirkungen der Verordnung auf den täglichen IT-Betrieb zu begrenzen. Die DSGVO bietet zudem eine gute Ge-legenheit, unternehmenseigene Datenflüsse nicht nur auf Com-pliance, sondern auch auf Security hin zu überprüfen.

Die DSGVO empfiehlt eindeutig verschiedene Techniken wie Ver-schlüsselung, Anonymisierung und Pseudonymisierung. IT-Ver-antwortliche, die diese Vorgaben berücksichtigen, tragen nicht nur entscheidend zu einer datenschutzkonformen IT ihres Unter-nehmens bei, sondern verbessern gleichzeitig die Sicherheit.

So kommt ein Unter-

nehmen einer Anfrage

auf Datenlöschung

nach und hält dabei

die Auswirkungen auf

be stehende Backup-

Prozesse und die

IT-Infrastruktur

begrenzt.

Bild

: Qua

ntum

Page 25: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 25

BE S T OF www.storage-insider.de

Die DSGVO sieht für EU-Bürger ein Recht auf Vergessenwerden vor. Fordert eine Person ein Unternehmen auf, ihre Daten zu lö-schen, muss dieses innerhalb einer bestimmten Frist sicherstel-len, dokumentieren und nachweisen, dass alle Spuren restlos aus allen Systemen entfernt wurden. Das gilt auch für Backups mit langer Aufbewahrungsfrist und für Datenarchive mit Tausenden spezifischer Einträge. Die Basis eines DSGVO-konformen Daten-Managements liegt daher in der Ist-Analyse der Systeme. Das Ziel ist eine lückenlose Transparenz, Stichwort Data Discovery. Denn nur wer weiß, wo sich die Daten befinden, kann garantieren, sie auch vollständig zu löschen. Da bei diesem Thema noch große Unsicherheit besteht, haben wir bei einer Datenschutz-Aufsichtsbehörde der EU-Mitgliedstaaten – der Commission Nationale de l’Informatique et des Libertés in Frankreich – nachgefragt. Demnach bleibt Unternehmen ein Monat Zeit, um auf eine Anfrage zur Löschung von Daten zu ant-worten. Damit dem Recht auf Löschung entsprochen wird, muss jedoch nicht der ganze Sicherungssatz verschwinden. Unternehmen sind zwar verpflichtet, der betroffenen Person zu erklären, dass ihre persönlichen Daten aus den Produktionssys-temen entfernt wurden. Sicherungskopien in Form von Backups und Archiven dürfen jedoch unter zwei Voraussetzungen beste-hen bleiben: Die Kopie muss nach einer gewissen Zeit ablaufen. Und die betreffende Person hat Anspruch auf eine verbindliche Auskunft über die Aufbewahrungszeit. Grundsätzlich sollte man Sicherungen nur für die Wiederherstel-lung einer technischen Umgebung verwenden. Und personenbe-zogene Daten, deren Löschung beantragt wurde, sollten nach der Wiederherstellung nicht erneut verarbeitet werden.

Backups und Archive: Bestehendes hinterfragenDie meisten Unternehmen haben Backup-Aufbewahrungsfristen von drei bis fünf Wochen und die Daten laufen in der Regel auto-matisch mit den Backups ab, in denen sie gespeichert sind. Back-ups können jedoch auch länger aufbewahrt werden. Sofern der Daten-Controller aus anderen Compliance-Gründen die Daten länger aufbewahrt, wird das Recht auf Vergessenwer-den nicht angewendet. In jedem Fall ist es ratsam, die eigenen Prozesse grundlegend zu hinterfragen: Müssen alle Daten wirk-lich gesichert werden? Und ist es vielleicht ohnehin an der Zeit, einen neuen Archivierungsprozess zu starten oder einen automa-tischen Tiered-Storage-Mechanismus einzuführen?

Page 26: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 26

BE S T OF www.storage-insider.de

Daten, die in den Archivspeicher verschoben wurden, sind nicht mehr Teil des regulären Sicherungsprozesses. Daher sind weni-ger Daten durch die IT zu sichern und die Sicherungsvorgänge laufen entsprechend zeitsparender ab. Vor dem Hintergrund der DSGVO ist das Archiv datenschutzfreundlicher als das Backup, denn es speichert die Daten in der Regel im nativen Format. Der Vorteil: Der Datenschutzbeauftragte kann direkt auf Daten zu-greifen, ohne Unterstützung vom IT-Team anzufordern. Dies be-deutet eine weitere Zeitersparnis für die IT-Abteilung.

Am sichersten fährt man natürlich mit Lösungen, die speziell für die Datensicherung und die Archivierung entwickelt wurden und eng mit Compliance-Lösungen, E-Discovery-Tools und robusten Backup-Anwendungen integriert sind. Die Auswirkungen auf die Performance lassen sich steuern, indem man Dateien mit höhe-rer Priorität auf Hochleistungsspeicher spielt, während Dateien mit niedrigerer Priorität auf weniger teuren Speicherplattformen Platz finden.

Offline-BackupalsSchutzgegenRansomware

Datensicherungen gelten als effektiver Schutz gegen Ransomware – aber immer mehr Hacker attackieren zunächst die Backups, bevor sie mit der Verschlüsselung von Produktionsservern oder Worksta-tions beginnen. Die einzige Möglichkeit, sich vollständig zu schüt-zen, ist daher die Verwendung von Offline-Datensicherungen.

So entsteht eine Ransomware-freie Zone, in der nichts versteckt wird. Sie wird nur physisch vom Netzwerk getrennt. Selbst mit Hilfe eines kompromittierten Administratorenkontos können Angreifer so nicht auf Ransomware zugreifen, um die Offline-Backups zu verschlüsseln. Denn das Offline-Backup ist – einmal aus dem System entfernt – nicht mehr elektronisch zugänglich.

Doch wenn es schon bei normalen Backups eine Herausforde-rung ist, einzelne Einträge zu löschen, wie gewährleistet man dann ein datenschutzkonformes Offline-Backup? Ein möglicher Weg ist es, eine Kopie der Daten mit einer Aufbewahrungsfrist von ein oder zwei Monaten zum Schutz vor Ransomware offline zu halten.Auf diese Weise schützen sich Unternehmen vor Ransomware und können gleichzeitig leichter mit dem Recht auf Vergessen-werden umgehen. Denn wenn die Tape Library partitioniert wird, lässt sich ein Teil als Backup und einer als Archiv nutzen. So sind die Speicher einfacher zu handhaben, wenn es um das Löschen von Daten geht.

Page 27: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 27

BE S T OF www.storage-insider.de

Ein angemessenes Sicherheitsniveau gewährleisten

Die DSGVO verpflichtet dazu, technische und organisatorische Maßnahmen zu ergreifen, die ein Sicherheitsniveau gewährleis-ten, dass dem Risiko angemessen ist. Personenbezogene Daten sind – neben dem Einsatz von sicheren Backups – während des gesamten Lebenszyklus durch Verschlüsselung zu schützen. Aber eine lückenlose Verschlüsselung allein reicht nicht.

IT-Verantwortliche sollten weitere Tools für die Datensicherheit implementieren. Sinnvoll ist zum Beispiel eine Lösung, die ver-trauliche Daten inklusive aller Restdaten sicher und dauerhaft von den Festplatten löschen kann. Außerdem sollte eine nahtlose Ende-zu-Ende-Integrität sichergestellt sein. Der Standard T10 Protection Information (T10-PI) stellt sicher, dass die Daten va-lidiert werden, während sie sich von der Anwendung zum Host-Bus-Adapter (HBA) und dann zum Speicher bewegen.

Gefragt ist schließlich auch ein Plan für das Disaster Recovery. Dieser Plan muss regelmäßige Tests enthalten, um „die Verfüg-barkeit und den Zugriff auf persönliche Daten bei einem phy-sischen oder technischen Vorfall rechtzeitig wiederherstellen zu können.“ ■ Stephane Estevez

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 28: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 28

BE S T OF www.storage-insider.de

Head Crash shreddert Chinatournee-Dokumentation

Datenrettung für ein einzigartiges FilmprojektFilmemacher Max Meis zögerte nicht lange, als ihm die-ses Projekt angeboten wurde: Eine deutsche Hardrock-band auf Tour durch acht chinesische Städte mit der Ka-mera zu begleiten. Doch beinahe wäre das Filmprojekt an einer zerstörten Festplatte gescheitert. Dass der Film RockChinaRoll seine erfolgreiche Kinopremiere feiern konnte, daran haben die Spezialisten von CBL Datenret-tung einen wesentlichen Anteil.

Seit über zehn Jahren feilt die Hardrockband The Ignition aus dem beschaulichen Ort Tönnishäuschen bei Ahlen in Westfalen an ihrem Sound. Und seit sechs Jahren spielt sie Konzerte vor zehntausenden begeisterter Fans – in China!

In Deutschland sind sie normale Hobbymusiker mit bürgerlichen Berufen, doch in China können die vier Musiker jedes Jahr für ein paar Tage das Leben von Rockstars leben. Damit diese un-glaubliche Geschichte einmal professionell erzählt wird, durfte der Filmemacher Max Meis die Band 2017 zehn Tage lang durch acht chinesische Städte mit der Kamera begleiten.

Der Gründer der Dokumentarfilmfirma Downsideup Film in Bielefeld wusste, wie wertvoll das Footage, das ungeschnittene Filmmaterial der Arbeit in China sein würde, deshalb hatte er sich einen Plan für die Sicherung der Filmdaten zurechtgelegt. Und doch ereilte ihn der Albtraum jedes Dokumentarfilmers: Unersetzliche Originale zerstört.

Begeisterte Menschen-

massen rocken im Regen –

The Ignition ist in China

ein angesagter Act.

Bild

: Max

Mei

s

Page 29: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 29

BE S T OF www.storage-insider.de

Sichern und Spiegeln

Die Filmkamera von Max Meis speichert auf SD Memory Cards und wann immer er Gelegenheit hatte, kopierte er die Filmda-teien auf eine externe Festplatte, um die SD-Karten wiederver-wenden zu können. Während The Ignition sich auf ihr dritten Konzert vorbereiteten, hatte Meis im Musikclub „7Livehouse“ in Zhengzhou, endlich mal Zeit, die bisher gesammelten Aufnah-men auf eine zweite Festplatte zu spiegeln.

Ein kurzer unbedachter Moment, in dem er sein Notebook an ei-nen anderen Platz stellen wollte, und es geschah: Die Festplatte mit den Sicherungen knallte auf den Steinboden des Clubs. Als er sie wieder anschließen wollte, klang sie zwar so, als würde sie normal anlaufen, doch der Rechner konnte keine Daten lesen. Die SD-Karten waren bereits für die erneute Verwendung in der Kamera formatiert und das Unglück war passiert, bevor die Da-ten gespiegelt werden konnten.

Die Tournee der Band war ein voller Erfolg und Max Meis konn-te viele gute Aufnahmen aus China mitbringen – doch gerade die für sein Drehbuch wichtigen Aufnahmen von der Reise, der Ankunft in Beijing und den ersten beiden Gigs waren verloren.

Kostenlose Diagnose

Ein Freund, der sich mit IT-Dingen auskennt, bestätigte die Be-fürchtung des Filmemachers, dass eine professionell Datenret-tung die einzige Chance wäre, doch noch an die Filmaufnahmen zu kommen. Er empfahl die Firma CBL Datenrettung, und so schickte Max Meis die Festplatte an das Labor in Kaiserslautern.

Diagnose und Kostenvoranschlag sind hier kostenlos und das Unternehmen stellt nur im Erfolgsfall eine Rechnung. CBL stell-te nach der Öffnung der Festplatte im Reinraum fest, dass über die gesamte Laufwerksoberfläche schwere Beschädigungen sichtbar waren und die Mechanik des Lese-Schreib-Kopfs De-fekte aufwies. Fehlerhafte Sektoren und eine Beschädigung der Dateistruktur waren nicht auszuschließen.

Das Crowdfunding des Filmprojekts RockChinaRoll war zwar sehr erfolgreich gewesen, doch ein Budget für Datenrettung war natürlich nicht vorgesehen. Max Meis ließ sich die Platte nochmal zurückschicken, um sein Glück bei der Versicherung zu versuchen – ohne Erfolg, diese ersetzt nur den Hardware-Verlust, Daten sind in normalen Versicherungsverträgen nicht berücksichtigt.

Page 30: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 30

BE S T OF www.storage-insider.de

Rekonstruktion aus Fragmenten

Am 3. März 2018 kam die Western Digital USB CASE 1 TB erneut im Labor an, zusammen mit dem Auftrag zur Datenrettung. Zufäl-lig war es ein aus China stammender Ingenieur, der sich bei CBL Datenrettung des Falls der RockChinaRoll-Videodaten annahm.

Yang Yu erinnert sich: „Wir mussten zunächst mehrfach die Le-seköpfe tauschen, bis wir die Platte überhaupt in einem Zustand hatten, in dem wir eine sektorenweise forensische Kopie erstellen konnten.“ Professionelle Datenretter arbeiten niemals auf den Ori-ginaldatenträgern, sondern spiegeln zuerst die Rohdaten, bevor es dann daran geht, aus diesen nutzbare Dateien zu rekonstruieren.

Auch dies war im vorliegenden Fall sehr aufwändig – dazu kam der Zeitdruck, denn der Premierentermin für den Film, der noch geschnitten werden musste, stand ja bereits. „Die MFT-Daten waren auch betroffen, das heißt wir mussten um jeden Sektoren kämpfen und wir haben gezielt nur die Sektoren kopiert, in denen Zieldaten lagen, um den Schreib-Leseköpfe möglichst wenig zu belasten“, berichtet Herr Yang.

„Die Video-Daten waren zudem sehr groß und die Schäden über-all verteilt. Das war die Schwierigkeit: Die Videos wieder lauf-fähig zu machen.“ Eine zerstörte Master File Table, kurz MFT, macht die Rekonstruktion von Daten besonders aufwändig, denn in dieser Datei befinden sich die Einträge, welche Blöcke zu wel-cher Datei gehören sowie alle Attribute der Dateien.

Datenretter im Filmabspann

Dass Downsideup und The Ignition am 21. April in Ahlen eine umjubelte Kinopremiere feiern konnten, ist der Beweis, dass die Datenrettung erfolgreich war und das Material noch rechtzeitig für den Film verarbeitet wurde. „CBL war unsere Rettung, der Film wäre sonst ein Fragment geblieben. Mindestens ein Viertel der Aufnahmen, die man im Film RockChinaRoll sieht, wären ohne die Arbeit von CBL Datenrettung verloren gewesen“, sagt Filme-macher Max Meis. Bei Downsideup ist man sehr zufrieden mit dem Dienstleister und so kommt es, dass CBL Datenrettung in den Danksagungen des Filmabspanns auftaucht. ■ Marcus Planckh

Page 31: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 31

BE S T OF www.storage-insider.de

Interview mit Hu Yoshida, VP und Global CTO bei Hitachi Vantara

Speichertechnik heute und morgenDer Ruhestand für Daten ist durch permanente Abfragen, KI und Multi-Cloud-Migrationen nicht mehr in Sichtwei-te. Doch große Storage-Anbieter wie Hitachi Vantara ma-chen sich Sorgen um die Datenkonsistenz, die nicht nur durch Ransomware gefährdet ist. Hu Yoshida gibt Sto-rage-Insider-Lesern Tipps, worauf sie beim Speichern achten sollten.

Storage-Insider: Daten und Metadaten werden heute unter-schiedlichen an verschiedenen Orten betriebenen Speichersys-temen für die Verarbeitung zur Verfügung gestellt. Ist ein Weg zurück zur „unkomplizierteren“ Datenhaltung noch machbar?

Hu Yoshida: Ich glaube nicht, dass die Welt jemals so simpel war. Sogar in Storage Area Networks waren Daten in der Anwendung gefangen oder auf Speichersystemen gestrandet. Mit Ausnahme der fünf Prozent, die wir in Data Warehouses oder Data Marts extrahiert haben, befanden sie sich in Silos. Deren Beseitigung ist jedoch entscheidend für die digitale Transformation.

Der Einsatz eines Objektspeichersystems wie der Hitachi Content Platform schafft hier Abhilfe und vereinfacht IT-Organisationen sowie Cloud-Anbietern, die wachsende Menge an unstrukturier-ten Daten zu bewältigen und mit ihnen umzugehen.

Hu Yoshida, Vice Presi-

dent und Global CTO bei

Hitachi Vantara, nimmt

Stellung zum derzeitigen

Stand der Speichertech-

nik und sich abzeichnen-

den Entwicklungen.

Bild

: © B

illio

nPho

tos.

com

- s

tock

.ad

obe.

com

Page 32: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 32

BE S T OF www.storage-insider.de

Dateien und Objekte können von einem einzigen System aus ge-speichert, geteilt, synchronisiert, geschützt, erhalten, analysiert und abgerufen werden.Strukturierte und unstrukturierte Daten lassen sich zudem mit Hilfe von Datenintegrationswerkzeugen wie PDI (Pentaho Data Integration) von Hitachi Pentaho integrieren, um Data Lakes für Analysen durch Pentaho Analytics oder andere Werkzeuge wie Hadoop oder Spark anzulegen.

Anwender sichern Daten vermehrt mit lokalen anwendungs-bezogenen Backup-Tools. Ist ein zentrales Backup-Manage-mentausfinanziellerSichtnichterstrebenswerter?

Hu Yoshida: Das Konzept von Backup muss sich ändern. Bei 80 Prozent der unstrukturierten Daten sind tägliche inkrementel-le und wöchentliche vollständige Sicherungen nicht notwendig. Erfassen Sie die Daten und Metadaten in einem Objektspeicher und replizieren sie diese zum Schutz der Daten. Jede Änderung kann als neue Version hinzugefügt werden und der Zugriff kann direkt durch die Metadaten erfolgen, ohne erst eine Vielzahl von Sicherungs-Tapes scannen zu müssen.Die Daten sind damit gehasht und in Folge dessen unveränderbar. Darüber hinaus sind sie verschlüsselt, so dass Sie sie „krypto-schreddern“ können, wenn sie auf einem bestimmten Speicher-system nicht mehr benötigt werden. Die Daten sind nicht so wich-tig wie die Metadaten, die den Kontext liefern. Sie werden die Anwendungen, die sie erzeugt haben und die Infrastruktur, der sie ursprünglich zugeordnet waren, überdauern. Objektspeicher löst die Daten von Anwendungen und macht die Migration zwi-schen Infrastrukturen einfach.

Obwohl es scheinbar nur ein Storage-Protokoll ist, wird NVMemitundohneFabric-AnteildieSpeicherinfrastruk-tur verändern. Wie sehen sie das?

Hu Yoshida: Bei NVMe handelt es sich um eine Schnittstellen-spezifizierung wie SATA. Es erlaubt schnellen Zugriff auf direkt verbundene Solid-State-Geräte. NVMe-Geräte kommunizieren mit der System-CPU direkt über Highspeed-PCIe-Verbindungen. Das verändert die Speicherinfrastruktur, weil kein Host Bus Ad-apter (HBA) oder Storage-Controller mehr benötigt wird. Obwohl NVMe eine hohe Performance bietet, fehlen aber Funktionen, die von Storage-Controllern und HBAs geliefert werden, etwa exter-nes Anhängen oder Clustering.

Page 33: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 33

BE S T OF www.storage-insider.de

NVMeoF oder NVMe over Fabrics ist ein Netzwerkprotokoll wie SCSI, das Remote Direct Memory Access (RDMA) erfordert, sich aber noch in den Kinderschuhen befindet. Derzeit handelt es sich hierbei um einen Entwicklungsstandard, der aktuell noch ei-nige Nachteile aufweist und von den Anbietern auf unterschied-liche Weise in den eigenen Lösungen umgesetzt wird. Das führt zu unterschiedlichen NVMeoF-Implementierungen, die unterei-nander inkompatibel sein können.

NVMeoF kopiert darüber hinaus die vor rund 40 Jahren entwi-ckelten Konzepte und die damit überalterte Architektur des klas-sischen iSCSI-Modells. SCSI funktioniert nicht gut mit aktuellen Technologien und Ansätzen wie voll automatisierten API-Kon-trollen, softwaredefiniertem Speicher, hyperkonvergenter Infra-struktur und verteiltem Storage. Den meisten Implementierun-gen mangelt es an durchgehenden Integritätsprüfungen, was zu korrumpierten Daten führen kann.

Sicherlich werden NMVe and NVMeoF die SCSI-Bottlenecks beseitigen, die die volle Leistung von SSDs und 3DXpoint ein-schränken. Man sollte bei der Betrachtung aber die Performance bei der Vernetzung und die Gesamtleistung und -funktionalität gegeneinander aufrechnen. Hitachi Vantara bietet in seinen hy-perkonvergenten Systemen NVMe für die direkte Storage-An-bindung. Bei NVMeoF halten wir uns aber aktuell noch zurück.

BekommtFibreChanneldurchdasNVMeoF-Protollnochmal eine Chance?

Hu Yoshida: NVMeoF ist NVMe over Fabric, nicht über Fibre Channel und ähnelt im Grunde iSCSI, das über TCP läuft. Das wird mehr Traffic in LANs, WANs und das Internet bringen. Fib-re Channel wird uns noch einige Zeit erhalten bleiben, aber nicht aufgrund von NVMeoF.

Software-Hersteller hinken weit hinter der Entwicklung ak-tueller und zukünftiger Latenzzeitreduzierungen hinterher. Woran liegt das?

Hu Yoshida: Ich bin ganz und gar nicht der Meinung, dass die Software-Anbieter hier hinterherhinken. Mit Containern und Mi-croservices sind sie vielmehr der Infrastruktur einen Schritt vo-raus. Schauen Sie, wie Google Container einsetzt, um hunderte von Anwendungen für Messaging, Suche und andere Funktionen hochzufahren.

Page 34: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 34

BE S T OF www.storage-insider.de

Die SNIA ist seit einiger Zeit wieder aktiver. Brauchen wir mehr Standardisierung bei Storage-Class-Memory?

Hu Yoshida: Standardisierung ist sicherlich ein lohnenswertes Ziel, lässt sich jedoch aufgrund der technischen Innovationsra-te meist nicht in der gleichen Geschwindigkeit erreichen. Open-Source-Lösungen rund um Messaging-Busse werden schneller und häufiger agile Lösungen hervorbringen.

Wie steht man bei Hitachi zur Entwicklung von Storage-Class-Memory? Aus meiner Sicht ist die aktuelle Rechnerar-chitektur dafür gar nicht ausgelegt.

Hu Yoshida: Derzeit entwickeln wir kein SCM, aber wir planen diese Technologie sobald sie allgemein verfügbar ist in unseren zukünftigen Arrays anzubieten. Der Mehrwert in SCM liegt in der Erzeugung einer zusätzlichen, persistenten Ebene mit geringer La-tenz und zu geringeren Kosten als DRAM. Das passt gut zu un-seren Fähigkeiten beim Tiering und unseren hybriden Angeboten.

Jeder redet von explosionsartig ansteigenden Datenmengen, keiner von Filesystemen. Wie müssen sich diese aus Ihrer Sicht verändern, damit sie in naher Zukunft noch sinnvoll verwendbar sind?

Hu Yoshida: Dateisysteme sind aufgrund ihrer hierarchischen Datenstruktur nur begrenzt skalierbar, anders als Objektspei-chersysteme. In naher Zukunft werden Dateisysteme nicht ver-schwinden, denn sie bilden das Rückgrat zahlreicher Workloads.

Wir schauen uns Dateisysteme der nächsten Generation an, die „Scale-out“ und voll verteilt sind, auf jeder Hardware laufen kön-nen und echte Cloud-Konnektivität bieten - vor allem rund um hybride Systeme. Denken Sie beispielsweise daran, ein Cluster On-Premise oder in der Cloud zu starten, das überall auf Dateien ohne Latenz und auf dieselben Datenservices zugreifen kann.

Auch in Multi-Cloud-Umgebungen werden Filesysteme ein-gesetzt. Fehlt hier nicht ein Rückmeldungskanal, um bei-spielsweisedieVerschiebungvonDatenoderdenAusfalldesSpeichersystems zu melden?

Hu Yoshida: Um in einer wirklich hybriden Cloud-Umgebung alle Vorschriften einzuhalten, sollte das der Fall sein. Wenn Sie das oben beschriebene implementieren und auch die Kontrolle

Page 35: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 35

BE S T OF www.storage-insider.de

darüber haben, können Sie das tun. Public-Cloud-Anbieter bieten diese Funktion heute aber nicht an.

Hitachi fällt mir nicht mehr groß als treibende Kraft im Storage-Business auf. Sind die Entwicklungslinien so unkal-kulierbar geworden, dass sich selbst große Hersteller nicht mehr aus der Deckung wagen?

Hu Yoshida: Ihre Einschätzung teilen wir absolut nicht. Ebenso wenig wie die Analysten von Gartner, die Storage von Hitachi in ihrem jüngsten Magic Quadrant for General Purpose Storage Arrays zum fünften Mal in Folge im Leaders-Quadranten posi-tionierten.

Nach unserer Einschätzung wird vor allem die Integration mo-derner Speicherfunktionen in geschäftsrelevanten Lösungen mit Schwerpunkt auf Daten den Storage-Markt in Zukunft be-stimmen. Hinzu kommt die Aufhebung von Daten- und Anwen-dungssilos, das Anlegen von Data Lakes und die Vermeidung von „Datensümpfen“ durch ordnungsgemäße Bereinigung und Aufbereitung von Daten und Metadaten sowie die Schaffung der Grundlagen für Datenagilität von Edge über Core bis Cloud.

Andere Anbieter brüllen vielleicht laut über ihre „Box“, wir spre-chen hingegen verstärkt über Datenlösungen. Dies kann unser Absatzvolumen bei Speichersystemen verringern, aber es ist für unsere Kunden relevanter und die Umsetzung in die Realität be-deutet immer noch erhebliche Investitionen in Infrastruktur und Modernisierungen.

Zum zweiten Teil Ihrer Frage: Hitachi Vantara jedenfalls en-gagiert sich weiter, um im Storage-Markt mit innovativen, neuen Lösungen eine führende Position einzunehmen.

Welche Entwicklungen im Speichermarkt sollte man als An-wender aufmerksam verfolgen?

Hu Yoshida: Früher ging es bei den großen, neuen Entwicklun-gen vor allem um Protokolle oder Medienwechsel. Heute ändert sich der Storage-Markt permanent und entwickelt sich in rasan-tem Tempo über zahlreiche Branchen und Märkte hinweg. Der Schwerpunkt sollte auf persistentem Speicher für Container, Edge Computing, Blockchain zur Speicherung und die Einbeziehung künstlicher Intelligenz liegen, um nur einige Punkte zu nennen.

■ Walter Schadhauser

Page 36: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 36

BE S T OF www.storage-insider.de

Womit sich Startups heute beschäftigen, Teil 21

Komprise gibt Cold Data eine SpezialbehandlungDas Startup Komprise hat eine Softwaretechnologie ent-wickelt, mit der Anwender herausfinden können, welche Daten sie nur selten adressieren, diese auf günstigere Storage-Medien verlagern und trotzdem jederzeit im Zu-griff behalten.

Datenmanagement gehört im Zeitalter eines überbordenden Wachstum gerade bei File- und Objektdaten zu den Sisyphus-Aufgaben des IT-Betriebs. Es gibt dafür zwar viele Softwarelö-sungen, doch die meisten haben Schwächen, die reichlich Luft für Verbesserungen lassen: Häufig können die Tools, sofern sie mit einem Storage-Array mitgeliefert werden, vor allem mit der Hardware respektive dem Filesystem ihres Herstellers arbeiten, viele können nur auf bestimmte File-Formate oder Schnittstel-len zugreifen. Sogenannte Data Lakes versuchen zumindest den Primär-Storage zu vereinheitlichen.

Wichtigkeit und MulticopySobald aber Teile der Daten auf ein sekundäres Storage-Medium verlegt werden, sind sie mit der Software des Data Lake meist nicht mehr erreichbar. Ein weiterer Versuch, die Silostruktur von Storage aufzubrechen, besteht darin, eine Virtualisierungsschicht über sämtliche Storage-Medien und -Tiers zu legen. Auch das hat allerdings Pferdefüße: So kommen solche Virtualisierungslösun-gen oft mit schneller Flash-Hardware nicht zurecht beziehungs-weise bremsen sie aus. Sie skalieren auch nicht unbedingt im ge-wünschten Umfang. Doch die Silostruktur ist nicht das einzige Storage-Problem, das

Komprise unterlegt dem

gesamten Speicher-

system eine Software-

schicht, die den trans-

parenten Zugriff auf

alle Ressourcen unter

Beibehaltung der bisher

genutzten Schnittstellen

und Formate direkt auf

nachgelagerte Storage-

Klassen ermöglicht.

Bild

: © K

omp

rise

Page 37: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 37

BE S T OF www.storage-insider.de

Komprise adressiert. Die meisten Daten sind in vielen Kopien vor-handen. „Für jedes Gigabyte neuer Daten fallen durch Kopierakti-vitäten real vier bis fünf Gigabyte Speicherbedarf an“, sagt Krish-na Subramanian, Präsident und CEO des Unternehmens. Komprise gibt als Wachstumsraten bei Objekt- und Filedaten branchenspezi-fische Werte zwischen 40 und 300 Prozent jährlich an. Werden die sich auftürmenden Datenmassen auch noch ohne Berücksichtigung der Tatsache, ob sie wirklich wichtig sind, mehrfach kopiert, sind die Speicherkosten, aber auch der Backup-Aufwand kaum in den Griff zu bekommen. Gleichzeitig dürfen oder wollen viele Unternehmen viele Daten aus Sicherheits- und Compliance-Gründen nicht auf beliebigen Public-Cloud-Speicher verlagern.Komprise will mit seiner Lösung all diese Probleme auf einmal beseitigen, gleichzeitig aber die Sicherheits- und Compliance-In-teressen der Kunden berücksichtigen. So entstand die übergrei-fende, hybride Lösung des Newcomers, deren Schlüsselfähigkeit die Unterscheidung von viel und wenig genutzten Daten ist. „Wir sind durchaus der Meinung, dass die Daten, auf die tatsächlich häufig zugegriffen wird, auch mehrfach kopiert und gesichert werden können – aber nicht der viel größere Anteil der Daten, die man kaum braucht“, betont Subramanian.

Wachstum managen, Risiken abfangenUm das zu realisieren, werden die On-Premise- und Cloud-Sto-ragesysteme mit einer übergreifenden Softwareschicht unterlegt. Sie unterstützt alle wichtigen Formate für Objekt- und Filedaten (derzeit NFS, CIFS/SMB und S3, an Lustre wird gearbeitet) und ist imstande, deren Metadaten zu analysieren. Beim Kunden werden Softwareagenten, sogenannte Observer, als virtuelle Maschinen installiert, die später als Cache die Meta-daten speichern. Sie haben eine empfohlene Mindestgröße von acht Cores und 16 GByte Cache. Bei AWS, Google und Microsoft Azure ist die entsprechende Software ebenfalls erhältlich, so dass dort gelagerte Daten sich in die Analysen einbeziehen lassen. Kommt Komprise zu einem Kunden, analysiert die Lösung zu-nächst sämtliche Daten auf allen Speichermedien on Premise und in der Cloud. Die Ergebnisse stellt die Lösung als Grafik dar. Da-rauf ist deutlich zu erkennen, wie viele Daten wo liegen und wel-cher Anteil davon „kalt“ ist und daher auf günstigeren Storage mit geringeren Anforderungen an die Datensicherung verlagert werden kann - beispielsweise auf S3, in eine Archivlösung wie

Page 38: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 38

BE S T OF www.storage-insider.de

Glacier oder auf Tape mit NFS-Schnittstelle respektive -emulati-on verschoben werden könnte. Außerdem berechnet das System sofort, wie viel Geld der jeweilige Kunde durch das Verschieben der betreffenden Daten einspart. Anschließend können die Daten sofort entsprechend anderes verteilt werden.

Nahtlose Speicher-Tiers

Weil die Zahl und auch die Leistungsfähigkeit der Softwareagen-ten („Observer“) on Premises unbegrenzt skalierbar ist, können Komprise-Anwender mit ihrem Datenwachstum mithalten und sparen oft erhebliche Geldmengen. „Viele unserer Kunden kön-nen sich dank unserer Lösung plötzlich All-Flash-Primärstorage leisten, weil sie weniger davon brauchen“, sagt Subramanian. Ein weiterer positiver Effekt ist die Abnahme des Backup-Volumens. Hier berichtet Komprise von Kunden, bei denen Backups um 88 Prozent kleiner wurden, weil nur noch heiße Daten in klassischer Form gesichert werden.

Auch nach einer Verlagerung bleiben aber mittels der Komprise-Softwareschicht die Metadaten aller Daten im direkten Zugriff der Anwender über NFS, selbst wenn sie auf Tape oder S3 liegen. Auf Daten, die in nachgelagerte Schichten verschoben wurden, können Anwender mit Hilfe des gewohnten Protokolls über Kom-prise direkt zugreifen. Gleichzeitig können Daten auch direkt am jeweiligen Speichersystems gefunden werden.

Daten auf Primärstorage findet Komprise zwar, der Zugriff erfolgt aber immer direkt über das Primärsystem. „Im Grunde nähen wir mit unserer Lösung Primär- und andere Storage-Klassen zusam-men und machen sie zu einer einheitlich zugreifbaren Ressour-ce“, sagt CEO Goswani. „Unsere verteilte Scale-out-Architektur arbeitet außerhalb des Datenpfades, ist Storage-agnostisch, nicht intrusiv, hierarchisch, transparent und redundant.“

Ein wichtiges Einsatzfeld der Softwarelösung ist die Migration von NAS-Daten mit Hilfe einer Stapelkopiefunktion, die zum norma-len Lieferumfang gehört. Zudem hat das Unternehmen mit Data Confinement eine Funktion realisiert, die sicherstellen soll, dass Daten nur dort gespeichert werden, wo sie das entsprechend den Regeln der Datenschutz-Grundverordnung auch werden dürfen.

Expansion nach Europa

Kunden können zwischen einer einmaligen Lizenzgebühr bei On-Premise-Nutzung oder einer jährlichen Nutzungsgebühr bei

Page 39: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 39

BE S T OF www.storage-insider.de

Nutzung der Cloud-Variante wählen oder beides kombinieren. Die nutzungsbezogene Gebühr bemisst sich nach der Kapazität der mit Komprise verwalteten Daten im unkomprimierten, nicht deduplizierten Format.

Zum Kundenkreis des 2014 gegründeten Unternehmens mit in-zwischen 70 Mitarbeitern gehören der öffentliche Sektor, das Gesundheitswesen, Versicherungen, Banken, die Media- und En-tertainment-Industrie und alle Unternehmen mit großen, schnell wachsenden Volumina an File- und Objektdaten.

Komprise ist durch Venture Capital finanziert, wie üblich in sol-chen Fällen steht als Exit-Strategie auch die Übernahme offen. Doch vorläufig wächst das Startup kräftig aus eigener Kraft – im ersten Quartal des laufenden Geschäftsjahres versiebenfachte sich der Umsatz. Es sind bereits wichtige Partnerschaften ent-standen. So verkauft IBM die Lösung als OEM-Produkt, bei AWS gehört Komprise inzwischen zu den Advanced Tier Partners. Bei Microsoft Azure ist sie ein Marketplace Top und Google listet sie als Top Tier Partner.

Ein europäischer Vertrieb befindet sich im Aufbau. Jüngst wur-de die europäische Zentrale in London eröffnet und mit Andy Hill ein europäischer Vertriebschef benannt. Hill bringt unter anderem Erfahrungen von Nexsan und Veritas mit. Als Distri-butor konnte unter anderem Arrow gewonnen werden, als Re-seller in Deutschland fungiert unter anderem Itiso. Einen deut-schen Kunden gibt es auch schon. Die Studio Hamburg GmbH, ein Medienunternehmen, das Inhalte fürs Fernsehen produziert. ■ Ariane Rüdiger

Page 40: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 40

BE S T OF www.storage-insider.de

SDS-Lösungen von IBM für die Multi-Cloud

Software-definierte Speicher sind das BindegliedSoftware-defined Storage legt das Fundament für den Aufbau von Multi-Cloud-Architekturen und schafft die Rahmenbedingungen, um deren Vorteilen in vollem Um-fang auszuschöpfen. Doch zu entscheiden, welche SDS-Lösungen nun die richtigen sind, ist nicht einfach. Was müssen sie leisten, um Daten übergreifend zur Verfü-gung zu stellen, zu schützen und zu verwalten?

Software-defined Storage ist nach wie vor ein weit gefasster Be-griff. Der Mangel an einer allgemeingültigen Definition und of-fiziellen Standards gewährt den Herstellern bei der Auslegung somit Spielraum. Dementsprechend unterscheiden sich die ihren Produkten zugrunde liegenden Architekturen und Technologien. Das wiederum macht Vergleiche und damit die Auswahl zu einer mühseligen Angelegenheit.

Erschwerend kommt hinzu, dass nahezu alle Storage-Hersteller ihren Lösungen inzwischen das Etikett „softwaredefiniert“ an-heften. Neue Angebote halten in dem noch jungen, in der Ent-wicklung begriffenen Markt in schnellem Tempo Einzug. Einige hiervon sind jedoch lediglich auf bestimmte Szenarien ausgelegt oder bieten nur einen Bruchteil der für die Realisierung einer Multi-Cloud-Architektur wesentlichen Leistungsmerkmale und Funktionen.

Ganzheitlich anstelle punktuell

Die Verbindung der unternehmenseigenen IT – ob traditionelle On-Premise-Infrastruktur, private Cloud oder ein Mix beider Be-reitstellungsmodelle – mit multiplen öffentlichen Clouds verlangt allerdings nach mehr. Hier sind umfassende SDS-Lösungen

Die IBM Spectrum Storage-

Produktfamilie umfasst ein

breites Spektrum aufeinander

abgestimmter SDS-Lösungen,

mit deren Einsatz Unternehmen

den Übergang hin zu verteilten

Multi-Cloud-Architekturen

meistern können.

Bild

: © B

illio

nPho

tos.

com

st

ock.

adob

e.co

m

Page 41: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 41

BE S T OF www.storage-insider.de

gefragt, die mit jedem Speicher – ob block-, datei- oder objektba-siert – zusammenspielen und heterogen aufgebaute Multi-Cloud-Umgebungen basierend auf anwendungssensitiven Regeln struk-turieren und organisieren können.

Ausgestattet mit allen notwendigen Automatisierungs- und Da-tenmanagement-Funktionen, ermöglichen solche Anwendungen, bestehende Kapazitäten besser auszulasten sowie nahezu belie-big nach dem Scale-out-Prinzip zu erweitern.

Lösungen, mit denen sich Daten beherrschen lassen

Zu den Herstellern, die sich dem SDS-Ansatz verschrieben haben und ihr Angebot konsequent in diese Richtung ausbauen, zählt IBM. Das Unternehmen führt mit der IBM Spectrum Storage-Produktfa-milie das momentan wohl umfangreichste Portfolio am Markt im Gepäck und nahm im vierten Quartal 2017 in dem regelmäßig von IDC veröffentlichten „Worldwide Storage Software and Cloud Ser-vices QView“, bemessen am Umsatzanteil, erneut die Spitzenpositi-on im softwaredefinierten Speichermarkt ein.

Das reichhaltige Angebot stellt sicher, dass den Kunden in den ein-zelnen Phasen auf ihrem Weg in die Multi-Cloud die jeweils zweck-mäßigsten Tools zur Verfügung stehen. Abgestimmt auf ihre Zielset-zungen und ihr Tempo können sie klein starten, bestehendes weiter nutzen, schrittweise neue Systeme, Technologien und Anwendun-gen der nächsten Generation einbinden sowie ihre Infrastruktur mit mehreren Public Clouds verknüpfen.

Mit IBM Spectrum Storage erhalten Unternehmen somit die Mittel, um eine softwaredefinierte IT-Umgebung zu schaffen, die den Bo-den für die Multi-Cloud und die Entwicklung sowie Nutzung neuer Anwendungen wie KI bereitet.

SDS als Basis für die private Cloud

Im ersten Schritt hin zur Multi-Cloud modernisieren Unternehmen häufig ihre vorhandene Anwendungsinfrastruktur und überführen bislang in der klassischen IT-Umgebung betriebene Applikationen in eine private Cloud. Ziel ist dabei, Infrastrukturen zu schaffen, die Public Clouds in punkto Flexibilität, Agilität und Wirtschaftlichkeit in nichts nachstehen und sich zudem mit diesen verzahnen lassen.

Die Kombination der nachfolgend skizzierten IBM SDS-Lösungen stellt die für den Schutz und das Management der Daten sowie die Storage-Automatisierung gebrauchten Speicherfunktionen bereit.

Page 42: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 42

BE S T OF www.storage-insider.de

Sollen für Big-Data-Analysen oder kognitive Workloads genutz-te große Datenmengen in privaten, hybriden oder Multi-Cloud-Umgebungen gespeichert, verwaltet und geschützt werden, lässt sich dies über die auch als Public-Cloud-Variante verfügbare Vir-tualisierungssoftware IBM Spectrum Virtualize erledigen. Kom-primierung, Tiering, Thin Provisioning, Replikation, kontinu-ierliche Spiegelung und Verschlüsselung sind einige der hierfür bereitstehenden Features.

Für den Schutz der in physischen, virtuellen und softwaredefinier-ten Umgebungen oder der Cloud gespeicherten Daten und deren rasche Wiederherstellung sorgt IBM Spectrum Protect Plus. Repli-kation, Snapshots und Backups sind dabei Standard.

Geht der Speicherplatz zur Neige, lässt sich mit IBM Spectrum Accelerate schnell mehr Kapazität hinzufügen. Der auf einer Grid-Architektur basierende mit einem weit gefächerten Funktions-umfang ausgestattete softwaredefinierte Blockspeicher kann auf x86-Servern, vorinstallierten Appliances und Public-Cloud-Infra-strukturen installiert werden. Die Implementierung ist in wenigen Minuten erledigt, so dass sich rasch auf Daten zugreifen lässt.

Mit IBM Spectrum Archive lassen sich zudem auf Bandlaufwer-ken und Bandarchiven gespeicherte Daten abrufen und mit IBM Spectrum Copy Data Management Prozesse für die Verwaltung von Datenkopien in Rechenzentren aufsetzen.

SDS: Rückgrat für KI- und Big-Data-Anwendungen

Ist im zweiten Schritt die Entwicklung und der Einsatz von KI- und Big-Data-Anwendungen vorgesehen, sind SDS-Lösungen mit Datei- und Objektspeicher-Funktionalitäten gefragt. IBM Spectrum Scale, IBM Spectrum Computing plus IBM Cloud Ob-ject Storage sind hier die richtigen Produkte.

Bei IBM Spectrum Scale handelt es sich um ein paralleles Datei-system, das Virtualisierungs-, Analyse-, Datei- und Objektan-wendungen in einer zentralen Speicherlösung zusammenfasst und kognitive Applikationen unterstützt. Die Management-Soft-ware ist hochskalierbar, so dass sich Petabytes an unstrukturier-ten Daten und Milliarden Dateien verwalten lassen.

Mit Analytik- oder Machine-Learning-Anwendungen lassen sich aus dem reichen Bestand wertvolle Erkenntnisse ziehen. Hier kommt die mit kognitiven Funktionen arbeitende Ressourcen- und Workload-Management-Software IBM Spectrum Computing ins Spiel, die verschiedene Komponenten – IBM Spectrum Con-

Page 43: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 43

BE S T OF www.storage-insider.de

ductor, IBM Spectrum Conductor Deep Learning Impact, IBM Spectrum Symphony und IBM Spectrum LSF – beinhaltet. Mit ihrem Einsatz lässt sich die Auslastung der on-premise sowie in der Cloud betriebenen Computing-Cluster optimieren. Rechenin-tensive Applikationen erhalten die Leistung, die sie benötigen. In Folge lassen sich Analyse- sowie KI-Anwendungen oder Open-Source-Frameworks, darunter Hadoop, Spark, MongoDB und Cassandra, schneller ausführen.

IBM Cloud Object Storage komplettiert das softwaredefinierte Angebot. Da sie sich wirtschaftlich skalieren lässt, bietet die ob-jektbasierte Speicherplattform stets ausreichend Raum für die wachsenden Mengen an unstrukturierten Daten. Die Lösung kann sowohl vor Ort auf Standardhardware als auch in der IBM Cloud oder in einer beliebigen Kombination installiert werden. Dadurch erhalten Unternehmen die Flexibilität, das Speichersys-tem an ihre Anforderungen anzupassen.

Container für rechen- und datenintensive Workloads

Ein Pluspunkt von Multi-Cloud-Umgebungen ist, dass sich An-wendungen zwischen den zusammengeschlossenen Infrastruktu-ren verschieben lassen. Eine einfache Möglichkeit, um diese mit wenigen oder keinen Codeänderungen bereitzustellen und aus-zuführen, sind Container. Mit IBM Spectrum Access und IBM Cloud Private können Unternehmen das Potenzial der Technolo-gien für sich erschließen.

IBM Cloud Private ist eine für Unternehmen konzipierte Platt-form, die Unternehmen erlaubt, ihre On-Premise-Ressourcen um Daten und Werkzeuge aus öffentlichen Cloud-Umgebungen zu er-gänzen. Unternehmen erhalten alle für die Entwicklung und Be-reitstellung Cloud-nativer Anwendungen benötigten Tools an die Hand – beispielsweise Microservices, Laufzeitumgebungen und Container. Ebenso lassen sich bereits bestehende Anwendungen in die Cloud übernehmen oder modernisieren. Abgerundet wird das Paket von Orchestrierungs- und Management-Lösungen, mit denen sich komplexe Multi-Cloud-Infrastrukturen einfach konfi-gurieren und steuern lassen.

Eine weitere für den Betrieb privater Clouds und deren Erwei-terung und Optimierung um Multi-Cloud-Infrastrukturen und -Services angebotene Lösung ist die für Container-Umgebungen zertifizierte Speichersoftware IBM Spectrum Access. Unter an-derem kümmert sie sich darum, dass den entwickelten containe-

Page 44: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 44

BE S T OF www.storage-insider.de

risierten Anwendungen die für ihre Ausführung und Nutzung er-forderlichen Kapazitäten automatisiert, ohne manuelle Eingriffe, zugewiesen werden.

Fazit

Ganz gleich also, in welchem Stadium sich Unternehmen auf ih-rer Reise in die Multi-Cloud befinden, bieten ihnen die SDS-Lö-sungen von IBM stets das passende Rüstzeug – ob als Software, Cloud-Service oder in Form einer integrierten Lösung. ■ Tina Billo

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 45: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 45

BE S T OF www.storage-insider.de

Gruppenrichtlininien und OneDrive Admin Center nutzen

OneDrive for Business in Office 365 konfigurierenUnternehmen, die Anwendern gestatten OneDrive for Business zur Datenspeicherung zu nutzen, haben viel-fältige Möglichkeiten die Konfiguration für Anwender zu automatisieren. Wir zeigen die Möglichkeiten mit Grup-penrichtlinien und dem OneDrive Admin Center.

Um OneDrive for Business und die Privatfunktion OneDrive im Unternehmen zu nutzen, bietet es sich an auf Windows 10 zu setzen, und hier mit Gruppenrichtlinien und dem OneDrive Ad-min Center zu arbeiten. Microsoft stellt für Unternehmen Grup-penrichtlinienerweiterungen zur Verfügung, mit denen sich auch OneDrive for Business steuern lässt.

Der Download umfasst ADMX- und ADML-Dateien, mit denen Administratoren Gruppenrichtlinieneinstellungen für Office 365 und OneDrive sowie OneDrive for Business vornehmen können.

OneDrive mit Gruppenrichtlinien steuern

Damit sich die neuen Gruppenrichtlinienvorlagen verwenden las-sen, müssen die .admx-Dateien in den Ordner „C:\PolicyDefini-tions“ auf den Domänencontrollern kopiert werden. Die Grup-penrichtlinien-Sprachdateien (.adml) müssen aus dem jeweiligen Sprachenordner in den Ordner unter „C:\PolicyDefinitions“ ko-piert werden.

Sobald die Gruppenrichtliniendateien für OneDrive kopiert wur-den, stehen diese über „Benutzerkonfiguration\Administrative

Mit Gruppenrichtlinien

und dem OneDrive Ad-

min Center lassen sich

für die Anwender gelten-

de Konfigurationsein-

stellungen automatisie-

ren. Thomas Joos zeigt,

wie es geht.

(Bild

: Mic

roso

ft)

Page 46: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 46

BE S T OF www.storage-insider.de

Vorlagen\OneDrive und Benutzerkonfiguration\Administrative Vorlagen\OneDrive“ zur Verfügung. Hier können verschiedene Einstellungen angepasst werden, die auch für den OneDrive-Cli-ent gelten, der zum Microsoft-Konto gehört, nicht zu OneDrive for Business.

In der Gruppenrichtlinienverwaltungskonsole sind auch Einstel-lungen über „Computerkonfiguration/Administrative Vorlagen/Windows-Komponenten/OneDrive“ zu finden. Hier ist zum Bei-spiel die Einstellung „Verwendung von OneDrive für die Daten-speicherung verhindern“ verfügbar. Mit der Option „Synchro-nisierung von OneDrive-Dateien über getaktete Verbindungen verhindern“, wird gesteuert, dass lokal gespeicherte Daten mit OneDrive synchronisiert werden, wenn sich der Rechner in ei-nem externen Netzwerk oder einem langsamen WLAN befindet.

Soll OneDrive im Unternehmen erlaubt sein, dient aber nicht als Standard-Speicher, kann das mit der Option „Dokumente stan-dardmäßig auf OneDrive speichern“ verhindert werden. Nach der Integration der ADMX-Dateien für OneDrive stehen bei „Com-puterkonfiguration\Administrative Vorlagen\OneDrive“ und bei „Benutzerkonfiguration\Administrative Vorlagen\OneDrive Op-tionen“ zur Steuerung zur Verfügung.

OneDrive Admin Center nutzen

Mit dem Admin Center steuern Administratoren im Webportal von Office 365 zentraler Stelle alle Einstellungen für OneDrive for Business im aktuellen Office 365-Abonnement. Das OneD-rive Admin Center kann auch zentral über die URL https://ad-min.onedrive.com aufgerufen werden.

Im Admin Center lassen sich Einstellungen vornehmen, die für alle Anwender gelten, die über das Web, von PCs aus, mit Smart-phones oder über Tablets auf OneDrive zugreifen. Im Gegensatz zu den Gruppenrichtlinieneinstellungen werden die Einstellun-gen des Admin Centers direkt in OneDrive for Business gesetzt, nicht für die angebundenen Clients.

Auf der linken Seite stehen verschiedene Befehle zur Verfügung, mit denen OneDrive gesteuert werden kann. Mit den Optionen bei „Freigabe“ wird festgelegt, wie Anwender Dateien freigeben dürfen. Standardmäßig dürfen Anwender die Daten in OneDrive auch mit externen Benutzern teilen, die also nicht zur Organisa-tion gehören.

Page 47: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 47

BE S T OF www.storage-insider.de

Synchronisierung mit PCs steuern

Im OneDrive Admin Center kann über „Synchronisieren“ festge-legt werden, wie die angemeldeten Benutzer Daten aus OneDrive auf ihren PC synchronisieren dürfen. Hier lässt sich zum Beispiel definieren, dass nur PCs, die Mitglied einer Domäne sind, Daten aus OneDrive for Business auf den lokalen Rechner synchroni-sieren dürfen. Zusätzlich können hier auch Dateitypen blockiert werden, die Anwender nicht mit dem OneDrive-Client aus der Cloud auf lokale PCs synchronisieren dürfen.

Dokumente in OneDrive for Business freigeben

Um Dokumente freizugeben, werden diese in der Weboberflä-che mit der rechten Maustaste angeklickt und „Teilen“ gewählt. Anschließend öffnet sich ein Pop-up im Browser und die E-Mail-Adresse des Empfängers wird eingegeben. Auch eine Nachricht zum Teilen kann im Fenster hinterlegt werden.

Durch einen Klick auf „Senden“ erhält der entsprechende An-wender anschließend eine E-Mail mit dem Link zum Zugreifen auf die Datei. Die Berechtigungen dazu werden über das OneD-rive Admin Center vorgegeben.

Durch einen Klick auf den Text „Jeder mit dem Link kann be-arbeiten“, öffnet sich ein weiteres Fenster. Hier kann durch De-aktivieren der Option „Bearbeitung zulassen“ festgelegt werden, dass der Empfänger die Datei nur herunterladen, nicht bearbeiten kann. Außerdem lässt sich steuern, dass die Freigabe nach einer bestimmten Zeit endet. Wenn die Frist abgelaufen ist, kann der Empfänger auf das Dokument in OneDrive for Business nicht mehr zugreifen. Im Fenster kann auch konfiguriert werden, wie lange die Zeitspanne sein soll. Hier ist es ebenso möglich zu be-stimmen, ob der Link nur für den Empfänger funktioniert, eine weitere Teilung aber nicht möglich ist.

Mit OneDrive und Windows 10 große Dateien versenden

In Windows 10 können Anwender OneDrive auch ohne One-Drive for Business zum Datenaustausch von großen Dateien verwenden, zum Beispiel, wenn eine große ZIP-Datei versendet werden soll:

1. Die Datei, die wird in den lokalen OneDrive-Ordner kopiert. Anschließend wird diese automatisch in die Cloud übertragen

Page 48: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 48

BE S T OF www.storage-insider.de

2. Ist die Datei hochgeladen, wird am einfachsten die OneDrive-Webseite aufgerufen. Nachdem der Synchronisierungsablauf abgeschlossen ist, kann die Datei mit der rechten Maustaste und der Auswahl von „Teilen“ mit anderen Nutzern geteilt werden. ■ Thomas Joos

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 49: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 49

BE S T OF www.storage-insider.de

Gastkommentar Günar Aksoy, Pure Storage

Fünf Schlüsselprinzipien daten-zentrischer IT-ArchitekturenDas von Sensoren sowie vernetzten Geräten und damit extern erzeugte Volumen an Daten nimmt in rasantem Tempo zu. Diese in das zentrale Rechenzentrum oder die Cloud zu verschieben, um sie in Echtzeit verarbeiten zu können, stellt oftmals eine Herausforderung dar. Ursa-che hierfür ist das Phänomen der „Datenschwerkraft“ - der Tendenz, dass Daten sich an Infrastrukturen „klam-mern“. Datenzentrische Architekturen beheben dieses Problem.Anwendungen der künstlichen Intelligenz einschließlich Deep Learning stellen für Unternehmen eine große Chance dar. Mit ihrem Einsatz lassen sich große Datenmengen analysieren, auf dieser Basis unter anderem neue Dienstleistungen entwickeln oder die Infrastruktur automatisieren und damit effizienter sowie zuverlässiger betreiben. KI ist somit die nächste Evolutionsstufe in der Analytik und hält in immer mehr softwaregesteuerten Pro-dukten sowie Dienstleistungen Einzug - 2020 soll sie den Ana-lysten von Gartner zufolge Bestandteil fast aller Lösungen sein.

Der Haken an der Sache: nur mit darauf ausgelegten IT-Archi-tekturen lässt sich auch in vollem Maß von den Vorteilen profi-tieren, die KI bietet. Doch in vielen Unternehmen findet man im Laufe der Zeit aufgebaute und infolgedessen fragmentierte, nicht besonders „Cloud-artige“ Infrastrukturen vor. Dementsprechend sind sie das Gegenteil von einfach, skalierbar und agil.

Das datenzentrische Modell

Um der Datengravitation begegnen und Informationen zentral analysieren zu können, bedarf es demnach eines neuen Ansatzes.

Pure Storage plädiert für

eine datenzentrische IT-

Architektur, die als Da-

tendrehscheibe für die

moderne Datenpipeline

fungiert und KI-Initiati-

ven unterstützt.

Bild

: gem

einf

rei -

Pix

elA

narc

hy /

Pix

abay

/

CC

0

Page 50: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 50

BE S T OF www.storage-insider.de

Daten müssen in den Mittelpunkt des Designs der Architektur gestellt werden - nur so lässt sich eine kohärente Datenstrategie implementieren. Dieser sollte auf fünf Eckpfeilern aufbauen.

Zunächst einmal ist der Einsatz von Speichersystemen unerläss-lich, mit denen sich bestehende Datensilos konsolidieren lassen. All-Flash-Lösungen liegen hier inzwischen vorne, da ihnen das Potenzial innewohnt, viele Anwendungen in großen Speicher-pools zusammenzuführen. Bislang vorhandene Speicherebenen lassen sich dadurch vereinfachen und das Management konver-gieren. Dies stellt sicher, dass der Speicher gut zur Infrastruktur-Orchestrierungsstrategie des Unternehmens passt.

VorbereitetaufEchtzeit-Anwendungen

Die zweite Dimension ist, dass die Architektur Echtzeit-Anwen-dungen unterstützen muss. Echtzeitdaten machen Anwendungen schneller, Kundenerlebnisse besser und intensiver sowie die Mit-arbeiter produktiver.

Es ist auch erwähnenswert, dass Echtzeit nicht nur Echtzeitdaten bedeutet, sondern auch Echtzeitkopien. Hierunter wird die Mög-lichkeit verstanden, Kopien von Daten zu erstellen und diese ein-fach zwischen mehreren Nutzern auszutauschen. So lassen sich beispielsweise neue Kopien von Produktionsdaten erstellen und für Test- und Entwicklungszwecke bereitstellen.

On-Demand und Self-Driving

Diese dritte Säule, On-Demand und Self-Driving, stellt einen Paradigmenwechsel im Hinblick darauf dar, wie wir über den Speicherbetrieb für das Unternehmen denken. Was wäre, wenn das Storage-Team nicht als Storage Operations Team, sondern als interner Storage Service Provider für den Kunden X agieren würde? Und wenn jedem Entwicklungsteam Daten als Service auf Abruf zur Verfügung gestellt werden könnten, genauso, wie Entwickler Daten aus der Public Cloud beziehen? Statt des end-losen Zyklus der reaktiven Fehlersuche könnte das Storage-Team seine Zeit damit verbringen, die Infrastruktur zu automatisieren und zu orchestrieren, um sie selbstfahrend und agil zu machen.

Damit dies jedoch Realität wird, bedarf es einiger bedeutender Änderungen in der Art und Weise, wie gearbeitet wird. Unter-nehmen müssen heute die Geschäftsanforderungen antizipieren und eine Reihe von elastisch skalierbaren Speicherdiensten auf-

Page 51: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 51

BE S T OF www.storage-insider.de

bauen, die es Ihnen ermöglichen, der Zeit und dem Speicherbe-darf voraus zu sein. Im Frontend geht es um Standard-Services und Standard-APIs. Im Backend hingegen um die Automatisie-rung der Administration.

Multi-Cloud als Basis künftiger Architekturen

Die zukünftige Architektur wird die Multi-Cloud sein, auch wenn alles vor Ort betrieben wird. Eine typische Geschäftsum-gebung sieht heute so aus: Es gibt eine Produktions-Cloud. Das Unternehmen unterstützt zudem wahrscheinlich mehrere Ent-wicklungsumgebungen und betreibt wahrscheinlich eine Cloud für Analysen und ein globales Backup-Netzwerk.

Jede dieser Einzelumgebungen soll zunehmend im Cloud-Mo-dell laufen, wobei die gleichen Cloud-Attribute erwartet werden: Einfach, On-Demand und elastisch. Gleichzeitig hat jede Einzel-umgebung ihre eigenen Anforderungen. Daher müssen Unter-nehmen eine Datenstrategie entwickeln, die diesen jeweils das Cloud-Datenerlebnis bereitstellt, aber auch die von ihnen gefor-derten einzigartigen Funktionen berücksichtigt.

Eine datenzentrische Architektur sollte daher Multi-Cloud-fähig sein. Das impliziert, dass sich Daten über mehrere Clouds hin-weg verwalten lassen und die hierfür erforderliche Datenportier-barkeit und Offenheit bieten. Wird nicht in diese Richtung hin geplant, besteht die Gefahr, dass Unternehmen in ihrer Infra-struktur gefangen sind.

Drehscheibe für Daten

Vor etwa acht Jahren benötigte 1 Petabyte Flash sechs Racks Platz, und KI war ein Forschungsprojekt. Heute lassen sich 1 Petabyte in weniger als 3U speichern, und KI und Automatisie-rung werden zum Mainstream. Unternehmen müssen daher eine Architektur entwerfen, die bereits die Performance für morgen bietet, aber so aufgebaut ist, dass sie sich weiterentwickelt und innovativ bleibt.

Erreichen lässt sich dies mit einer auf Flash konsolidierten daten-zentrischen Architektur, die Echtzeitprozesse im Unternehmen unterstützt und Daten als Service für die verschiedenen internen Clouds bereitstellt. Weitere Pluspunkte sind, dass sich mit diesem Modell die Leistung von Kernanwendungen vereinfachen lässt und gleichzeitig IT-Kosten gesenkt werden können. Sie versorgt

Page 52: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 52

BE S T OF www.storage-insider.de

Entwickler mit On-Demand-Daten, ermöglicht es, Builds schnel-ler zu erstellen und bietet die für DevOps und die kontinuierliche Integration/Bereitstellung erforderliche Agilität.

Eine solche Architektur wird auch die nächste Generation von Analysen liefern und als Datendrehscheibe für die moderne Da-tenpipeline fungieren, einschließlich der Unterstützung von KI-Initiativen. Damit steht Unternehmen eine Plattform zur Ver-fügung, dank der sie ihr Geschäft beschleunigen und damit der Konkurrenz einen Schritt voraus sein können. ■ Güner Aksoy

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 53: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 53

BE S T OF www.storage-insider.de

Vorbild Hyperscaler

Fünf Tipps für den Aufbau ska-lierbarer SpeicherumgebungenIn Hyperscale-Rechenzentren laufen High-Performance-Computing- (HPC), Big-Data-Analytics-, KI- und con-tainerisierte Anwendungen sowie viele weitere daten-intensive Workloads. Dies erfordert Speicher, der mit Milliarden Dateien und Hunderten Petabyte an Daten zu-rechtkommt. Die Basis stellen leistungsstarke, skalier-bare Storage-Lösungen. Unternehmen können das Ge-staltungsprinzip adaptieren - Quobyte erläutert, worauf es dabei ankommt.

Hyperscale-Rechenzentren sind auf dem Vormarsch. 2021 soll es laut Cisco knapp 630 davon rund um den Globus geben und damit bereits 240 mehr als noch 2017. Das was Amazon, IBM, Microsoft, Google & Co vorgemacht haben, ist schon längst nicht mehr nur deren Domäne. Vielmehr bieten immer mehr Hersteller speziell für den Unternehmenseinsatz konzipierte Lösungen an, mit denen sich Hyperscale-Umgebungen in kleinerem Maßstab aufbauen lassen.

Geht es um die zugrundeliegenden Speicherinfrastrukturen, kommt es neben Leistungsstärke und einfacher Verwaltbarkeit vor allem darauf an, dass sich diese skalieren lassen. Für ihren Aufbau sollten Unternehmen Lösungen wählen, die folgende Merkmale aufweisen.

Dateibasiert

Spielt Leistung eine Rolle, kommen block- und objektorientierte Plattformen oder Produkte in punkto Flexibilität nicht an da

Bjorn Kolbeck, Mitbe-

gründer und CEO von

Quobyte, gibt basierend

auf den von Quobyte

gesammelten Erfahrun-

gen fünf Tipps für den

Aufbau skalierbarer Inf-

rastrukturen.

Bild

: Quo

byte

Page 54: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 54

BE S T OF www.storage-insider.de

teibasierte Systeme heran. Zwar bietet in Speichernetzwerken eingesetzter traditioneller Blockspeicher ebenfalls eine hohe Per-formance, allerdings nur beim lokalen Einsatz und solange er le-diglich eine überschaubare Zahl an Geräten bedient. In Sachen Skalierbarkeit schneidet der Klassiker weniger gut ab - so können Erweiterungen beispielsweise Leistungseinbußen oder eine kom-plexere Verwaltung nach sich ziehen.Objektspeicher zeichnet sich hingegen durch eine nahezu unbe-grenzte Erweiterbarkeit aus und bietet Raum für die Speicherung von Millionen bis hin zu Milliarden von Objekten - allerdings punkten einige heutige Dateisysteme mit einer vergleichbaren Skalierbarkeit. Hinsichtlich IOPS-Leistung und Latenz hinkt Ob-ject Storage jedoch filebasierten Systemen hinterher und tut sich vor allem bei primären Workloads schwer, insbesondere wenn viele kleine Dateien bewältigt werden müssen. Zudem beherr-schen nicht alle Anwendungen von Hause aus, die für den Zugriff auf Object Storage nötigen Protokolle. Dies macht den Einsatz eines Add-On-Gateway erforderlich, der Leistungsengpässe ver-ursachen kann.

„Unfied“Aufgrund verschiedener technischer Einschränkungen führten Speichererweiterungen in der Vergangenheit häufig dazu, dass die Zahl an separat betriebenen Speicherservern in Unternehmen anstieg und Silostrukturen entstanden. Dies erschwerte den Zu-griff auf die Speicherressourcen und Daten. Einen Ausweg aus diesem Dilemma bietet der Wechsel auf eine „Unified Storage“-Plattform, die heterogene Kommunikationsprotokolle in einem Pool zusammenführt. Dies ermöglicht über NFS, SMB oder S3 auf Daten von und zwischen Linux-, Windows- oder Mac-Syste-men zuzugreifen.Da Unified-Storage-Plattformen sowohl ältere als auch neue An-wendungen unterstützen, sind sie für den Einsatz in Umgebungen mit traditionellen und modernen Workloads prädestiniert. Bei-spielsweise kann ein Windows-Nutzer eine große Datei bearbei-ten, während ein Mac-Anwender diese gleichzeitig liest. Hierfür muss sie weder kopiert, noch auf ein anderes System verschoben werden. Ebenso lassen sich Dateien über S3 einfach teilen und gemeinsam nutzen.

Open-Source-fähig

Hyperscale-Umgebungen setzen meist auf Open-Source- und Open-Computing-Ökosystemen auf, da diese Innovation, Finan-

Page 55: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 55

BE S T OF www.storage-insider.de

zierbarkeit und Integrationsfähigkeit angehend, Vorteile bieten. So setzen Betreiber der größten Rechenzentren für die wirt-schaftliche Verwaltung ihrer Compute-, Storage- und Networ-king-Ressourcen auf Openstack.

Storage-Plattformen sollten daher mit Openstack zusammenspie-len können und umgekehrt sowie die zugehörigen Schnittstellen und Komponenten, darunter Cinder, Manila, Glance oder Keys-tone, unterstützen.

SPoF-frei

Fehlertoleranz ist in großen Umgebungen, in denen unzählige Hard- und Softwarelösungen zum Einsatz kommen, ein absolutes Muss. Durch Redundanz ohne Single Points of Failures (SPoFs) lässt sich für Ausfallsicherheit sorgen. Gleichermaßen müssen ausgefallene Komponenten angefangen von defekten oder fehler-haft arbeitenden Switch-Komponenten und Netzwerkkarten bis hin zu schadhaften Netzwerkkabeln aber auch möglichst einfach identifiziert und ausgetauscht werden können. Ansonsten können sie einen SPoF darstellen und es zum Verlust oder der Beschädi-gung von Daten kommen.

In Computerclustern kann sich zudem ein partieller Ausfall als SPoF erweisen und eine Split-Brain-Situation hervorrufen. Da-durch ist unklar, welche Dateiversion aktuell sowie korrekt ist und die Datenkonsistenz lässt sich nicht gewährleisten. Eine sol-ches Szenario lässt sich durch den Einsatz von Software vermei-den, die Funktionen zur Datenverfizierung und Durchführung von Konsistenzprüfungen bietet sowie Platten- und Knotenaus-fälle automatisch behebt.

Einfach verwaltbar

Die in Hyperscale-Umgebungen zu bewältigenden Datenmengen können sich von Jahr zu Jahr verdoppeln oder verdreifachen - auf das für ihren Betrieb und für ihre Betreuung bereitstehende Bud-get oder zuständige IT-Personal trifft dies hingegen nur in den sel-tensten Fällen zu. Daher müssen die eingesetzten leistungs- und kapazitätsstarken Speicherlösungen sich möglichst unaufwändig, ohne großen Zeiteinsatz verwalten und instandhalten lassen.

Hochautomatisierte Systeme mit integrierten Selbstüberwa-chungs- und Selbstheilungsfunktionen entlasten mit dem Betrieb

Page 56: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 56

BE S T OF www.storage-insider.de

großer Installation betraute Administratoren und ermöglichen selbst kleinen IT-Teams Dutzende bis Hunderte Petabyte an Da-ten zu verwalten. ■ Björn Kolbeck*

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 57: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 57

BE S T OF www.storage-insider.de

Zukünftiger Trend - Rechnen direkt im Speicher

200 Mal schneller: IBM demonstriert massiv-paralleles In-Memory-ComputingIBM Research hat einen In-Memory-Coprozessor entwi-ckelt, der Phase Change Memory (PCM) nutzt. Er kann Berechnungen direkt im Speicher ausführen – 200-mal schneller als herkömmliche Von-Neumann-Computer.

Aktuelle Rechnerarchitekturen basieren in der Regel auf Gedan-kenmodellen des österreich-ungarischen Mathematikers John von Neumann. Sie trennen den Datenbereich von der Berechnungslo-gik, erfordern also ständiges Laden und Speichern von Daten. Alternativen sind rar und meist experimentell. Als Vorlage dient oft das menschliche Gehirn: Dieses ist in der Lage, Daten massiv parallel direkt am Speicherort zu verarbeiten.

Computerarchitekturen, die diese Fähigkeiten nachzubilden ver-suchen, verwenden typischerweise memresistive Nanozellen (memresistive devices). Dr. Abu Sebastian, IBM-Forscher in Zü-rich, erläutert deren Besonderheiten: „Der Widerstand dieser re-sistiven Memory-Elemente, kurz: Memristoren, hängt vom Strom ab, der zuvor durch die Zelle geflossen ist.“ Daher können sie einerseits Daten nichtflüchtig speichern, andererseits aber auch gleichzeitig als Transistor arbeiten.

Das bedeutet: Darauf basierende Architekturen brauchen nicht zwischen Datenspeicher und Prozessorhardware unterscheiden. Logikoperationen lassen sich direkt im Speicher ausführen. Da diese Computer nicht wie die Von-Neumann-Rechner wiederhol-te Lade- und Speicheroperationen durchführen müssen, sollen sie wesentlich effizienter arbeiten.

Vorreiter: Der Prototyp

des In-Memory-

Coprozessors von

IBM Research nutzt

1 Mio. PCM-Elemente.

Bild

: IB

M R

esea

rch

TECHNOLOGIE & ZUKUNFTnicht löschen wird für das automatische Inhaltsverzeichnis benötigt!

Page 58: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 58

BE S T OF www.storage-insider.de

Womit sich Startups heute beschäftigen

Software-defined Datacenter wird abgelöst von composable InfrastructureComposable Infrastructure schiebt sich als geeignete Technik für neuartige Arbeitslasten immer mehr in den Vordergrund. Das Startup DriveScale nennt seine Lö-sung eine „Infrastructure as code“ oder „Software Com-posable Infrastructure“, mit der sich die gewünschte IT-Umgebung per Programmbefehl kreieren lässt.

Das Prinzip von SCI (Software Composable Infrastructure) ist auf den ersten Blick recht einfach: Trenne Server und Speicher, verwalte beide Komponenten in Pools und aggregiere bezie-hungsweise disaggregiere sie je nach Bedarf. Statt herkömmli-cher Server nutzt man also Recheneinheiten, deren Speicher nur booten muss, und als Massenspeicher reichen JBoDs.

Für eine bestimmte Aufgabe kann man jeden Server mit jeder Festplatte verbinden und so Scale-out Cluster je nach Bedarf komponieren. Wird später mehr Rechen- oder Speicherleistung benötigt, kommen neue Komponenten aus den jeweiligen Pools dazu. Nach Beendigung der Aufgabe kehren die Ressourcen in ihr Lager zurück. Gesteuert wird das Ganze von Software, die schnell arbeitet und eine manuelle Konfiguration überflüssig macht.

Je nach Art der Aufgabe

kann konfiguriert wer-

den: Mehr Rechenpower

oder mehr Speicher-

platz.

Bild

: Driv

eSca

le

Page 59: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 59

BE S T OF www.storage-insider.de

Wer bringt Server und Speicher zusammen?

Damit die Orchestrierung der Ressourcen optimal laufen kann, setzt DriveScale auf die Expertise seiner Crew. Der CEO Gene Banman agierte unter anderem einst als Japan-Chef von Sun Mi-cro, CTO Satya Nishtala war für Suns UltraSparc Workstations und Workgroup Server verantwortlich und Tom Lyon, jetzt Chief Scientist bei DriveScale, kümmerte sich bei Sun unter anderem um SunOS, SPARC und SunScreen.

Die Gründer Nishtala und Lyon haben vor DriveScale bei Cis-co UCS zusammengearbeitet. Die Company mit Sitz im kalifor-nischen Sunnyvale kann im März diesen Jahres ihr fünfjähri-ges Bestehen feiern und sich zudem auf einen namhaften Beirat stützen, dem unter anderem Sun-Mitbegründer Scott McNealy, Cloudera-Gründer Amr Awadalla und James Gosling, der „Vater von Java“ angehören.

Die Entwickler haben drei Komponenten identifiziert, die für das DriveScale-System benötigt werden: Eine Management-Konsole, Adapter sowie Software-Agents. Die Architektur kombiniert das DriveScale-System mit Standard-Servern, den JBoD-Speichern und eine Netzwerkinfrastruktur auf Basis von 10 GBit Ethernet, die vom Anwender kontrolliert wird – und zwar entweder im ei-genen Datacenter oder in einer Co-Location. Im Prinzip entsteht also eine Private Cloud.

Aus SAS wird Ethernet

Der Management-Server von DriveScale liefert zusammen mit den Agents die Kernfunktionalität des Systems. Dieses Pro-gramm stellt aus Computer- und Speicherkomponenten logische Knoten zusammen, die über die Adapter und das Ethernet-Netz verteilt werden.

Für das Betriebssystem und die Applikationen ist die Lösung nicht vom herkömmlichen Modell mit Rack-Servern und lokalen Platten zu unterscheiden. Der Hersteller packt die Adapter in ein Chassis (SAS zu Ethernet), das die herkömmlichen JBoD-Spei-cher in solche mit Ethernet-Verbindung „umwandelt“. In einem Chassis lagern vier der Adapter, jeder mit zwei Anschlüssen für 10 GBitE SFP+ sowie zwei SAS-Ports mit 12 GBit Schnittstelle.

Die DriveScale-Software besteht aus drei Komponenten: Das Ma-nagement-System ist für die Zusammenstellung der Knoten und Cluster zuständig und sammelt die Informationen der Agenten und Adapter. Die Server-Agents laufen auf den Linux-Rechnern.

Page 60: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 60

BE S T OF www.storage-insider.de

Sie enthalten die Informationen über die Server-Konfiguration, überwachen sie und leiten die Informationen an das Datenmana-gementsystem weiter. Die dritte Softwarekomponente nennt sich „DriveScale Central“. Sie agiert als Cloud-basierender Service für die Verwaltung aller Knoten und Cluster. Sie ist zudem unter anderem für den Download von Updates zuständig und protokol-liert Log Files.

SCI:GründeundVorteile

DriveScale-CEO Banman beschreibt die Gründe für die Entwick-lung von SCI so: „Derzeit sind rund 50 Prozent aller Daten mit herkömmlicher Technik gesammelt, verarbeitet und gespeichert worden. Aber das ändert sich.“ Die bisherigen Platzhirschen auf diesem Gebiet – etwa HP, Dell, oder Cisco – blieben aber bei der alten Architektur hängen und die neuen Highflyer wie Amazon, Google oder Facebook verkauften Services und keine Computer-produkte. Seine Vision ist und war eine Computer Company, die nicht auf Hardware sondern auf Software setzt.

Banman zählt die Vorteile einer solchen Architektur auf: Die Konsolidierung von Cluster, die bessere Nutzung der Ressourcen, ein schnelleres Agieren auf die Bedürfnisse der Anwender, den Lebenszyklus von Rechner und Speicher entkoppeln und schließ-lich noch das Einsparpotenzial bei Energie und Platzbedarf.

Das Alles führt seiner Meinung nach zu extremen Kosteneinspa-rungen: „Vergleicht man unsere Lösung im Datacenter mit einer herkömmlichen, dann sinken die TCO-Ausgaben innerhalb von fünf Jahren um 50 Prozent. Im Vergleich mit Cloud-Lösungen spare man sogar bis zu 75 Prozent.“

Zudem sei die Lösung hochverfügbar mit no single point of fai-lure. Für die Sicherheit sorgen eine Public-key-Authentifizierung zwischen Rechner und zugewiesenem Laufwerk sowie die Mög-lichkeit zur Datenverschlüsselung sowohl bei der Übertragung als auch im Lagerzustand.

Was bisher erreicht wurde

Zunächst entwickelte das DriveScale-Team eine SCI-Lösung für Hadoop. Bis 2017 wurden nach eigenen Angaben weltweit mehr als eine Million Hadoop/Spark-Knoten geliefert. Als nächsten wurden massiv-parallele Datenbanken vom Typ Greenplum, Tera-data und Vertica unterstützt. Der nächste Schritt war die Einbin-dung von Container (Docker, Kubernetes) ins DriveScale-System.

Page 61: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 61

BE S T OF www.storage-insider.de

Verkauft wird die DriveScale-Lösung, die derzeit bis 10.000 Knoten getestet ist, unter anderem von Dell/EMC, Round Tower Technologies, World Wide Technology oder Savvy. Der Adapter mit vier Controllerkarten kostet in den USA rund 10.000 Dollar.

■ Steffen Breiter

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 62: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 62

BE S T OF www.storage-insider.de

Page 63: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 63

BE S T OF www.storage-insider.de

Spezialspeicher auf dem Weg in den Massenmarkt

Das Problem ist nur: Speicher auf Basis von Memristoren ist teuer und bislang nur mit geringen Kapazitäten verfügbar. Dazu zählt Phasenübergangs-Speicher (Phase-Change Memory, PCM): Die auch als PCRAM bezeichnete Technologie nutzt Phasen-übergänge des Substrats zum Speichern von Informationen. Ein PCM-Element kann – über den Stromfluss thermisch gesteuert – zwischen dem kristallinen und dem amorphen Zustand seines Materials wechseln. In beiden Fällen unterscheidet sich der elek-trische Widerstand, so dass das Element als Speicherzelle und als Schaltelement dienen kann. Nach außen verhält sich PCM wie nichtflüchtiger NOR-Flash-Speicher. Dieser kommt beispielswei-se in vielen Smartphones zum Einsatz.

Nun hat IBM Research in Zürich hat einen Weg gefunden, dreidi-mensionale Stapel von Phasenübergangs-Speicherbausteinen als Massenprodukt herzustellen. Das neue 3D-Fertigungsverfahren könnte nun den Weg zu günstigen PCM-Komponenten mit hoher Speicherkapazität ebnen.

Der PCM-Baustein des Unternehmens besteht aus einer Germani-um-Antimon-Tellurid-Legierung, die zwischen zwei Elektroden liegt. Fließt nun ein definierter Strom durch das Element, wech-selt das Material von einer amorphen in eine kristalline Phase. Die Widerstandswerte lassen sich leicht stufenweise kontrollie-ren. Sie variieren zwischen extrem niedrig, was einer digitalen 0 entspricht, und extrem hoch, was der digitalen 1 entspricht. Zusätzlich können sie aber auch beliebige Werte dazwischen an-nehmen, was einen quasi analogen Betrieb ermöglicht.

In-Memory-Coprozessor ermöglicht massiv-parallele Be-rechnungen

Seinen PCRAMs stellt IBM eine spezielle Recheneinheit zur Sei-te. Dieser In-Memory-Coprozessor verwendet Algorithmen, die die dynamischen Kristallisationseigenschaften von PCM ausnut-zen. Er soll laut IBM extrem viele Zellen gleichzeitig ansprechen können. Dieser Vorgang ist vergleichbar mit dem menschlichen Gehirn, das parallel die Signale von Millionen von Neuronen und Billionen von Synapsen verarbeitet.

Im Dezember wird IBM während des International Electronic Devices Meetings (IEDM) seine PCM-Entwicklungen demons-trieren. Diese würden sich gut für Aufgaben eignen, die maschi-nelles Lernen erfordern, erklärt IBM-Forscher Evangelos Eleft-

Page 64: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 64

BE S T OF www.storage-insider.de

heriou gegenüber der eetimes. „Nach bisherigem Stand können wir sagen, dass unser Algorithmus, der nicht auf der Von-Neu-mann-Architektur fußt, Datenkorrelationen 200-mal schneller erkennt als aktuelle Hochleistungsrechner.“

Beim In-Memory-Computing wird der gesamte Datensatz ins RAM geladen. Somit ist während der Berechnung kein Aus-tausch von Daten mit einem Massenspeicher notwendig. Dieser ist immer langsamer als RAM – egal, ob mechanische Festplatten oder Flash zum Einsatz kommen.

IBMs Ansatz zwängt die In-Memory-Daten also nicht durch den Von-Neumann-Flaschenhals einer CPU, sondern lässt die ur-sprünglichen Speicherwerte in den PCM-Zellen liegen. Der Spei-chercontroller führt parallele Operationen mit den in den Zellen gespeicherten Werten aus. Die Berechnungen erfolgen an Ort und Stelle. Dafür nutzt die Technik die physikalischen Eigenschaften des Phase-Change-RAMs.

Derartige memristive Architekturen arbeiten wie ein Gehirn: Häufig verwendete Speichersynapsen werden gestärkt, ihr Wi-derstand sinkt. Bei selten benutzten Zellen steigt hingegen der Widerstand. In Gänze ergibt sich ein Zellmuster, das mit zuneh-mender Erfahrung immer genauer wird.

Schneller und auch sparsamer

Die In-Memory-Computing-Technologie rechnet jedoch nicht nur schneller, sie kommt auch mit weniger Strom aus, da auf häufige Lade- und Speichervorgänge, wie sie in Von-Neumann-Architek-turen nötig sind, verzichtet werden kann.

Basierend auf dieser Technologie will IBM eine neue Generation besonders energieeffizienter Prozessoren entwickeln. Der Proto-typ verfügt über 1 Million In-Memory-Zellen, die jeweils diesel-be Deep-Learning-Rechenaufgabe auf dem geladenen Datensatz ausführen. Der Einsatz der dynamischen PCM-Kristallisation lie-fert schnelle Ergebnisse und vermeidet Energieverbrauch durch mehrfaches Laden und Speichern von Daten. Laut IBM ist die Technologie gut skalierbar, sowohl vertikal als auch horizontal. So ließe sich ein dreidimensionaler, nicht auf der Von-Neumann-Architektur basierender Coprozessor entwickeln, der selbst kom-plexeste Aufgaben lösen könnte.

Sebastian ist überzeugt, dass zukünftige Rechnersysteme kaum ohne resistive Speicherkomponenten auskommen werden, be-sonders beim kognitiven Computing: „Memristoren können eine

Page 65: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 65

BE S T OF www.storage-insider.de

wichtige Rolle spielen bei extrem schnellen und ultradichten, nichtflüchtigen Speichern – aber auch als Elemente in Prozesso-ren und Coprozessoren, die nicht auf dem Von-Neumann-Modell basieren.“ ■ Michael Eckstein

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 66: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 66

BE S T OF www.storage-insider.de

Womit sich Startups heute beschäftigen, Teil 17

Qumulo bringt skalierbares File-System für große VoluminaDie junge Firma Qumulo ist bei uns noch kaum bekannt, in den USA räumt sie derzeit Lob und Anerkennung für ihr hoch skalierbares File-System „QF2“ ab.

Im März wird Qumulo zwei Jahre alt und darf sich noch mit Recht ein Startup-Unternehmen nennen. Die Gründer und Top-Manager sind allerdings altgediente IT-Spezialisten. Viele von ihnen ha-ben zusammen bei Isilion – Entwickler des OneFS-File Systems - gearbeitet: Bill Richter, CEO und President von Qumulo, Peter Godman, Gründer und CTO, Neal Fachan, ebenfalls Gründer, agiert jetzt als Chefwissenschaftler, Mary Godwin (Operations), Eric Scollard (Verkaufschef) und Jay Wampold (Marketing) bli-cken auf eine Isilion-Vergangenheit zurück. Deshalb bezeichnen sich die Qumulo-Gründer als „bestes File-System Engineering Team“ der Welt.

1 Film – 5 Millionen Files

„15 Jahre nach der Einführung des letzten erfolgreichen File-Sys-tems – OneFS – war es Zeit, auf die neuen Herausforderungen in der IT zu reagieren“, beschreibt Gründer und CTO Peter Godman das Motiv für die Gründung von Qumulo. Seiner Meinung nach sind File-basierende Daten - und hier insbesondere High-Performance-Files – „der Motor der Innovation“ im modernen Geschäftsleben.

So bestehe beispielsweise ein Zeichentrickfilm durchschnittlich aus fünf Millionen Files. Qumulo freut sich darüber, dass drei der besten fünf Filmstudios für Animation zu seinen Kunden zählen. Aber auch Unternehmen aus der Öl- und Gasindustrie oder Telecom-Provider nutzen Qumulos Speichertechnik mit dem neuen File System „Qumulo File Fabric“ (QF2).

Qumulo File Fabric (QF2)

arbeitet in vielen

Betriebssystemunge-

bungen. Eine perma-

nente Replikation erfolgt

sowohl im eigenen Data

Center als auch in der

Cloud.

Bild

: Qum

ulo

Page 67: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 67

BE S T OF www.storage-insider.de

Herkömmliche NAS-Speicher – sowohl Scale-up- als auch Scale-out-Systeme – sind hinsichtlich Kapazität und Leistung limitiert. Das sind aber genau die Kriterien, die heute zu erfüllen sind. In einer Welt, in der immer mehr Daten anfallen, Stichwort Big Data, müssen diese Daten in Echtzeit kontrolliert werden - und das auch noch über verteilte Standorte hinweg. Dazu sollen Spei-cherplätze flexibel genutzt werden, also im eigenen Rechenzen-trum und in der Cloud, je nach dem, was das Geschäft verlangt.

Was das neue File-System kannQumulo hat für seine Lösung dieser Probleme eine neue Spei-cherkategorie etabliert: Universal-scale File Storage. Einer der Vorzüge davon ist die Fähigkeit, das File-System QF2 über das Unternehmens-Rechenzentrum und die Public Cloud hinweg auszurollen. Es skaliert nahezu unbeschränkt auf Milliarden von Files und liefert laut Hersteller höchste Leistung sowohl im Data Center als auch in der Cloud.Ein weiterer Vorteil der Lösung ist, dass sie keine proprietäre Hardware benötigt, sondern mit herkömmlichen Komponenten zufrieden ist und somit im Vergleich zu proprietären Lösungen die Kosten senkt. Dazu kommt, dass die Speichersysteme in un-terschiedlichen Betriebssystemumgebungen arbeiten. Die Mi-schung von großen und kleinen Files stellt kein Problem dar.Speicher-Cluster lassen sich über das QF2-File System einfach bilden und zwar über Grenzen hinweg: Cloud-Instanzen oder Re-chenknoten mit Standard-Hardware lassen sich zu einem Spei-cher-Cluster verbinden mit einem einheitlichen File-System und skalierbarer Leistung.„QF2-Cluster arbeiten zusammen um eine geografisch verteilte aber eng gekoppelte Storage-Fabric zu bilden, die mit andauern-der Replikation einher geht“, beschreibt Godman eine globale Ausrollmöglichkeit. Gesteuert wird die Speicherlösung ((siehe Grafik2)) über normale File-Protokolle, dem QF2-REST API und einem GUI für Administratoren.

B-tree-Struktur, Echtzeitanalyse mittels Datenbank und SicherheitWie wird man mit den vielen und unterschiedlich großen Files fertig? Die Qumulo-Entwickler haben sich zunächst für eine B-Tree-Struktur für die Speicherung der Indexdaten entschieden. Damit erreichen sie, dass der I/O-Bedarf für jede Operation bei steigenden Datenmengen minimiert wird.

Page 68: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 68

BE S T OF www.storage-insider.de

Die zweite Besonderheit der Lösung ist die „QumuloDB“, die für die Echtzeitanalyse genutzt wird. Die Datenbank pflegt perma-nent die aktuellen „summaries“ der Metadaten für jedes Direc-tory. Sie nutzt die B-Trees des File-Systems um Änderungen im File zu sammeln. Innerhalb des File-Systems werden einige Fel-der der Metadaten summiert und ein virtueller Index erstellt. Die Leistungsanalyse, die im GUI angezeigt wird, basiert auf Samp-ling-Mechanismen, die diese Aggregation der Metadaten nutzen.

QumuloDB ist vollständig im File-System integriert, anders als in herkömmlichen Lösungen, wo Anfragen nach den Metadaten von einer Software erledigt werden, die außerhalb des File-Sys-tems agiert.

Die Aggregation der Metadaten in Echtzeit hat noch einen ande-ren Vorteil. Damit lassen sich auch Quotas – also die Festlegung, wie viel Kapazität ein Directory für Files verwenden darf - in Echtzeit einrichten. Auch bei Snapshots glaubt sich die Compa-ny auf der sicheren Seite. „Ein einzelner QF2-Cluster kann eine praktisch unbegrenzte Anzahl von gleichzeitigen Snapshots ha-ben, ohne dass es zu Leistungs- oder Kapazitätseinbußen kommt“, freut sich der Qumulo-CTO.

Auch für die Datenreplikation gibt es eine sichere Lösung: Nach-dem eine Replikationsbeziehung zwischen produktivem Cluster und Ziel-Cluster geknüpft und synchronisiert ist, hält QF2 die Daten automatisch konsistent.

Fazit

In den Zeiten des ungebremsten Datenwachstum - gerade von un-strukturierten Daten – und der verteilten Datenhaltung in Clouds und eigenen Data Centern macht es fast unumgänglich, dafür auch ein neuartiges File System zu entwickeln. Qumulo hat sich dieser Aufgabe unterzogen und dafür Meriten eingeheimst. So hat Gartner Qumulo in seinem „Magic Quadrant“ für verteilte File Systeme und Object Storage als Visionär eingestuft.

Qumulo will noch Anfang dieses Jahres in Europa eine Nieder-lassung gründen. Bis dahin kann man QF2 über HPE beziehen. ■ Kriemhilde Klippstätter

Page 69: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 69

BE S T OF www.storage-insider.de

PM1643 für Enterprise-Systeme

Samsung kündigt 30,72- Terabyte-SSD anMit der PM1643 hat Samsung die Massenproduktion einer SSD mit 30,72 Terabyte Speicherkapazität aufge-nommen. Das Flash-Laufwerk ist für Enterprise-Storage-Systeme der nächsten Generation konzipiert.

Die PM1643-Serie setzt auf eine 12-Gbit/s-SAS-Schnittstelle. Sie nutzt die aktuellste V-NAND-Technologie von Samsung, die 3-Bit-512-Gigabit-Chips mit 64 Lagen ermöglicht. Im Ver-gleich mit der im März 2016 vorgestellten High-Capacity-Reihe mit 15,36 Terabyte Kapazität wurden Speicherplatz und Leistung verdoppelt.

Dies wurde durch die Zusammenfassung von 32 der neuen 1-Ter-abyte-NAND-Flashbausteine möglich, die jeweils aus 16 überei-nandergestapelten Lagen von 512-Gigabit-V-NAND-Chips beste-hen. Neben der höheren Speicherkapazität wurde auch die Leistung deutlich erhöht: Die PM1643-SSD kommt auf bis zu 400.00 IOPS im Random-Read-Betrieb und 50.000 IOPS im Schreibmodus. Sequentiell werden bis zu 2.100 Megabyte pro Se-kunde gelesen und 1.700 Megabyte pro Sekunde geschrieben.

Samsungs PM1643-SSD

bietet satte 30,72

Terabyte an Speicher-

platz.

Bild

: Sam

sung

Page 70: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 70

BE S T OF www.storage-insider.de

Technologische Fortschritte

Samsung hat die hohe Leistung auch Verbesserungen beim Con-trollerdesign, den DRAM-Bausteinen und der Software zu ver-danken. So wurden in der neuen Architektur neun Controller aus der vorherigen Serie an High-Capacity-SSDs in einem einzigen Baustein zusammengefasst. Zudem kommt die TSV-Technik (Through Silicon Via) zur Anbindung von 8-Gigabit-DDR4-Chips zum Einsatz. Auf diese Weise entstehen zehn 4-Gigabyte-TSV-DRAM-Bausteine mit insgesamt 40 Gigabyte DRAM. Dieses Verfahren kommt bei der PM1643-Serie erstmals zum Einsatz.

Auch die Software wurde optimiert und umfasst nun Metada-tenschutz sowie Datenerhalt und Regenerierung nach plötzli-chen Stromausfällen. Ein ECC-Algorithmus (Error Correction Code) sorgt für hohe Zuverlässigkeit. Laut Samsung unterstützt die PM1643 eine Dauerbeanspruchung von einem DWPD (Drive Write Per Day), ohne dass es zu Ausfällen kommt. Der Hersteller gibt die MTBF (Mean Time Between Failures) mit zwei Millio-nen Stunden an. Neben der 30,72-Terabyte-Version sollen auch Varianten mit 15,36, 7,68, 3,84 und 1,92 Terabyte sowie 960 und 800 Gigabyte im Lauf des Jahres verfügbar werden. Preise sind aber noch nicht bekannt. ■ Martin Hensel

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 71: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 71

BE S T OF www.storage-insider.de

Nimbus Data füllt Lücke zwischen NVMe und HDD im Rack

3,5-Zoll-SDD mit 100 TByte 3D-NANDMit dem ExaDrive DC100 präsentiert Nimbus Data ein SSD-Laufwerk für Server, das den Wettbewerb in nahezu allen Belangen schlagen soll – vor allem in Sachen Kapa-zität: Der Hersteller packt bis zu 100 TByte Speicherplatz in ein 3,5-Zoll-Gehäuse.

Bis zu 100 Terabyte Flashspeicher packt Nimbus Data (Nimbus) jetzt in ein Gehäuse, das dem einer klassischen 3,5-Zoll-Fest-platte entpricht. Verglichen zum Wettbewerb soll das für Ser-veranwendungen und dicht gepackte Racks gedachte Laufwerk dreimal mehr Kapazität liefern, 85 Prozent weniger Energie pro TByte verbrauchen und über eine Nutzungsdauer von fünf Jahren 42 Prozent preisgünstiger sein.

Für die ExaDrives der DC Serie setzt der Hersteller auf eine ei-gene Multiprozessor-Architektur sowie 3D-NAND. Der Herstel-ler positioniert das Laufwerk als neue Geräteklasse „skalierbarer SSDs“ für Tier 2, die zwischen NVMe und Nearline-HDD einge-setzt werden soll. Statt auf rekordverdächtige Performance richtet Nimbus das Augenmerk dabei auf hohe Kapazität, Energieeffizi-enz und Zuverlässigkeit.

Dem entsprechend fallen die Transferraten der Laufwerke ver-gleichsweise bescheiden aus: Der Datendurchsatz liegt lesend wie schreibend bei 500 MByte/s, der durchschnittliche IOPS-Wert bei 100.000. Den Energiebedarf beziffert Nimbus Data da-für mit lediglich 0,1 Watt pro TByte – auf das Modell mit 100 TByte hochgerechnet entspricht das zehn Watt.

Die ExaDrive Series

soll eine neue Geräte-

klasse skalierbarer

SSDs begründen.

Bild

: Nim

bus

Dat

a

Page 72: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 72

BE S T OF www.storage-insider.de

Im Laufwerk verbaute Kondensatoren sollen Daten während plötzlicher Stromausfälle schützen. Überdies wirbt der Anbieter mit Verschlüsselung, ECC-Prozessoren und einer Funktion zur sicheren Datenlöschung.

Mit seinen Leistungswerten empfehle sich das Flash-Laufwerk für ein weites Feld an Anwendungen, sagt Nimbus und nennt ne-ben Big Data und maschinellem Lernen auch Rich Content und Cloud-Infrastrukturen.

Auf dem OCP U.S. Summit hat der Hersteller am 20. und 21. März in San Jose zudem demonstriert, wie gut das „Plug-and-Play“-fähige 3,5-Zoll-Laufwerk mit Systemen nach Spezifikation des Open Compute Project zusammenarbeitet. Demnach passen 45 ExaDrives in ein Rack mit zwei OpenCompute-Höheneinhei-ten (OU) und liefern als JBOD konfiguriert viereinhalb PByte an Kapazität.

Nimbus bietet das ExaDrive DC100 mit einer Garantie von einer fünf Jahren an und beschränkt diese nicht auf eine bestimmte Zahl von Schreibzugriffen. Neben dem 100-TByte-Modell soll auch ein Laufwerk mit 50 TByte angeboten werden. Ausgewählte Kunden beliefert Nimbus Data bereits mit Samples der ExaDrive DC Serie. Allgemein verfügbar sollen die Geräte dann im Som-mer sein. ■ Dirk Srocke

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 73: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 73

BE S T OF www.storage-insider.de

Panasas Scale-out NAS, Teil 2

Die Hardware-Komponenten des Panasas NAS-ClustersAuch Scale-out NAS-Lösungen bestehen wie andere NAS-Lösungen grob gesagt aus den beiden Komponen-ten Compute und Store. Während herkömmliche NAS-Systeme nur eine eingeschränkte Skalierfähigkeit ha-ben, erhöht sich bei einem Scale-out System mit jedem weiteren Gehäuse-Einschub die Systemleistung und der Datenschutz.

Die klassische NAS-Architektur besteht aus einem mehr oder weniger leistungsfähgem Filer, der als Controller den Zugriff auf die Daten steuert. Ist die Leistungsgrenze des Filers erreicht, kann dieser ausgetauscht werden und durch einen leistungsfä-higeren ersetzt werden. Damit steigt die CPU-Performance, die Netzwerkbandbreite, die Installation weiterer Netzwerkschnitt-stellen / -Protokolle und die Möglichkeit den Speicherpool zu skalieren. Der Anwender hat so die Chance in seiner Preisklasse ein NAS-System zu finden, das über eine gewisse Flexibilität und Skalierbarkeit verfügt.

Unterschied Filer zu Scale-out NAS

Scale-out NAS geht andere Wege. Das Panasas-System besteht aus der ActiveStor-Lösung und dem herstellerspezifischem Datei-system. Der Active-Stor Gehäuseeinschub enthält in 4 Höhenein-heiten (HE) acht bis 11 Speicherknoten und 3 bis keine Director-Knoten.

Alibaba Cloud und der

Start in Deutschland -

eine Portfolio-Analyse.

Bild

: Pan

asas

Page 74: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 74

BE S T OF www.storage-insider.de

Alternativ kann der Anwender diese beiden zentralen Kompo-nenten auch trennen. Dazu bietet Hersteller Panasas einen 2-HE-Einschub mit maximal vier leistungskräftigen Director-Knoten der ASD- oder der schwächeren DB-Klasse an. Die zwei Arten der Director-Knoten, DB-Klasse und ASD-Klasse, funktionieren auf die gleiche Art und Weise, d. h. sie übernehmen die gleichen Rollen und Verantwortlichkeiten im dezentralisierten gecluster-ten Dateisystem PanFS des Herstellers.

Der Anwender kann das Verhältnis zwischen Director- und Spei-cherknoten konfigurieren, sowie die Klasse der Director-Knoten, um den Anforderungen spezieller Anwendungsauslastungen und Dateiprotokollen gerecht zu werden.

Die Skalierbarkeit wird dadurch erreicht, dass die Anzahl der ActiveStor-Gehäuse im einzelnen Namespace erhöht wird. Je-der weitere Gehäuseeinschub erhöht die Kapazität, Leistung und Netzwerkbandbreite der Lösung.

Der Director-Knoten

Director-Knoten stellen die „Steuerebene” des Datenzugriffs und der Datensicherheit dar. Directoren verwalten „nur“ die Metada-ten, wie Indexe, Speicherorte und auch den Verfügbarkeitslevel des Datenblock. Jeder Director-Knoten verfügt über einen Pro-zessor, DRAM und mehrere Ethernet-Ports mit derzeit bis zu 40 GBit Bandbreite. Auf dem Director läuft ein von Panasas ent-wickeltes Softwareimage, das Steuerungs- und Schnittstellen-prozesse für viele unterschiedliche Aspekte des gesamten Spei-chersystems enthält: Folgende wichtige Aufgabe werden von den Director-Knoten übernommen:

● Sie überwachen den Zustand und die „Quorum-Zugehörigkeit” aller Knoten (ob sie aktiv und Bestandteil des Clusters sind oder nicht);

● Directoren verwalten den Namespace (Dateinamen und die Verzeichnishierarchie), die Verteilung und Konsistenz von Nutzerdaten auf Speicherknoten, weiterhin Fehlerbeseitigungs-maßnahmen, wie etwa Datenbereinigungen und Rebuilds, und stellen eine grafische Benutzeroberfläche (GUI) bereit, die den gesamten Speichercluster als eine Einheit behandelt.

● Director-Knoten bieten eine „Gateway”-Funktion, über die die Umwandlung zwischen dem nativen Panasas DirectFlow-Pro-tokoll der Panasas-Architektur und den Netzwerkprotokollen NFS und SMB stattfindet.

Page 75: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 75

BE S T OF www.storage-insider.de

● Director-Knoten führen alle diese Aktivitäten aus, ohne dass sie sich im Datenpfad befinden.

● Nutzerdaten in Dateien durchlaufen keinen Director-Knoten, es sei denn, sie werden in/von NFS oder SMB umgewandelt.

Die neuen leistungsfähigeren Director-Knoten der ASD-Klasse bieten grob gerechnet das Doppelte an Metadaten-Operationen pro Datenträger als die Director-Knoten der DB-Klasse.

Die Speicherknoten

Speicherknoten enthalten alle Anwendungs- und Nutzerdaten, die vom Panasas-System gespeichert worden sind und stellen die „Datenebene” der Architektur dar.

Jeder Speicherknoten ist ein Hybrid-Speicher mit einem Solid-State-Laufwerk (SSD), zwei Serial-ATA-Festplattenlaufwerken (SATA-HDDs), einem Prozessor und einem Paar redundanter Ethernet-Ports, um ihn mit den Client-Systemen und den Direc-tor-Knoten zu verbinden.

Jedes ActiveStor-Gehäuse (4HE) umfasst redundante Lüfter und Stromversorgungen, zusätzlich zu einer speziell dafür vorgesehe-nen internen Unterbrechungsfreien Stromversorgung (USV), die es der Software des Speicherknotens möglich macht, alle DRAM als spannungsgeschützten Cache neu geschriebener Daten zu be-handeln.

Die SSD unterstützt den schnellen Zugriff auf kleine Nutzer-daten-Dateien und PanFS-Dateisystem-Metadaten. Die beiden hochkapazitiven SATA-Laufwerke sind gekoppelt und nehmen große unstrukturierte sequenzielle Nutzerdaten auf.

Auf dem Speicherknoten läuft ein von Panasas entwickeltes Soft-wareimage mit der Bezeichnung Object Storage Device File Sys-tem (OSDFS), das Schnittstellen zum Rest der Panasas-Architek-tur inklusive der Clientsysteme besitzt und das die Speicherung von Daten und Metadaten auf dem SSD und den HDDs im Na-men dieser Systeme verwaltet. ■ Walter Schadhauser

Page 76: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 76

BE S T OF www.storage-insider.de

Panasas Scale-out NAS, Teil 3

Die ausgeklügelte Software-Architektur des Panasas Datei-systemsIm Gegensatz zu anderen Speicherprodukten, die Soft-ware für parallele Dateisysteme lose mit Legacy-Block-speicher-Arrays koppeln, ist die PanFS-Lösung für die modularen und granularen ActiveStor-Gehäuse konzi-piert und mit einem wartungsfreundlichen, im Feld aus-tauschbaren Gerätedesign ausgestattet. Das Ergebnis ist eine leicht verwalt- und erweiterbare Unternehmens-lösung.

Die PanFS-Plattform kombiniert die Funktionen eines dezentrali-sierten und geclusterten Dateisystems, eines Datenträger-Managers und einer skalierbaren softwarebasierten Erasure-Codierungs-Engine in einem einzigen Hochleistungssystem, das hunderte von Gigabytes an Daten pro Sekunde in einem einzelnen Namespace auf beliebig vielen Speichersystemen verarbeiten kann. Ein Syste-madministrator ist so in der Lage, PanFS-Betriebsumgebungen in jeder Größenordnung zu verwalten, von wenigen Terabytes bis hin zu Dutzenden Petabytes.

Alle Zugriffe erfolgen über Mehrfach-Nutzer-Authentifizierungs-schemata sowie über Zugriffsberechtigungen für Mehrfachzugriffs-Protokollsteuerungsdaten für eine reibungslose Integration in Li-nux-, macOS- und Windows-Umgebungen.

Clients, die höchste Performance benötigen, greifen über das Direct-Flow-Paralleldatenprotokoll auf die PanFS-Architektur zu, während herkömmliche NFS- und SMB-Protokolle mittels der Übersetzung durch Gateway-Dienste Zugriff auf den Namespace erlangen.

Das dezentralisierte ge-

clusterte parallele Datei-

system PanFS entwickelt

sorgt für hohen Daten-

durchsatz.

Bild

: Pan

asas

Page 77: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 77

BE S T OF www.storage-insider.de

Die PanFS-Architektur setzt sich aus folgenden Funktionsblö-cken zusammen:

• Paralleles Dateisystem: Koordinierung der Maßnahmen der Object Storage Devices und Verarbeitung der Metadaten

• OSDFS: Speichern und Abrufen von Daten im Namen von Cli-entsystemen

• Skalierbare Metadaten-Dienste: Cache-Kohärenz und Datei-Metadatenverarbeitung

•Cluster-Verwaltungsdienste: Knoten, deren Zustand aktuell gut ist und die sich im „Quorum” befinden, und solche, bei de-nen das nicht zutrifft; Wiederherstellungsmaßnahmen bei Auf-treten von Knotenausfällen, Konfigurationsänderungen usw.

• Panactive Manager: CLI-, SNMP- und XML-Verwaltungs-schnittstellen

•Directflow-Protokoll: Nativer, hochleistungsfähiger, cache-kohärenter Dateizugriff für Linux und macOS

• NFS-Protokoll: Standardmäßiges NFSv3-Protokoll für Linux, macOS und andere Betriebssysteme

• SMB-Protokoll: Standardmäßiges SMBv3.1-Protokoll für Win-dows und macOS

• Director-Gateway-Dienste: Support zum Exportieren der PanFS-Architektur über eine aufgesetzte Protokollimplemen-tierung

Trickreiche Dateispeicherung in Objekten mit Erasure Co-dierung

Das clusterfähige parallele Dateisystem ist die Grundlage des Da-teizugriffs im Scale-Out-NAS. Allerdings liegt der ganzen Spei-cheraktivität kein Blcokspeicher zugrunde, sondern ein dezent-raler Objektspeichergeräte-Pool. Das objektbasierte Datenlayout ist eines der wichtigsten Designprinzipien für die hohe Skalier-barkeit und Effizienz der Panasas-Architektur. Dateien in der PanFS-Umgebung werden innerhalb von Objekten gespeichert.

Eigentlich passt der Datenschutz durch Erasure-Codierung nicht zu Objekten. Um jede Datei zu schützen, „splittet” Panasas die Datei oder zerlegen sie durch Striping in Streifen und verteilt sie über mehrere Objekte hinweg. Die Gesamtdatei wird in einem „virtuellen Objekt” zusammengefasst, das aus vielen Komponen-tenobjekten besteht, die die Dateisplitter speichern.

Page 78: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 78

BE S T OF www.storage-insider.de

Die PanFS-Betriebsumgebung speichert lediglich die Komponen-tenobjekte; das virtuelle Objekt ist lediglich eine Zuordnungs-übersicht, die die Zusammenstellung der Komponentenobjekte und zusätzlich die Striping-Parameter festlegt, die diese Datei ausmachen. Die Zuordnungsübersicht wird in der Nähe der Kom-ponentenobjekte abgespeichert.

Um Fehler an einem Einzelspeicherknoten zu vermeiden, der sich auf mehr als ein Komponentenobjekt einer jeweiligen Datei auswirkt, werden sämtliche Komponentenobjekte für eine Datei über unterschiedliche Speicherknoten hinweg verteilt. Dateisys-tem-Metadaten (Informationen über Dateien) und Verzeichnisse werden ebenso innerhalb von Objekten gespeichert und werden in dem gleichen Objektspeicher aufbewahrt, wie die Objekte, die die Dateidaten enthalten.

Das Directflow-Protokoll ist der performante herstellerspezifi-sche direkte Client-Zugriffs auf Object-Storage-Device-Daten. Clients, die das DirectFlow-Protokoll verwenden, lesen und sch-reiben Objekte direkt parallel in Speicherknoten und umgehen dabei den Metadaten-Manager. Directflow-Clients interagieren mit den Metadaten-Managern über einen Remote Procedure Call (RPC), um Zugriffsrechte und Standortinformationen für die Objekte, die Dateien speichern, zu bekommen (z. B. die Zuord-nungsübersicht).

Das Object Storage Device File System

Alle PanFS-Datendienste benutzen die Funktionen der Speicher-knoten. Die Software der Speicherknoten implementiert eine Abstraktion, die Object Storage Device File System (OSDFS) genannt wird. Das Directflow-Protokoll beschreibt Lese- und Schreibvorgänge auf Objektebene, die die Directflow-Client-Software vom Speicherknoten verlangt.

Zur Leistungsoptimierung setzt das OSDFS auf erweiterte Caching-Funktionen und die bestmögliche Anordnung von Ob-jektdaten auf SSDs und HDDs. Zusätzlich zu einem Lese-Cache zur Verbesserung des Datenabrufs speichert das OSDFS neu zu schreibende Daten im Batterie-gepufferten DRAM zwischen. Das verringert die Datenfragmentierung und beschleunigt später die Lesevorgänge.

Das OSDFS legt anhand der Objektgröße für jedes Objekt das beste physische Speichergerät innerhalb des Speicherknotens fest. PanFS-Metadaten und Nutzerdateien mit einer Größe unter

Page 79: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 79

BE S T OF www.storage-insider.de

60 KB werden auf der SSD des Speicherknotens abgelegt; alle anderen Nutzerdaten, die größer als 60 KB sind, werden auf den Festplatten des Speicherknotens abgelegt.

Skalierbare Metadaten-Dienste

PanFS-Metadaten-Dienste laufen auf Director-Knoten, imple-mentieren die gesamte Dateisystem-Semantik und verwalten das Splitten von Daten (Striping) über die Speicherknoten hinweg. Sie steuern dezentralisierte Dateisystem-Operationen, wie z. B. die Metadatenkonsistenz auf Datei- und Objektebene, die Client-Cache-Kohärenz, die Wiederherstellbarkeit am Client-E/A nach Unterbrechungen, Speicherknoten-Operationen und den sicheren Mehrfach-Nutzer-Zugriff auf Dateien.

Die Konformität mit der POSIX-Richtlinie (Portable Operating System Interface) schreibt vor, dass jede Änderung der Verzeich-nishierarchie oder der Datei-Metadaten konsistent sein muss; Director-Knoten verwenden ein Transaktionsprotokoll, um diese Eindeutigkeit sicherzustellen.

Mittels synchronem Replizieren eines jeden lokalen Transakti-onsprotokolls auf einen weiteren Director-Knoten, dem zugeord-neten Backup-Knoten, wird Fehlertoleranz sichergestellt. Die Backup-Knoten-Beziehungen werden automatisch zugewiesen und geändert. ■ Walter Schadhauser

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 80: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 80

BE S T OF www.storage-insider.de

Western Digital positioniert sich als Storage-Systemlieferant fürs Rechenzentrum

WD beseitigt Schwächen im Petabyte-PortfolioMit diversen Erweiterungen bestehender Produktlini-en und einer Branding-Offensive für seine ActiveScale-Objekt-Store-Systeme präsentiert sich Western Digital stärker als bisher als Systemlieferant für RZ-Speicherlö-sungen.

Unter der Ägide von Phil Bullinger, der seit rund 18 Monaten das Datacenter-Systemgeschäft von Western Digital leitet, soll dieser Bereich stärker ins Licht der Öffentlichkeit und damit auch der Kunden rücken. Bullinger war zuvor für das Isilon-Geschäft bei Dell EMC tätig.

Dank eines „Symbiotics Design“, das alle Produktionsstufen von der Aluminiumscheibe bis zur Software umfasse, könne Western Digital sämtliche Ebenen der Datenspeicherung mit aufeinander abgestimmten Produkten bedienen, betonte Bullinger vor Jour-nalisten in der kalifornischen Firmenzentrale.

Fürs Rechenzentrum hat Western Digital derzeit drei Plattformen im Programm:

• die Ultrastar-Serie mit Flash- und HDD-Drives,

• den geo-verteilten Objektspeicher ActiveScale, der durch den Aufkauf von Amplidata zu WD kam und als

• Block/File-Storage mit schneller NVMe-Connectivity die In-telliFlash-Produkte.

Diese Lösungen werden heute an mehr als 2200 Kunden vertrieben.

Der neue Hybrid Storage

Server aus der Reihe Ult-

rastar fasst 60 HDDs, da-

von maximal 24 SSDs mit

den Anschlussoptionen

SAS und SATA sowie acht

SSDs mit den Anschluss-

optionen SAS, SATA und

NVMe

Bild

: Aria

ne R

üdig

er

Page 81: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 81

BE S T OF www.storage-insider.de

Runderneuerung der Datacenter-Storage-Plattformen

Jede Produktreihe wurde nun erweitert oder verbessert. Die Ul-trastar-Serie wurde durch einen 4U-Storage-Serverknoten mit zwei Skylake-CPUs ergänzt, in den bis zu 60 HDDs passen. Da-von dürfen bis zu 24 SATA- oder SAS-SSDs sein. Dazu kommen bis zu acht SSDs mit den Anschlussoptionen SAS, SATA und NVMe. „In dem Gerät lassen sich also drei Speicherschichten re-alisieren“, betonte Bullinger. WD gibt für das System fünf Jahre Garantie. Anwendungsgebiete sind Backup, Cloud-Storage und Archivierung.

Die All-Flash-/All-NVMe- und Hybrid-Plattform IntelliFlash, die durch die Akquisition von Tegile zu WD kam, wurde erwei-tert. Die hybride NVMe-Serie IntelliFlash N mit NVMe-Flash- und Kapazitäts-SAS-Flash-Laufwerken umfasst nun vier neue Modelle:

• Bisher gab es das Modell N5200 (23 bis 184 TByte Rohkapa-zität, maximal 64 CPU-Cores, 705 GByte DDR-4-Memory, 32 GByte NVDIMM) und

• das Modell N5800 (19 bis 154 TByte Rohkapazität, 1,4 TByte DDR4-, 32 GByte NVDIMM-Memory, 80 Prozessorkerne).

• Nun kommen die Modelle N5240 (645 TByte maximale Roh-kapazität) und N5280 (1290 TByte maximale Rohkapazität, beide ansonsten baugleich mit N5200), und

• die Modelle N5840 (630 TByte Rohkapazität) und N5880 (bis 1260 TByte Rohkapazität, beide ansonsten baugleich mit N5800), hinzu.

Da die Geräte laut WD die Daten im Verhältnis 5:1 reduzieren, bedeutet das, dass die beiden Spitzenmodelle jeweils mehr als 5 PByte volumenreduzierte Rohdaten speichern können. Alle neu-en IntelliFlash-Systeme sollen noch im Jahr 2018 in Stückzahlen verfügbar sein.

Metadaten vereinen Dateien und Objekte

Zudem wurde das Betriebssystem der Flash-Plattform (Intelli-flash OS) verbessert. Dadurch soll sich die Leistung der Geräte um den Faktor 1,5 bis 2,5 erhöhen. So lässt sich jetzt der Reduk-tionsfaktor für jedes Datenset individuell festlegen. Volume-Ko-pien und Datenmigrationen zwischen Arrays funktionieren jetzt ohne Betriebsunterbrechung und es gibt verbesserte, Snapshot-basierende Mechanismen für schnelle Dateikopien.

Page 82: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 82

BE S T OF www.storage-insider.de

Für die von AmpliStor erworbenen Objektspeicherboxen gab es bisher kein gezieltes Marken-Management, das soll sich nun än-dern. Die Produktlinie besteht aus drei modularen Modellen für Speichermengen unter 1 PByte mit Rohkapazitäten zwischen 86 TByte und 5,4 PByte sowie dem skalierbaren Modell X100, das zwischen 1 und 63 PByte Rohdatenvolumen fasst. Weitere Merk-male sind ein Durchsatz zwischen 8 und 20 GBit/s, Mechanismen für Selbstmonitoring, -analyse und -reparatur, integrierte DR-Fähigkeiten, Ende-zu-Ende-Verschlüsselung, Versionierung und eine Verfügbarkeit von „19 Neunen“ (Bullinger).

Das Betriebssystem Activescale wurde in der aktuellen Version 5.3 um weitere Fähigkeiten erweitert. Es kann jetzt auf Objektda-ten und Files einheitlich, also über dieselben Metadaten, zugrei-fen, die Replikation auf AWS S3 ist möglich und Docker wird unterstützt. Das System ist auf 12-TByte-Laufwerke vorbereitet und kann auch mit Laufwerken nach dem US-amerikanischen Hochsicherheitsstandard FIPS (Federal Information Processing Standard) bestückt werden.

Memory-zentriertes Rechnen ist – wahrscheinlich möglich

Und die nächste Flash-Generation von WD? Sie soll, so war am Rand der Konferenz vom neuen Technologiechef Martin Fink, der bis 2016 für HPE am Memristor-Projekt arbeitete, voraus-sichtlich noch im Jahr 2018 den Markt erreichen. „Wir hängen hier einige Monate hinterher, haben aber unsere Schwierigkeiten jetzt überwunden und kommen zügig voran“, sagte Fink.

ReRAM (Resistive RAM) allerdings, und zu diesem Typ gehört auch HPEs Memristor, werde man wohl noch lange nicht in für allgemeine Zwecke benutzten Storage-Appliances sehen – man sei noch nicht in der Lage, Millionen von Speicherzellen mit ei-nem ausreichend guten Output und zu vernünftigen Preisen her-zustellen. „Vielleicht braucht man dafür noch einige Fortschritte in der Materialforschung“, meinte Fink. Bis dahin stünde den neu-en Speichertechniken wie Phase Change Memory oder ReRAM/Memristor immerhin der Weg in Spezialapplikationen offen, die sich aber ebenfalls noch in einem relativ frühen Stadium befän-den. ■ Ariane Rüdiger

Page 83: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 83

BE S T OF www.storage-insider.de

Schnelle Speichersysteme im Dienst der medizi-nischen Forschung

Verborgene Hinweise im Krebs-gewebeWissenschaftler der ETH Zürich analysierten große Mengen an genetischen Krebsdaten. Dabei fanden sie bisher unerforschte molekulare Veränderungen. Diese könnten helfen, neue personalisierte Krebstherapien zu entwickeln.

Forschende unter der Leitung von Gunnar Rätsch, Professor für Biomedizininformatik an der ETH Zürich, haben den größten genetischen Datensatz der Krebsmedizin ausgewertet: den ame-rikanischen Cancer Genome Atlas. Dieser vereint die genetische Information von Tumorzellen mehrerer Tausend Krebspatienten und 33 verschiedener Krebsarten auf den Ebenen der DNA und der RNA. Durch ihre Analyse entdeckten die ETH-Wissenschaft-ler neue krebsspezifische molekulare Veränderungen, die sich potenziell auch in der Krebstherapie nutzen lassen.

Viele bisherige genetische Analysen von Krebs konzentrierten sich auf die DNA, also auf die „Stammversion“ der genetischen Information. Es wurde dabei untersucht, ob die Gene tumorspe-zifische Mutationen enthalten. Auch wurde untersucht, ob die Gene tumorspezifisch besonders aktiv oder inaktiv sind.

Aus RNA-Molekülen neue Erkenntnisse gewinnen

Die ETH-Forschenden gingen nun einen Schritt weiter und nah-men die RNA-Moleküle genauer unter die Lupe. Dabei handelt

ETH-Informatiker finden

unzählige neue Varian-

ten, wie in Krebspatien-

ten Ribonukleinsäuren

alternativ gespleißt wer-

den können.

Bild

: iS

tock

.com

/ s

elva

negr

a /

co

mot

ion_

des

ign,

Mon

tage

: ETH

Zür

ich

Page 84: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 84

BE S T OF www.storage-insider.de

es sich um Abschriften der DNA, die sich in der Zelle finden. Bevor diese dort als Bauplan für die Biosynthese von Proteinen dienen, werden sie von verschiedenen zellulären Prozessen ver-ändert: Beim sogenannten Spleißen schneiden spezialisierte En-zyme ganze Abschnitte aus dem RNA-Molekül heraus und fügen die davor und danach liegenden Abschnitte wieder zusammen.

Ein RNA-Molekül kann auf mehrere unterschiedliche Arten „gespleißt“ werden. Fachleute sprechen dann von „alternativem Spleißen“. Mit anderen Worten: Ein RNA-Molekül kann als Ko-pie eines Gens den Bauplan für unterschiedliche Proteinformen liefern, und die Weichen dazu werden beim Spleißen gestellt.

AlternativesSpleißenisthäufig

Rätsch und seine Kollegen analysierten genetische Krebsdaten in einem bisher nicht erreichten Umfang auf tumorspezifisches alternatives Spleißen. Die Forschenden nutzen dazu Sequenzen von RNA-Molekülen von 8.700 Krebspatienten. Sie fanden darin mehrere zehntausend bisher nicht beschriebene Varianten von al-ternativem Spleißen, die bei vielen Krebspatienten immer wieder auftauchen.

In ihrer Analyse konnten die Forschenden außerdem zeigen, dass bei der Mehrheit der untersuchten Krebsarten alternatives Splei-ßen in Tumorgeweben deutlich stärker ausgeprägt ist als in ge-sundem Körpergewebe. Besonders ausgeprägt ist dies bei Lun-gen-Adenokarzinomen, wo das alternative Spleißen im Vergleich zu gesundem Gewebe 30 Prozent häufiger vorkommt.

Die Studie ermöglichte auch neue Einsichten, welche molekula-ren Faktoren die hohe Rate an alternativem Spleißen im Krebs hervorrufen. Einige Genmutationen, welche alternatives Splei-ßen begünstigen, sind zwar schon bekannt, die Wissenschaftler konnten nun jedoch noch vier zusätzlich involvierte Gene iden-tifizieren.

Neue Andockstellen für die Immuntherapie

„Krebs führt zu molekularen und funktionellen Veränderungen von Zellen. Man könnte sagen, dass in Krebszellen sehr viel Sand im Getriebe ist“, sagt André Kahles, Postdoktorand in Rätschs Gruppe und einer der beiden Erstautoren der Studie. „Auf mole-kularer Ebene handelt es sich bei den Veränderungen nicht nur wie schon seit langem bekannt um einzelne DNA-Mutationen, son-

Page 85: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 85

BE S T OF www.storage-insider.de

dern zu einem großen Teil auch um unterschiedliches Spleißen der RNA, wie wir in unserer umfassenden Analyse zeigen konnten.“

Nicht alle der neuentdeckten molekularen Veränderungen auf RNA-Ebene führten auch zu funktionellen Veränderungen in Krebszellen, sagen die Wissenschaftler. Allerdings sind die mo-lekularen Unterschiede für neuartige Therapieansätze nutzbar: Man könnte Zellen, die krebstypische Formen des Spleißens auf-weisen, mittels Immuntherapie behandeln.

Neue Erkennungsmerkmale

Bei der „gezielten Krebsimmuntherapie“ wird das körpereigene Immunsystem so aktiviert, dass es krebstypische molekulare Erkennungsmerkmale erkennt und Krebsgewebe spezifisch an-greift und abtötet. Gesundes Körpergewebe wird hingegen nicht angegriffen.

Derzeit lässt sich nur eine Minderheit der Krebspatienten mit die-sem Ansatz behandeln, zumal bisher in bestimmten Krebstypen, in denen das untersucht wurde, nur in rund 30 Prozent der Fälle tumorspezifische Erkennungsmerkmale bekannt waren, die für die Immuntherapie genutzt werden können.

Die neuentdeckten Varianten des alternativen Spleißens führen zu Proteinveränderungen, welche ebenfalls als tumorspezifische Erkennungsmerkmale dienen können: In den untersuchten Kreb-stypen sind neu in bis zu 75 Prozent der Fälle Erkennungsmerk-male vorhanden, die potenziell für die Entwicklung von spezifi-schen Medikamenten genutzt werden können.

Aufwendige Analyse großer Datenmengen

Auch die bloße Information über die Häufigkeit des alternativen Spleißens hat eine große Aussagekraft. Die Wissenschaftler ver-muten nämlich, dass Tumorgewebe mit vielen Spleißvorgängen für eine andere Immuntherapieform – die ungerichtete Immuntherapie – besonders empfänglich ist. Dieser Hypothese möchten sie nun im Rahmen des Forschungsprogramms „Personalized Health and Related Technologies“ (PHRT) des ETH-Bereichs nachgehen.

Für die vorliegende Studie analysierten die Wissenschaftler Roh-daten im Umfang von mehreren hundert Terabytes. „Um so große Datenmengen zu analysieren, braucht es enorm viel Rechenzeit und schnelle Speichersysteme. Ohne einen Hochleistungsrechner wäre die Studie nicht möglich gewesen“, sagt ETH-Professor Rätsch.

Page 86: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 86

BE S T OF www.storage-insider.de

Als er und seine Kollegen vor zwei Jahren vom Memorial Sloan Kettering Cancer Center in New York, wo sie mit dieser Studie begonnen hatten, an die ETH Zürich kamen, bauten sie zunächst gemeinsam mit den ETH-Informatikdiensten das Computersys-tem „Leonhard Med“ auf. Damit können große Mengen genomi-scher und anderer medizinischer Daten auf sichere Weise verar-beitet werden. ■ Fabio Bergamin

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 87: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 87

BE S T OF www.storage-insider.de

OneDrive sicher betreiben und Daten verschlüsselt speichern

Mit Zusatztools für mehr Sicherheit sorgenWollen Anwender Daten in der Cloud speichern, trauen aber dem Anbieter bezüglich der Datensicherheit nicht, besteht die Möglichkeit mit Zusatztools für mehr Si-cherheit zu sorgen. Sie ermöglichen Nutzern, Daten ver-schlüsselt zu speichern und zu übertragen.

Um OneDrive sicher zu betreiben, kann der lokale Client konfi-guriert werden. Ebenso können Administratoren Gruppenricht-linien für die Steuerung nutzen. In der Gruppenrichtlinienver-waltungskonsole sind die Einstellungen Computerkonfiguration/Administrative Vorlagen/Windows-Komponenten/OneDrive zu finden. Hier stehen verschiedene Einstellungsmöglichkeiten zur Steuerung von OneDrive zur Verfügung.

Mit dem CMDlet „Set-SPOTenantSyncClientRestriction“ kön-nen Administratoren zentral Einschränkungen für die Synchro-nisierung von Dateien mit OneDrive for Business steuern. Soll zum Beispiel die Synchronisierung bestimmter Office-Datei-en blockiert werden, stehen folgende Befehle zur Verfügung: „Set-SPOTenantSyncClientRestriction -ExcludedFileExtensions „pptx;docx;xlsx“.

Mehr zu den Steuerungsmöglichkeiten ist in der TechNet zu fin-den. Geht es aber darum Dateien verschlüsselt in die Cloud zu übertragen, sind Zusatztools notwendig.

Daten verschlüsselt speichern

Mit dem Einsatz von Zu-

satztools lassen sich Daten

sicher in Cloud-Speichern

wie OneDrive übertragen

und ablegen. Thomas Joos

stellt zwei davon vor und

erläutert die wichtigsten

Einrichtungsschritte.

(Bild

: gem

einf

rei -

Mas

terT

ux /

P

ixab

ay /

CC

0)

Page 88: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 88

BE S T OF www.storage-insider.de

Um Daten verschlüsselt zu speichern, sind die beiden Tools Crypt-Sync und BoxCryptor sinnvoll. Mehr zu den beiden Tools sind in den Beiträgen „Open Source Verschlüsselung für die Cloud mit CryptSync“ und „Dropbox mit Boxcryptor Classic verschlüs-seln“ beschrieben.

Mit diesen Anleitungen ist auch eine Verschlüsselung mit OneD-rive möglich. Eine weitere Möglichkeit ist das lokale Verschlüs-seln von Dateien und das anschließende Kopieren. Auch das haben wir im Beitrag „Dateien mit AxCrypt verschlüsseln und schreddern“ ausführlich beschrieben.

VerschlüsselungmitOpenSource:Cryptomator

Mit dem Open Source-ToolCryptomator können Dateien in Cloud-Speichern von Windows-Rechnern und von Macs aus ver-schlüsselt werden. Die Entwickler stellen auch Versionen für iOS und Android zur Verfügung. Nach der Installation auf einem Cli-ent, zum Beispiel einem PC, muss dem Tool zuerst der Zugriff auf das Internet gestattet werden.

Nach dem Start des Tools wird zuerst ein Tresor erstellt, in dem verschlüsselte Daten gespeichert werden. Bei diesem handelt es sich um eine Datei, die das Werkzeug als Container für die Da-tenspeicherung bereitstellt. Der Tresor wird als Netzlaufwerk im Windows-Explorer eingebunden. Alle Dateien, die in dorthin ko-piert werden, verschlüsselt das Tool. Wird Cryptomator geschlos-sen, wird auch das Laufwerk aus dem Windows-Explorer ent-fernt. Zugreifen können nur Benutzer, die Zugriff auf das Konto haben.

Wird das Verzeichnis, das Cryptomator als Tresor einbinden in einem Verzeichnis angelegt, das wiederum mit OneDrive oder OneDrive for Business synchronisiert wird, lassen sich die Da-ten in der Cloud synchronisieren. Zugriff auf die Daten ist dann wiederum nur über einen Rechner mit installiertem Cryptomator möglich. Hier wird der Tresor eingebunden und kann mit dem hinterlegten Kennwort geöffnet werden.

Durch die Kombination von Cryptomator mit OneDrive können Daten sicher in der Cloud aufbewahrt werden. Wird der Tresor auf einen anderen Rechner synchronisiert, kann der Tresor über den Assistenten zum Hinzufügen von neuen Tresoren geöffnet werden. In den Einstellungen von Cryptomator lässt sich festge-legen, welchen Laufwerksbuchstaben und welchen WebDAV-Port für die Anbindung des Netzlaufwerks das Tool verwendet.

Page 89: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 89

BE S T OF www.storage-insider.de

Container mit Tools verschlüsseln

Auch Tools wie 7-Zip oder VeraCrypt können Dateien verschlüs-selt speichern. Diese lassen sich ebenfalls im Synchronisierungs-verzeichnis von OneDrive ablegen und sind dadurch verschlüsselt in der Cloud verfügbar. Online lassen sich diese Dateien natür-lich nicht öffnen, sondern nur nach dem Herunterladen auf einen Rechner mit den passenden Tools.

OneDrive und SharePoint 2019

Bereits seit längerer Zeit können Anwender SharePoint Online-Bibliotheken mit dem OneDrive-Client lokal auf ihren PCs mit Windows synchronisieren. Mit SharePoint 2019 wird diese Funk-tion jetzt auch im eigenen Rechenzentrum ermöglicht. Mit dem OneDrive-Client können Anwender Teamseiten und Bibliotheken synchronisieren. Für mobile Anwender oder im Home-Office ist es dadurch möglich, auch offline mit Dateien aus SharePoint zu arbeiten. Hier können lokal die gleichen Tools genutzt werden wie beim Einsatz von OneDrive for Business in Office 365 oder OneDrive in einem Microsoft-Konto.Wie in Office 365 kann OneDrive for Business in SharePoint 2019 über ein Webportal genutzt werden, Clients auf PCs und Macs, aber auch von Smartphones aus. Die Oberfläche von OneDrive in SharePoint 2019 entspricht der von Office 365. Über Smartpho-nes, Tablets und PCs können Anwender einzelne Verzeichnisse oder ganze SharePoint-Bibliotheken schnell und einfach syn-chronisieren. Dazu erscheint mit SharePoint 2019 auch eine neue SharePoint Mobile App.

Überwachten Ordnerzugriff steuern

Ab Windows 10 Version 1709 lassen sich Verzeichnisse auf Com-putern vor Ransomware schützen. Das gilt auch für das Verzeich-nis, das in OneDrive oder Ondrive for Business synchronisiert wird. Dazu wird der „überwachte Ordnerzugriff“ aktiviert. Da-nach dürfen nur noch genehmigte Apps Änderungen an Dateien in den hinterlegten Ordnern vornehmen, zum Beispiel auch die hier behandelten Tools zur Verschlüsselung.

Die Einstellungen lassen sich lokal in den Einstellungen von Windows 10, über das neue Windows Defender Security Cen-ter vornehmen, in der PowerShell oder über Gruppenrichtlinien. Dazu müssen die neuen ADMX-Dateien importiert werden. Die neuen Optionen für den überwachten Ordnerzugriff stehen bei

Page 90: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 90

BE S T OF www.storage-insider.de

„Computerkonfiguration\Richtlinien\Administrative Vorlagen\Windows-Komponenten\Windows Defender Antivirus\Windows Defender Exploit Guard\Überwachter Ordnerzugriff“ zur Verfü-gung. Hier kann konfiguriert werden, welche Ordner geschützt werden sollen, welche Anwendungen Änderungen vornehmen dürfen und ob der überwachte Ordnermodus nur überwachen soll, oder Änderungen auch blockieren. Generell stehen bei „Windows Defender Exploit Guard“ auch weitere Einstellungen zur Verfü-gung, die Windows 10 -Rechner besser vor Angreifern schützen.

■ Thomas Joos

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 91: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 91

BE S T OF www.storage-insider.de

Speichertechnologien auf Basis magnetischer Nanostrukturen

Mit „Tarnkappe“ zu mehr Fest-plattenkapazitätHersteller sind stets auf der Suche nach neuen Möglich-keiten, mit denen sich die Speicherkapazität magneti-scher Festplatten weiter erhöhen lässt. Nun ist es einem Forscherteam des Max-Born-Instituts (MBI), des Massa-chusetts Institute of Technology (MIT) und DESY gelun-gen, das magnetische Streufeld zu reduzieren. Hierfür setzten sie den magnetischen Nanostrukturen in einem Speicherchip eine „Tarnkappe“ auf. Ergebnis sind kleine und bewegliche Bits.

Der Ferromagnetismus beruht darauf, dass die Eigendrehung von Elektronen einerseits - der sogenannte Spin - sowie deren Bewegung um den Atomkern andererseits, einen magnetischen Moment erzeugt. Mit diesem ist ein magnetisches Streufeld ver-knüpft, dass wir von Stabmagneten kennen und nutzen: zum Bei-spiel, um Zettel an einer magnetischen Pinnwand zu befestigen.

Das magnetische Streufeld wird ebenso genutzt, um magnetisch gespeicherte Information von einer Festplatte zu lesen. In heu-tigen HDDs ist ein einzelnes magnetisches Bit nur etwa 15 x 45 Nanometer groß - etwa 1.000.000.000.000 von ihnen würden auf eine Briefmarke passen.

Hürde magnetisches Streufeld

Bei neuartigen Konzepten der magnetischen Datenspeicherung werden Bits mittels Strompulsen in einem Chip hin- und herge-schickt, um sie an geeignetem Ort dicht gepackt zum Spei-

Ein magnetisches Skyr-

mion mit (links) und ohne

„Tarnkappe“ (rechts).

Bild

: © L

. Car

etta

, M. H

uang

- M

IT

Page 92: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 92

BE S T OF www.storage-insider.de

chern abzulegen und später wieder auszulesen. Das magnetische Streufeld erweist sich hier als Fluch: Es verhindert, dass sich die magnetischen Strukturen weiter verkleinern lassen und damit In-formationen dichter gepackt werden können. Andererseits wird das dem Streufeld zugrunde liegende magnetische Moment ge-braucht, um die Strukturen überhaupt zu bewegen.In neuartigen Konzepten magnetischer Datenspeicherung möch-te man solche magnetischen Bits gerne durch Strompulse in ei-nem Speicherchip hin- und herschicken, um sie an geeignetem Ort dicht gepackt zum Speichern abzulegen und später wieder auszulesen.

Getarnte Bits

Den Forschern ist es nun gelungen, kleinen magnetischen Na-nostrukturen eine „Tarnkappe“ aufzusetzen und zu beobachten, wie klein und schnell solche getarnten Bits sein können. Dazu wurden Atomsorten mit entgegengesetztem Drehsinn der Elek-tronen und damit entgegengesetztem magnetischem Moment kombiniert. Auf diese Weise lässt sich das magnetische Streufeld reduzieren oder sogar völlig abschalten - die einzelnen Atome in der Nanostruktur haben dabei aber immer noch ein magnetisches Moment, sie tragen quasi nur eine Tarnkappe.

Dennoch war es den Forschen möglich, die kleinen Strukturen abzubilden. Sie bedienten sich dabei der Methode der Röntgen-holografie, die es erlaubt, gezielt nur die magnetischen Momente einer einzigen Atomsorte sichtbar zu machen - so konnten die Strukturen ohne ihre Tarnkappe abgebildet werden.

Höhere Speicherdichte

Dabei zeigte sich, dass das geschickte Einstellen der Stärke der Tarnkappe das Verfahren für mögliche Anwendungen als Daten-speicher interessant macht: „In unseren Bildern können wir sehr kleine, runde magnetische Strukturen erkennen. Die kleinsten Durchmesser, die wir gefunden haben, betragen nur zehn Nano-meter“, so Bastian Pfau vom MBI.

Könnten diese Strukturen zur Datenspeicherung genutzt werden, ließe sich die Speicherdichte gegenüber heutigen Festplatten noch einmal deutlich erhöhen. Weitere Messungen am MIT ergaben zudem, dass sich getarnte Nanomagnete durch Strompulse be-sonders schnell bewegen lassen - eine wichtige Eigenschaft für die Anwendung. So wurden Geschwindigkeiten von über einem Kilometer pro Sekunde erreicht.

Page 93: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 93

BE S T OF www.storage-insider.de

Page 94: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 94

BE S T OF www.storage-insider.de

Genaue Justierung der Tarnkappe ist ein Schlüssel

„Dass dies möglich ist, ist eine Konsequenz der Quantenphysik“, erklärt Prof. Stefan Eisebitt vom MBI. „Der Beitrag der Drehbe-wegung eines Elektrons um den Atomkern zum magnetischen Moment ist nur halb so groß wie der Beitrag, den die Drehung des Elektrons um sich selbst liefert.“ Kombiniert man verschiedene Atomsorten mit unterschiedlichem Drehsinn der Elektronen in einem Festkörper, so kann man die Gesamtdrehung - die Physi-ker sprechen vom sogenannten Drehimpuls des Systems - daher auslöschen und dennoch ein kleines magnetisches Moment bei-behalten.

Da der Drehimpuls zu einer Abbremsung der Bewegung der ma-gnetischen Strukturen durch Strompulse führt, lassen sich mit diesem Ansatz hohe Geschwindigkeiten erzielen. Gelingt es also, die Tarnkappe genau zu justieren, dann können die entstehenden magnetischen Nanostrukturen sowohl sehr klein sein als auch schnell bewegt werden - eine interessante Aussicht für neuartige Speichertechnologien auf der Basis magnetischer Nanostruktu-ren. ■ Tina Billo

Alles über Storage täglich aktuell –

abonnieren Sie jetzt den Newsletter von Storage-Insider!

Page 95: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 95

BE S T OF www.storage-insider.de

Grundlagenforschung für Quantencomputer

Geschützte QuantenbitsKonstanzer Physiker um Prof. Dr. Guido Burkard entwi-ckeln ein theoretisches Konzept zur Realisierung von Quanten-Informationsverarbeitung. Mit dem Ziel, Spins als Speicher für den Quantenrechner zu nutzen, zeigt die Arbeit Möglichkeiten auf, wie elektrische und mag-netische Störungen für kurze Zeit abgeschirmt werden können. Innerhalb der dadurch verfügbaren verlängerten „Kohärenzzeit“ könnten viele tausende Rechneroperati-onen ausgeführt werden.

Der Bau des Quantencomputers ist eine technologische Vision, deren künftige Realisierung nicht nur in der Informatik und den Informationswissenschaften vorangetrieben wird. Der Fortschritt der praktischen Umsetzung hängt wesentlich auch von neuen Er-kenntnissen in der theoretischen Physik ab. In jedem Computer oder Kommunikationsgerät sind Informationen in physikalische Systeme eingebettet.

„Für den Quantencomputer sind es zum Beispiel Spin-Qubits, mit denen versucht wird, Informationsverarbeitung zu realisieren“, erklärt Professor Dr. Guido Burkard, der zu diesem Thema in einer aktiven Kooperation mit der Princeton University forscht. Die theoretischen Erkenntnisse, die zur aktuellen Publikation in der renommierten Zeitschrift „Physical Review Letters“ geführt haben, wurden an der Universität Konstanz, maßgeblich auch durch den Erstautor der Studie, seinen Doktoranden Maximilian Russ, gewonnen.

Schematische Darstel-

lung des neuen Spin-

Qubits, bestehend aus

vier Elektronen (rot) mit

ihren Spins (blau) in der

umgebenden Halbleiter-

struktur (grau).

Bild

: © M

axim

ilian

Rus

s /

Gui

do

Bur

kard

Page 96: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Seite 96

BE S T OF www.storage-insider.de

Spin-Qubits stehen im Zentrum der Forschung

Im Zentrum der physikalischen Perspektive auf den Quanten-computer stehen vor allem Spin-Qubits und deren natürliche ma-gnetische Eigenschaften. Spins, die in der Quantentechnologie als Speicher nutzbar sind, können jedoch nur gezielt angesteuert werden, wenn sie geordnet aufgereiht werden. „Normalerweise“, beschreibt Guido Burkard weiter, „werden Magnete – wie bei der Kompassnadel im Erdmagnetfeld – mithilfe von Magnetfel-dern gesteuert. Da die Teilchen sehr klein und die Magnete sehr schwach sind, ist eine Steuerung hier sehr schwierig“.

Eine Herausforderung, der die Physiker mit elektrischen Feldern und einem entsprechenden Verfahren entgegenwirken, bei dem mehrere Elektronen, in diesem Fall vier, ein Quantenbit darstel-len. Ein weiteres Problem sind die Elektronenspins, die relativ empfindlich und fragil sind. Selbst in reinen Festkörpern aus Si-licium reagieren sie auf äußere Störungen mit einem Rauschen elektrischer oder magnetischer Art.

Tausende von Rechenoperationen in Sekundenbruchteilen

Die theoretische Modellierung und Berechnung, wie Quantenbits vor diesem Rauschen geschützt werden können, stehen im Zen-trum der aktuellen Studie, die somit einen Beitrag zur Grundla-genforschung für den Quantencomputer leistet: Gelingt es dieses Rauschen wenn auch nur für eine kurze Zeit abzuschirmen, sind in diesen Sekundenbruchteilen – zumindest theoretisch – tausen-de von Rechneroperationen möglich.

Für die Konstanzer Physiker ist der nächste Schritt, ihre theoreti-sche Konzeption im Experiment zu testen. Dabei steigert sich die Anzahl der einsetzbaren Elektronen erstmals von drei auf vier Stück. Hierfür kann Guido Burkard mit seiner Arbeitsgruppe auf die Unterstützung der Kooperationspartner in Princeton zurück-greifen. Denn in der Kooperation sind die Rollen so verteilt, dass die theoretische Arbeit in Konstanz geleistet wird und die Kolle-ginnen und Kollegen in den USA experimentellen Teil überneh-men.

Nicht nur die eigene Forschungsarbeit sorgt dafür, dass der For-schungsstandort Konstanz im Bereich der Qubits international renommiert ist. Im September dieses Jahres kam die zu diesem Thema weltweit führende wissenschaftliche Community zur“4th School and Conference on Based Quantum Information Proces-sing“ in Konstanz zusammen. ■ Tina Billo

Page 97: NEUAUFLAGE · Speichertechnik heute und morgen ..... 31 Komprise gibt Cold Data eine Spezialbehandlung ..... 36 Software-definierte Speicher sind das Bindeglied ..... 40 OneDrive

Technology-Update für IT-Manager

CIOBRIEFING

www.ip-insider.de/ciowww.dev-insider.de/cio www.security-insider.de/cio

www.cloudcomputing-insider.de/ciowww.bigdata-insider.de/cio www.datacenter-insider.de/cio

www.storage-insider.de/cio

Regelmäßig kostenlos lesen?

+++ Jetzt anmelden auf +++