4
Modernisierung klassischer BI-Architekturen durch Big Data Fluch und Segen zugleich In Zeiten mannigfaltiger Anforderungen hinsichtlich großer Datenmengen, komplexer Analysen und Echtzeitinte- gration von Daten unterschiedlicher Struktur und Herkunft stellt sich verstärkt die Frage nach den Auswirkungen auf klassische BI-Architekturen. Dieser Beitrag greift die aktuellen Herausforderungen auf und stellt die neuen technologischen Optionen dar. Im Fokus stehen die Einsatzpotenziale der neuen Big-Data-Technologien und -Konzepte sowie deren Positionierung innerhalb einer zukunftsorientierten Referenzarchitektur. Big Data als Treiber Die aktuelle Diskussion um IT-relevante Themen wird der- zeit sehr intensiv durch den Begriff „Big Data“ geprägt. Dieser Begriff lässt sich dabei nicht nur in den traditionel- len IT-affinen Medien und Kommunikationskanälen finden, sondern als Megatrend hat es Big Data geschafft, auch in der allgemeinen Tagespresse aufgegriffen zu werden. Big Data wird häufig stellvertretend für das Phänomen der zu- nehmenden Digitalisierung aller Lebensbereiche angeführt, die tiefgreifend auch Struktur und Wertschöpfung der Un- ternehmen verändert und Information zu einer dominieren- den Ressource kürt. Auch wenn der zusammengesetzte Begriff Big Data den Eindruck suggeriert, dass ausschließlich das hohe Datenvo- lumen Big Data kennzeichnet, verbirgt sich hinter der Wort- schöpfung auch die Frage nach der Komplexität und Schnel- ligkeit der Verknüpfung, Integration und Analyse von Daten unterschiedlicher Struktur und Herkunft. Als charakterisie- rende Eigenschaften von Big Data werden daher neben dem immensen Datenvolumen (Volume) die erhebliche Vielfalt an Datenformaten (Variety) wie auch die Geschwindigkeit (Ve- locity), mit der neue Daten entstehen und auszuwerten sind, angeführt (die drei Vs). Insofern bezeichnet Big Data ebenso Methoden und Technologien für die hochskalierbare Integra- tion, Speicherung und Analyse polystrukturierter Daten. Big Data behandelt insofern nicht ausschließlich nur rein technische, sondern auch methodische Aspekte. Zudem bezieht sich der Skalierungsanspruch nicht nur auf ein ho- hes Datenvolumen, sondern auch auf eine massive zeitliche Skalierungsfähigkeit hinsichtlich Datenaktualität und hoher Performance-Ansprüche bei der Durchführung komplexer Analysen auf Basis von Daten, die in vielfältiger Struktu- rierung vorliegen können. Weiterhin werden sämtliche Ebe- nen einer Datenverarbeitungsarchitektur von der Integration über die Speicherung bis hin zur Analyse adressiert [Eat14, BAR14]. Die Integration, Speicherung und Analyse von Daten aus unterschiedlichen Quellen, mit dem Ziel, ein tieferes Geschäftsverständnis daraus abzuleiten, ist dabei keinesfalls neu. Mit Business Intelligence hat sich längst ein Konzept im Umfeld der entscheidungsunterstützenden Systeme in Theorie und Praxis etabliert, hinter dem sich weniger eine einzelne Lösungsmethode oder technische Systemklasse als vielmehr eine begriffliche Klammer für eine Vielzahl von unterschiedlichen Ansätzen zur Analyse und Auswer- tung von Geschäftsprozessen und zum Verstehen relevan- ter Wirkungszusammenhänge in Unternehmungen verbirgt [GGD08]. Die meisten Unternehmen verfügen über eine langjährige Historie von aus unterschiedlichen operativen IT-Systemen für die dispositive Nutzung optimiert zusam- mengeführten Daten und darauf aufbauenden Reporting- und Analyseanwendungen. Aus dem Blickwinkel der Begrifflichkeit ergibt sich un- mittelbar, dass Big Data ein spezielles BI-Anwendungsfeld ist, das den Fokus auf die Skalierbarkeit hinsichtlich der drei Vs legt, wobei exakte Grenzen nicht eindeutig quan- tifizierbar und damit unternehmensindividuell festzulegen sind. Ein Anwendungsfeld wird heute in der Regel zu Big Data gezählt, wenn mindestens zwei der drei Vs zutreffen. Big Data steht damit nicht in Konkurrenz zu klassischen BI-Methoden und BI-Technologien, sondern stellt eher eine Ergänzung beziehungsweise Erweiterung dar. Der Hype um Big Data stellt aus Sicht von BI-Professio- nals Fluch und Segen zugleich dar. Auf der einen Seite führt die breite Diskussion dazu, dass auch außerhalb der IT über innovative Ideen und neue Geschäftsmodelle nachgedacht wird, die auf dem Rohstoff des 21. Jahrhunderts – den Daten – aufsetzen. Daten werden zu einem wichtigen Produktions- faktor und sollen Geschäftsprozesse und Geschäftsmodelle treiben und verändern: Die Information-Driven Company wird gefordert. Zudem werden in der Praxis bisher eher ver- nachlässigte BI-Themen wie Data Mining durch Big Data wieder neu belebt. Diesen positiven Aspekten steht gegenüber, dass viele Diskussionen um Big Data losgelöst von der bestehenden BI-Erfahrung geführt werden. Dabei sind die Herausforde- rungen mangelnde Datenqualität, inadäquate Organisations- strukturen sowie unzureichende strategische BI-Ausrich- tung noch längst nicht gelöst und sind auch für Big Data weiterhin relevant [Ster13]. Big Data ist derzeit auf dem Höhepunkt der übertriebenen Erwartungshaltung und wird zudem häufig mit anderen Aspekten (zum Beispiel Cyber Crime, Datenschutz) vermengt und dann häufig mit negati- ven Assoziationen belegt. Aktuelle Herausforderungen für klassische BI-Architekturen Aus theoretischer Sicht war die „richtige“ BI-Architektur lange klar definiert. Ausgehend vom logischen Architek- turverständnis zergliedern die Standardlehrbücher den Da- tenintegrations- und -veredlungsprozess in der Regel in vier mandatorische Datenschichten (Abbildung 1). Damit wird 12 BI-SPEKTRUM 01-2015 FOKUS ARTIKEL

Modernisierung klassischer BI-Architekturen durch Big Data

Embed Size (px)

DESCRIPTION

Modernisierung klassischer BI-Architekturen durch Big Data

Citation preview

Page 1: Modernisierung klassischer BI-Architekturen durch Big Data

Modernisierung klassischer BI-Architekturen durch Big Data

Fluch und Segen zugleichIn Zeiten mannigfaltiger Anforderungen hinsichtlich großer Datenmengen, komplexer Analysen und Echtzeitinte­gration von Daten unterschiedlicher Struktur und Herkunft stellt sich verstärkt die Frage nach den Auswirkungen auf klassische BI­Architekturen. Dieser Beitrag greift die aktuellen Herausforderungen auf und stellt die neuen technologischen Optionen dar. Im Fokus stehen die Einsatzpotenziale der neuen Big­Data­Technologien und ­Konzepte sowie deren Positionierung innerhalb einer zukunftsorientierten Referenzarchitektur.

Big Data als Treiber

Die aktuelle Diskussion um IT-relevante Themen wird der-zeit sehr intensiv durch den Begriff „Big Data“ geprägt. Dieser Begriff lässt sich dabei nicht nur in den traditionel-len IT-affinen Medien und Kommunikationskanälen finden, sondern als Megatrend hat es Big Data geschafft, auch in der allgemeinen Tagespresse aufgegriffen zu werden. Big Data wird häufig stellvertretend für das Phänomen der zu-nehmenden Digitalisierung aller Lebensbereiche angeführt, die tiefgreifend auch Struktur und Wertschöpfung der Un-ternehmen verändert und Information zu einer dominieren-den Ressource kürt.

Auch wenn der zusammengesetzte Begriff Big Data den Eindruck suggeriert, dass ausschließlich das hohe Datenvo-lumen Big Data kennzeichnet, verbirgt sich hinter der Wort-schöpfung auch die Frage nach der Komplexität und Schnel-ligkeit der Verknüpfung, Integration und Analyse von Daten unterschiedlicher Struktur und Herkunft. Als charakterisie-rende Eigenschaften von Big Data werden daher neben dem immensen Datenvolumen (Volume) die erhebliche Vielfalt an Datenformaten (Variety) wie auch die Geschwindigkeit (Ve-locity), mit der neue Daten entstehen und auszuwerten sind, angeführt (die drei Vs). Insofern bezeichnet Big Data ebenso Methoden und Technologien für die hochskalierbare Integra-tion, Speicherung und Analyse polystrukturierter Daten.

Big Data behandelt insofern nicht ausschließlich nur rein technische, sondern auch methodische Aspekte. Zudem bezieht sich der Skalierungsanspruch nicht nur auf ein ho-hes Datenvolumen, sondern auch auf eine massive zeitliche Skalierungsfähigkeit hinsichtlich Datenaktualität und hoher Performance-Ansprüche bei der Durchführung komplexer Analysen auf Basis von Daten, die in vielfältiger Struktu-rierung vorliegen können. Weiterhin werden sämtliche Ebe-nen einer Datenverarbeitungsarchitektur von der Integration über die Speicherung bis hin zur Analyse adressiert [Eat14, BAR14].

Die Integration, Speicherung und Analyse von Daten aus unterschiedlichen Quellen, mit dem Ziel, ein tieferes Geschäftsverständnis daraus abzuleiten, ist dabei keinesfalls neu. Mit Business Intelligence hat sich längst ein Konzept im Umfeld der entscheidungsunterstützenden Systeme in Theorie und Praxis etabliert, hinter dem sich weniger eine einzelne Lösungsmethode oder technische Systemklasse als vielmehr eine begriffliche Klammer für eine Vielzahl von unterschiedlichen Ansätzen zur Analyse und Auswer-tung von Geschäftsprozessen und zum Verstehen relevan-

ter Wirkungszusammenhänge in Unternehmungen verbirgt [GGD08]. Die meisten Unternehmen verfügen über eine langjährige Historie von aus unterschiedlichen operativen IT-Systemen für die dispositive Nutzung optimiert zusam-mengeführten Daten und darauf aufbauenden Reporting- und Analyseanwendungen.

Aus dem Blickwinkel der Begrifflichkeit ergibt sich un-mittelbar, dass Big Data ein spezielles BI-Anwendungsfeld ist, das den Fokus auf die Skalierbarkeit hinsichtlich der drei Vs legt, wobei exakte Grenzen nicht eindeutig quan-tifizierbar und damit unternehmensindividuell festzulegen sind. Ein Anwendungsfeld wird heute in der Regel zu Big Data gezählt, wenn mindestens zwei der drei Vs zutreffen. Big Data steht damit nicht in Konkurrenz zu klassischen BI-Methoden und BI-Technologien, sondern stellt eher eine Ergänzung beziehungsweise Erweiterung dar.

Der Hype um Big Data stellt aus Sicht von BI-Professio-nals Fluch und Segen zugleich dar. Auf der einen Seite führt die breite Diskussion dazu, dass auch außerhalb der IT über innovative Ideen und neue Geschäftsmodelle nachgedacht wird, die auf dem Rohstoff des 21. Jahrhunderts – den Daten – aufsetzen. Daten werden zu einem wichtigen Produktions-faktor und sollen Geschäftsprozesse und Geschäftsmodelle treiben und verändern: Die Information-Driven Company wird gefordert. Zudem werden in der Praxis bisher eher ver-nachlässigte BI-Themen wie Data Mining durch Big Data wieder neu belebt.

Diesen positiven Aspekten steht gegenüber, dass viele Diskussionen um Big Data losgelöst von der bestehenden BI-Erfahrung geführt werden. Dabei sind die Herausforde-rungen mangelnde Datenqualität, inadäquate Organisations-strukturen sowie unzureichende strategische BI-Ausrich-tung noch längst nicht gelöst und sind auch für Big Data weiterhin relevant [Ster13]. Big Data ist derzeit auf dem Höhepunkt der übertriebenen Erwartungshaltung und wird zudem häufig mit anderen Aspekten (zum Beispiel Cyber Crime, Datenschutz) vermengt und dann häufig mit negati-ven Assoziationen belegt.

Aktuelle Herausforderungen für klassische BI-ArchitekturenAus theoretischer Sicht war die „richtige“ BI-Architektur lange klar definiert. Ausgehend vom logischen Architek-turverständnis zergliedern die Standardlehrbücher den Da-tenintegrations- und -veredlungsprozess in der Regel in vier mandatorische Datenschichten (Abbildung 1). Damit wird

12 BI­SPEKTRUM 01­2015

FOKUSARTIKEL

Page 2: Modernisierung klassischer BI-Architekturen durch Big Data

eine mehrfach redundante Speicherung der operativen Datenbestände aus den Quellen durch eine physische Daten-integration über verschiedene Ebenen gefordert.

Der Standardansatz von W. H. Inmon geht von einer singulären Hub & Spoke-Architektur mit einem vorgelagerten Acquisition Layer und einem zentralen Core Data Warehouse aus. Aus diesem „Single Point of Truth“ werden gewisse Datenextrakte in der Regel multidimensional in voneinan-der fachlich abgrenzbaren Data Marts auf dem Analytical Layer gehalten. Auf dem Presentation Layer werden dann BI-Funktionen und die Zugriffs- oder Nutzungsschicht über BI-Suiten angeboten. In historisch gewachsenen Landschaf-ten führen idealtypisch die Technologiekonsolidierung und die erwartete semantische Integration wie auch der „One Size fits All“-Ansatz zu einem kostenoptimalen und vor al-lem singulären Enterprise DWH-Approach. Gegebenenfalls werden entsprechende Architekturen noch durch einen Ope-rational Data Store (ODS) als temporäre Datensenke auf feingranularer Ebene ergänzt.

Die Einhaltung der skizzierten Paradigmen klassischer BI-Architekturen wird in der Realität jedoch immer schwie-riger: Es finden sich selten vollständig konsolidierte und zentralisierte Architekturansätze, vielmehr sind einzelne Informationssilos und heterogene Architekturen die Regel. Die existierenden Architekturen haben teilweise eine sehr hohe Komplexität erreicht, sodass die Transparenz über die Datenintegrations- und -veredelungsprozesse zumindest partiell häufig nicht mehr gegeben ist. Zudem ist ein starkes Anwachsen der Schatten-BI in Form von sogenannten loka-len Spread Marts unter Umgehung von Architekturvorgaben zu beobachten. Durch die Vielzahl neuer Technologien und Konzepte, die im Kontext Big Data intensiv diskutiert wer-den, stehen zudem die klassischen BI-Paradigmen weiter auf dem Prüfstand.

Neue Big-Data-Technologien und -KonzepteDer oben skizzierte Lösungsansatz eines Layer-bezogenen Aufbaus der dispositiven Landschaft wird traditionell auf der einen Seite von den Mega-Vendoren bedient, die den gesamten Stack an notwendigen Technologien integriert anbieten. Auf der anderen Seite ist im Umfeld BI eine

hohe Bereitschaft zu „Best of Breed“-Lösungsportfolien vorhanden. Eine Vielzahl von neuen oder neu erscheinen-den technologischen Begrifflichkeiten ergänzt heute das potenzielle Angebot, wie zum Beispiel Hadoop, NoSQL, In-Memory, Analytische Plattformen, Ma-chine Learning, Text Mining. Für die nachfolgende Betrachtung werden die Technologiecluster selektiert, die maß-geblichen Einfluss auf die Ausgestaltung

klassischer BI-Architekturen haben (Abbildung 2). Lösungen, die Streaming beziehungsweise (Near-)Real-

time-Beladung ermöglichen, erweitern die gängige Batch-orientierte Datenpopulation um die Fähigkeit, Datenquellen mit kontinuierlichem Datenfluss mit niedriger Latenzzeit als Quelle anbinden zu können. Aktuell liefern Umgebungen, bei denen die Quelldaten selbst nicht persistent vorgehalten werden (zum Beispiel Daten aus Sensoren), entsprechende Einsatzszenarien.

Anwender fordern heutzutage, ohne Unterstützung des IT-Bereichs selbstständig Analysen auf großen Datenbe-ständen durchführen zu können, und wollen hierzu Daten aus dem DWH und anderen Quellen autark kombinieren können. Entsprechende Self-Service-BI-Werkzeuge wer-den heute häufig ebenfalls zu den Big-Data-Technologien gezählt. Der Funktionsumfang von Self-Service-BI-Werk-zeugen gerade im Bereich Visual Analytics führt im Funk-tionsumfang erkennbar zu Überlappungen mit klassischen BI-Suiten. Zwischen den erfolgreichen Herstellern von Self-Service-BI-Werkzeugen und den klassischen BI-Suiten hat sich ein interessanter Wettbewerb entwickelt. Dabei ist eine zunehmende Ausrichtung aller am Markt befindlichen BI-Suites auf Analytics als Ergänzung der klassischen Fo-kussierung auf Reporting zu beobachten.

Analytische Plattformen sind für die Analyse optimierte Datenhaltungssysteme, die zusätzlich analytische Funktio-nen integrieren. Zwei wesentliche Eigenschaften kennzeich-nen Analytische Plattformen. Zum einen werden analytische Anfragen so dicht wie möglich an die Daten gebracht, zum anderen werden die Hard- und Softwarearchitekturen auf die spezifischen Anforderungsprofile analytischer Abfra-gen optimiert. Die Optimierung wird durch die Anwendung der Konzepte zur Reduktion von Festplattenzugriffen (In-Memory, physische Speicherungsstrategie, Indexierung, Komprimierung), Parallelisierung der Anfragen über eine

möglichst große Anzahl an Knoten und die Ver-wendung von aufeinan-der abgestimmten Sys-tembausteinen erreicht.

Besondere Popu-larität und Verbreitung unter den Analytischen Plattformen hat die Open-Source-Lösung Hadoop erreicht. We-sentliche Charakteris-tika sind ein verteiltes Dateisystem und ein

www.steria-mummert.de

09.02.2015 1

DWH-/BI-Architekturen

EINFLUSSStreaming/

(Near) Realtime

Self-Service-BI/ Sandboxing

Logische Integration/

Virtualisierung

Analytische Plattformen

www.steria-mummert.de

09.02.2015 2

BI-Funktionen

„Traditionelle“DWH-Komponenten

Analy-tischesLabor

Datenquellen

(Near)Realtime

BI-NutzungsschichtIn

form

atio

nG

over

nanc

e

Daten-dreh-

scheibe

Datenvirtualisierung

BI-Funktionen

Datenquellen

BI-Nutzungsschicht

Acquisition Layer

CoreDWH

PresentationLayer

AnalyticalLayer

„Traditionelle“DWH-Komponenten

Abb. 1: Klassische DWH­Architektur

Abb. 2: Technologiecluster mit hohem Veränderungspotenzial für traditionelle BI­Architekturen

BI­SPEKTRUM 01­2015 13

FOKUSARTIKEL

Page 3: Modernisierung klassischer BI-Architekturen durch Big Data

Computing Framework, das einen Rahmen bietet, um ei-ne Vielzahl darauf aufsetzender Lösungen, beispielsweise Abfragesprachen (zum Beispiel Hive), Suchsysteme (zum Beispiel Solr) oder Machine-Learning-Umgebungen (zum Beispiel Mahout), in einem gemeinsamen, hochskalierbaren Cluster ablaufen zu lassen sowie Daten in großer Menge auf kostengünstiger Standardhardware zu speichern. NoSQL-Datenbanken (zum Beispiel Graphen-, dokumentorientierte oder Key-Value-Datenbanken), deren Implementierung teil-weise auch auf der Hadoop-Plattform basiert, werden eben-falls unter den Analytischen Plattformen subsumiert.

Zunehmende Anwendung findet das Konzept der logi-schen Integration. Hier wird auf die bisher verfolgte Maxime der physischen Integration aller Quellen in einer singulären dispositiven Umgebung zugunsten einer Integration über eine logische, auf Metadaten basierende Zwischenschicht verzichtet. Somit werden Abfragen über bisher separate oder gar nicht für Analysen verfügbare Systeme ermöglicht. Virtualisierungslösungen integrieren hierzu transparent mehrere DWHs und ermöglichen den direkten Zugriff auf operative Anwendungen wie auch Cloud Services.

Architekturelle Ergänzungen durch „neue“ Big-Data-TechnologienNeue Technologien und Konzepte unter dem Oberbegriff Big Data haben Einfluss auf alle Schichten einer traditio-nellen BI-Architektur. Einige Big-Data-Technologien kon-kurrieren mit klassischen Lösungen, aber die Mehrzahl der Anwendungsszenarien verlangt, zumindest in der mittelfris-tigen Perspektive, eher einen additiven Einsatz zu bestehen-den Lösungen.

Das Architekturelement (Near-)Realtime/Streaming er-gänzt die BI-Architektur um die Fähigkeit, Daten in (Ne-ar-)Realtime zu empfangen und zu verarbeiten. Mindestens notwendige Komponenten sind eine Schnittstelle für den Empfang von Streams oder Mini-Batches sowie ein auf diese Frequenz der Datenlieferung abgestimmter Datenin-tegrationsprozess und ein Zugang für das Monitoring des Datenstroms für den Nutzer. Optional wird eine sogenannte Decision Engine für die automatisierte Entscheidungsab-leitung eingesetzt. Im Gegensatz zu klassischen Complex-Event-Processing-Lösungen kann hier auch Bezug auf eine längere oder vollständige Historie im DWH genommen wer-den. Bei der Integration von (Near-)Realtime-Anwendun-gen in BI-Architekturen ist die Verwendung einer zunächst separaten Verarbeitung für den schnellen Zugriff und erst ei-ne spätere Zusammenführung mit dem DWH-Datenbestand verbreitet (Lambda-Architektur).

Self-Service-BI erweitert die klassischen Funktionsklas-sen wie Standard Reporting und Ad-hoc-Analyse des Pre-sentation Layer. Die Möglichkeit der Bildung abgeschotte-ter Analyseräume (Sandboxing) durch den Nutzer kann im Frontend-Tool entweder am lokalen Rechner des Nutzers oder im DWH verortet sein. Die wesentliche Herausforde-rung bei der Öffnung der Reporting-Definitionen und der Möglichkeit der Integration von durch Nutzer eingebrach-ten Daten bleibt jedoch die Ausgestaltung der Governance, um einen konsistenten Rahmen aufrechtzuerhalten. Dabei basieren sowohl die Self-Service-BI-Komponenten als auch

die klassischen Funktionsblöcke der BI-Nutzungsschicht auf den BI-Funktionen, die durch die Engines moderner BI-Werkzeuge bereitgestellt werden.

Analytische Plattformen sind nicht nur eine Ergänzung, sondern auch eine alternative Persistenz-Basis für eine BI-Architektur. Prominentester Anwendungsfall für die Substi-tution einzelner Komponenten ist die Nutzung einer solchen Big-Data-Technologie für die kostengünstige Vorverarbeitung großer Datenmengen und/oder die Möglichkeit der Aufberei-tung polystrukturierter Daten als Vorbereitung für die Integra-tion in ein klassisches DWH mit strukturiertem Datenbestand.

Ein weiterer Anwendungsfall der Substitution ist der Er-satz der Komponente Data Mart oder Sandbox bei hohen Anforderungen an die Abfrage-Performance bei gleichzeitig großer Datenmenge. Analytische Plattformen werden heute sehr intensiv autark als Analytisches Labor für die tief ge-hende Analyse großer Datenmengen – auch polystrukturier-ter Daten – verwendet. Dabei befindet sich das Analytische Labor außerhalb des „traditionellen“ Data Warehouse. Die Abstraktion zwischen Datenhaltungs- und Verarbeitungs- zur Nutzungsschicht wird durch die Einführung eines zu-sätzlichen logischen Layers erreicht. Diese Komponente wird mit Lösungen zur Datenvirtualisierung bebaut, die eine Transparenz über verschiedene Datenspeicherquellen und -technologien gegenüber der Nutzungsschicht erreicht. Mo-tivationen für den Einsatz sind insbesondere die Beschleu-nigung der Implementierung einer Lösung, der Zugriff auf Daten unterschiedlichen Typs, die Steigerung des Abde-ckungsgrades oder der Aktualität zur Verfügung stehender Informationen und die Senkung der Kosten für Umsetzung, Betrieb und Infrastruktur.

Zudem wird dieses Konzept verwendet, um einen ite-rativen, transparenten Umbau der zugrunde liegenden Da-tenhaltungssysteme zu ermöglichen. Häufig greift man auf Virtualisierungstechnologie zurück, um über eine Da-tendrehscheibe Zielsysteme innerhalb und außerhalb des Unternehmens mit qualitätsgesicherten Daten aus unter-schiedlichen Datenquellen des Analytischen Ökosystems zu versorgen. Wichtige Voraussetzung dafür bildet ein system-übergeordnetes Stamm- und Metadatenmanagement.

Die oben aufgezeigten Erweiterungen der traditionel-len DWH-Komponenten lassen sich in eine zukunftsfähige Gesamtarchitektur integrieren (Abbildung 3). In der daraus resultierenden Gesamtsicht eines zukunftsfähigen Analyti-schen Ökosystems auf höchstem Abstraktionsniveau ist die Ergänzung der technischen Komponenten um den übergrei-fenden Bereich der Information Governance wesentlich, um

www.steria-mummert.de

09.02.2015 2

BI-Funktionen

„Traditionelle“DWH-Komponenten

Analy-tischesLabor

Datenquellen

(Near)Realtime

BI-Nutzungsschicht

Info

rmat

ion

Gov

erna

nce

Daten-dreh-

scheibe

Datenvirtualisierung

BI-Funktionen

Datenquellen

BI-Nutzungsschicht

Acquisition Layer

CoreDWH

PresentationLayer

AnalyticalLayer

„Traditionelle“DWH-Komponenten

Abb. 3: Komponenten eines zukunftsfähigen Analytischen Ökosystems

14 BI­SPEKTRUM 01­2015

FOKUSARTIKEL

Page 4: Modernisierung klassischer BI-Architekturen durch Big Data

eine zentrale Steuerung von Datenflüssen, Datenqualität und Zugriffsrechten im technisch komplexeren Analyti-schen Ökosystem zu gewährleisten.

Zusammenfassung und FazitBig Data, von seinen Konzepten und Ideen weitgehend kon-gruent zu BI, ist auf der einen Seite Treiber der Bandbreite an Anforderungen, auf der anderen Seite werden alternative und additive Lösungen angeboten. Traditionelle BI-Paradig-men geraten dabei auch durch die neuen Big-Data-Techno-logien weiter unter Druck. In der Folge entwickelt sich ein neues Verständnis einer ganzheitlichen Referenzarchitektur, die aus flexiblen Elementen besteht, die innerhalb definierter Freiheitsgrade miteinander agieren und sich so von starren und zentralistischen Architekturen lösen. In einem Analyti-schen Ökosystem können demzufolge auch durchaus meh-rere analytische Datenpools nebeneinander existieren, da unterschiedliche Granularitäten, Datenquellen oder Analyse-ziele nicht dogmatisch physisch in ein Data Warehouse inte-griert werden müssen. Entscheidend ist vielmehr, dass logi-sche Transparenz darüber besteht, in welchem analytischen Datenpool welche Daten in welcher Form abgelegt sind.

Nichtsdestotrotz ist der Weg zu einem Analytischen Ökosystem lang und in Abhängigkeit der verfolgten Use Cases unternehmensindividuell auszugestalten. Der erste Schritt beginnt jedoch in den Köpfen mit der Bereitschaft zur Modernisierung der bestehenden BI-Architektur.

[ Literatur ] [BAR14] Business Application Research Center (BARC): Big Data Analytics, 2014, http://barc.de/docs/survey­big­data­analytics, abgerufen am 5.2.2015[Eat14] Eaton, C. et al.: Understanding Big Data. Analytics for Enterprise Class Hadoop and Streaming Data. New York et al. 2012[GGD08] Gluchowski, P. / Gabriel, R. / Dittmar, C.: Manage­ment Support Systeme und Business Intelligence. Compu­tergestützte Informationssysteme für Führungskräfte und Entscheidungsträger. 2. Aufl., Berlin et al. 2008[Ster13] Steria Mummert Consulting GmbH: Business In­telligence: Status Quo in Europa. Europäische biMA­Studie, 2013. www.steria.com/de/bi/bidm­einblicke/europaeische­bima­studie­201213, abgerufen am 5.2.2015

Dries Ballerstedt ist Senior Consultant Business Intelligence & Analytics bei der Sopra Steria GmbH, Hamburg. Er leitet dort das Kompetenzteam Big Data. E-Mail: [email protected] Dr. Carsten Dittmar ist Senior Manager Business Intelligence & Analytics bei der Sopra Steria GmbH, Hamburg. Er verantwortet dort die Business Intelligence & Analytics Community. E-Mail: [email protected] Peter Schulz ist Manager Business Intelligence & Analytics bei der Sopra Steria GmbH, Hamburg. Er leitet dort das Kompetenzteam BI Architecture & Technology. E-Mail: [email protected]