8
HAUPTBEITRAG / BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE } Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen Stephan Fischer Viele Daten hatten Unternehmen schon immer. Doch der Fortschritt der IT im Bereich Hardware, In-Memory-Technologien wie SAP HANA, die die Verarbeitung sehr großer Mengen von Echtzeitdaten im Hauptspeicher des Servers ermöglicht, sodass Ergebnisse aus Analysen und Transaktionen sofort zur Verfügung stehen, sowie die Entwicklung neuer Analyselösungen eröffnen neue Möglichkeiten – und das nicht mehr nur für Unternehmen und die Infor- mationstechnologie. In Zeiten mobiler Endgeräte, Social Media, der stark wachsenden Internetnutzung in den Schwellenländern und der zunehmenden Verbreitung vernetzter Geräte wie Überwachungs- kameras und intelligenten Stromzählern wachsen die digitalen Datenbestände unvermindert weiter. Big Data ist längst Alltag Jede Minute verzeichnet Google zwei Millionen Suchanfragen, 30 Stunden neue Videos werden auf YouTube hochgeladen, 204 Millionen E-Mails ver- sendet, 10.000 Tweets abgesetzt [1]. Wäre Facebook ein Land, wäre es das drittgrößte nach China und Indien. Schon heute werden mehr Handys produ- ziert, als es Menschen gibt. Aktuell sind bereits rund fünf Milliarden Mobiltelefone in Benutzung, und täglich werden es mehr. Die Anzahl elektronischer Business- und Konsumententransaktionen wird für das Jahr 2020 auf täglich 450 Milliarden geschätzt. Für ihre Forschungstätigkeiten muss die Europäi- sche Organisation für Kernforschung (CERN) ein Datenvolumen von 70 Petabyte speichern und in den kommenden Jahrzehnten für schnelle Abfragen und Analysen jederzeit verfügbar halten. Gleichzeitig fallen pro Jahr 30 Petabyte neue Forschungsdaten an. In der Automobilbranche können in Fahr- zeuge eingebaute Chips bevorstehende Probleme erkennen, den Fahrer warnen und in die nächste Werkstatt lotsen, wo das benötigte Ersatzteil schon bereitliegt. In der Medizin erkennen Sensoren den Gesundheitszustand von Menschen und leiten bei Problemen automatisch entsprechende Maßnahmen ein. Implementierte Sensoren werten Körperfunk- tionen wie beispielsweise den Blutzuckerspiegel bei Diabetikern aus. Herzpatienten werden lückenlos überwacht, beim Eintreffen des Notarztes stehen alle nötigen medizinischen Daten sofort bereit. Netz- werkfähige Haushaltsgeräte tragen zum Gelingen der Energiewende bei und können nicht mehr nur per Mobilgerät ferngesteuert und programmiert werden. Sind sie an ein intelligentes Stromnetz ange- schlossen, können sie Energie dann nutzen, wenn sie am günstigsten ist. Schätzungen zufolge soll die Zahl dieser sogenannten Connected Devices von einer Milliarde Geräten im Jahr 2005 auf sechs Milliarden im Jahr 2015 steigen. Verbesserte Produktionsprozesse durch Industrie 4.0 Ein weiterer Treiber des Datenwachstums: Industrie 4.0 und damit untrennbar verbunden das ,,Inter- net der Dinge“. Durch das Internet wachsen reale und virtuelle Welt zum Internet der Dinge zu- sammen. Im Bereich Fertigung sind Maschinen, DOI 10.1007/s00287-014-0770-z © Springer-Verlag Berlin Heidelberg 2014 Dr. Stephan Fischer Senior Vice President SAP TIP Strategic Innovation, Walldorf E-Mail: s.fi[email protected]

Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

  • Upload
    stephan

  • View
    237

  • Download
    4

Embed Size (px)

Citation preview

Page 1: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

HAUPTBEITRAG / BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE }

Big Data: Herausforderungenund Potenziale für deutscheSoftwareunternehmen

Stephan Fischer

Viele Daten hatten Unternehmen schon immer.Doch der Fortschritt der IT im Bereich Hardware,In-Memory-Technologien wie SAP HANA, die dieVerarbeitung sehr großer Mengen von Echtzeitdatenim Hauptspeicher des Servers ermöglicht, sodassErgebnisse aus Analysen und Transaktionen sofortzur Verfügung stehen, sowie die Entwicklung neuerAnalyselösungen eröffnen neue Möglichkeiten – unddas nicht mehr nur für Unternehmen und die Infor-mationstechnologie. In Zeiten mobiler Endgeräte,Social Media, der stark wachsenden Internetnutzungin den Schwellenländern und der zunehmendenVerbreitung vernetzter Geräte wie Überwachungs-kameras und intelligenten Stromzählern wachsendie digitalen Datenbestände unvermindert weiter.

Big Data ist längst AlltagJede Minute verzeichnet Google zwei MillionenSuchanfragen, 30 Stunden neue Videos werden aufYouTube hochgeladen, 204 Millionen E-Mails ver-sendet, 10.000 Tweets abgesetzt [1]. Wäre Facebookein Land, wäre es das drittgrößte nach China undIndien. Schon heute werden mehr Handys produ-ziert, als es Menschen gibt. Aktuell sind bereits rundfünf Milliarden Mobiltelefone in Benutzung, undtäglich werden es mehr. Die Anzahl elektronischerBusiness- und Konsumententransaktionen wird fürdas Jahr 2020 auf täglich 450 Milliarden geschätzt.Für ihre Forschungstätigkeiten muss die Europäi-sche Organisation für Kernforschung (CERN) einDatenvolumen von 70 Petabyte speichern und in denkommenden Jahrzehnten für schnelle Abfragen undAnalysen jederzeit verfügbar halten. Gleichzeitigfallen pro Jahr 30 Petabyte neue Forschungsdatenan.

In der Automobilbranche können in Fahr-zeuge eingebaute Chips bevorstehende Problemeerkennen, den Fahrer warnen und in die nächsteWerkstatt lotsen, wo das benötigte Ersatzteil schonbereitliegt. In der Medizin erkennen Sensoren denGesundheitszustand von Menschen und leiten beiProblemen automatisch entsprechende Maßnahmenein. Implementierte Sensoren werten Körperfunk-tionen wie beispielsweise den Blutzuckerspiegel beiDiabetikern aus. Herzpatienten werden lückenlosüberwacht, beim Eintreffen des Notarztes stehen allenötigen medizinischen Daten sofort bereit. Netz-werkfähige Haushaltsgeräte tragen zum Gelingender Energiewende bei und können nicht mehr nurper Mobilgerät ferngesteuert und programmiertwerden. Sind sie an ein intelligentes Stromnetz ange-schlossen, können sie Energie dann nutzen, wenn sieam günstigsten ist. Schätzungen zufolge soll die Zahldieser sogenannten Connected Devices von einerMilliarde Geräten im Jahr 2005 auf sechs Milliardenim Jahr 2015 steigen.

Verbesserte Produktionsprozessedurch Industrie 4.0

Ein weiterer Treiber des Datenwachstums: Industrie4.0 und damit untrennbar verbunden das ,,Inter-net der Dinge“. Durch das Internet wachsen realeund virtuelle Welt zum Internet der Dinge zu-sammen. Im Bereich Fertigung sind Maschinen,

DOI 10.1007/s00287-014-0770-z© Springer-Verlag Berlin Heidelberg 2014

Dr. Stephan FischerSenior Vice PresidentSAP TIP Strategic Innovation,WalldorfE-Mail: [email protected]

Page 2: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

{ BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE

ZusammenfassungDaten spielen eine immer wichtigere Rolle inder Wirtschaft und bei der Bewältigung großergesellschaftlicher Herausforderungen – vomKlimaschutz und dem Erhalt der Mobilitätbis zur besseren medizinischen Versorgungunserer Gesellschaft. Nicht umsonst werdenDaten häufig als das neue Öl oder die Währungdes 21. Jahrhunderts bezeichnet und sind fürAnalysten und Hightech-Branchenverbändeder wichtigste Rohstoff in der digitalen Welt.Um das explosionsartig wachsende Datenauf-kommen sowohl sicher als auch sinnvoll zunutzen, helfen Technologien zur Verarbeitungvon Big Data, mit denen große, unzusammen-hängende Datenmengen in Echtzeit erfasst,bearbeitet und analysiert werden können. FürExperten ist Big Data nach der Entwicklungdes Personal Computers und des Internets einweiterer Paradigmenwechsel, der erst kürz-lich durch Hardware-Entwicklungen bzw. dieIn-Memory-Technologie möglich wurde.

Produktionsanlagen und Lagersysteme zunehmendin der Lage, selbstständig Informationen auszu-tauschen, Aktionen anzustoßen und einander zusteuern. Ziel ist es, Prozesse in den Bereichen Ent-wicklung und Konstruktion, Fertigung und Servicesignifikant zu verbessern. Diese vierte industrielleRevolution, auch Industrie 4.0 genannt, steht für dieVerknüpfung von industrieller Fertigung und Infor-mationstechnologie – und damit für eine neue Stufean Effizienz und Effektivität. Mit Industrie 4.0 ent-

Abb. 1 Die zunehmende Digitalisierung führtzu explosionsartigem Datenwachstum

stehen neue Informationsräume, die ERP-Systeme,Datenbanken, das Internet sowie Echtzeitinforma-tionen aus Fabriken, Lieferketten und Produktenmiteinander verbinden.

SAP setzt die Prinzipien von Industrie 4.0durch ,,Idea to Performance“ um – ein ganzheit-liches betriebswirtschaftliches Konzept, das dieLeistungsfähigkeit in der Produktion und bei Ser-viceprozessen erhöht. Das Konzept unterstützt dieumfassende Steuerung des gesamten Produktle-benszyklus vom Design bis zur Instandhaltungüber verschiedene Szenarios. So bietet beispiels-weise ,,Responsive Manufacturing“ durchgängigeProzesse, die die Abläufe von der Planung bis zurProduktion integrieren. Eingebettete Qualitäts-und Compliancekontrollen ermöglichen es Fer-tigungsunternehmen, bei Nichteinhaltung vonGesetzen entsprechende Korrektur- und Präven-tionsmaßnahmen einzuleiten und gleichzeitigplanbarere und kürzere Zykluszeiten festzusetzen,um so die Anlagenauslastung zu optimieren und dieLiefertermintreue zu unterstützen.

Wachsende Datenmengen richtig nutzenBei all den damit verbundenen Prozessen entstehenenorme Datenmengen. ,,Digitales Universum“ ist dieMaßeinheit für alle digitalen Daten, die innerhalbeines Jahres erstellt, vervielfältigt und konsumiertwerden. Dieses digitale Universum hat sich in denletzten zwei Jahren auf 2,8 Zettabyte verdoppelt. Innur acht Jahren soll es auf 40 Zettabyte anwach-sen, prognostizierten das MarktforschungsinstitutIDC und der Speicherhersteller EMC im letztenJahr [2]. Ein Zettabyte ist eine Zahl mit 21 Nullen.Zum Vergleich: Die geschätzte Menge aller Worte,

Page 3: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

Abb. 2 Wichtiger Treiber: Industrie 4.0und das ,,Internet of Everything“

die jemals von Menschen gesprochen wurden, würdedigitalisiert 42 Zettabyte entsprechen. Dabei liegenrund 80 Prozent aller Daten unstrukturiert vor. Un-strukturierte Daten sind diejenigen Informationen,die nicht in traditionellen relationalen Datenban-ken (zum Beispiel die Produktionsdatenbank einesproduzierenden Unternehmens oder die Patien-tendatenbank beim Arzt) vorgehalten werden undnur schwer zu verwalten und auszuwerten sind –also etwa E-Mail-Konversationen, Posts in sozialenNetzwerken wie Facebook und Twitter, Videoin-halte, Fotos und Gesprächsaufzeichnungen. Genaudiese Daten sind es jedoch, die echte Mehrwerte bie-ten können, wenn sie richtig ausgewertet und zumBeispiel mit historischen Daten in einen Kontext ge-setzt werden. Diese Informationen können genutztwerden, um Kunden mit besseren Produkten, indi-vidualisierten Angeboten und Dienstleistungen zuüberzeugen, oder um insgesamt Leistung, Effizienzund Wettbewerbsfähigkeit eines Unternehmens zuverbessern.

Händisch lässt sich die Flut an Daten jedochnicht mehr bewältigen. Nötig sind dezidierte Sys-teme und Programme, die es ermöglichen, großeDatenmengen in Echtzeit zu analysieren. Die Zu-kunft gehört den Unternehmen, die Daten nichtnur erheben beziehungsweise sammeln, sondernstrukturiert speichern, auswerten und daraus dierichtigen Schlüsse ziehen können. Ziel muss es sein,auf der Basis von verlässlichen Informationen dierichtigen Entscheidungen zu treffen. Die Studie vonIDC und EMC ergab allerdings auch, dass aktuell nurein halbes Prozent der weltweiten Datenbeständeüberhaupt analysiert und somit nutzbar gemachtwird.

Entsprechend wenig überraschend ist auch dasErgebnis einer Studie des Analystenhauses Gart-

ner [3]: Im Unternehmensalltag sind Maßnahmenzur Auswertung von Big Data noch kaum veran-kert. Nur acht Prozent der befragten Unternehmengeben an, bereits produktiv Big-Data-Technologieneinzusetzen. Rund ein Drittel hat bereits in Big-Data-Technologien investiert. Insgesamt 64 Prozent habenoder wollen ebenfalls diesen Weg gehen. Auch für dienächsten zwei Jahre planen die Unternehmen, in BigData zu investieren. Im Branchenvergleich sind be-sonders die Medien- und Kommunikationsfirmen,Banken und Dienstleistungsfirmen an Big Data in-teressiert. Große Investitionen, aber erst innerhalbder nächsten zwei Jahre, planen außerdem die Un-ternehmen im Gesundheitssektor, Versicherungenund Transportunternehmen.

Nachfrage undInvestitionsbereitschaft steigen

Ein Grund für die starke Nachfrage nach Big-Data-Lösungen: Unternehmen erwarten umfassendeVorteile durch deren Einsatz. Das ergab eine Be-fragung der Marktforscher der Experton Group [4].38 Prozent der befragten Unternehmen gehen davonaus, besser über das Informations- und Konsum-verhalten ihrer Kunden aufgeklärt zu werden, umsomit Angebote genauer auf deren Bedürfnisse ab-stimmen zu können. Ebenfalls 38 Prozent wollen ihrZielpublikum genauer erreichen, indem sie Big Dataeinsetzen. Auch Logistikprozesse sollen mithilfe vonBig Data optimiert werden. 37 Prozent der befragtenUnternehmen erwarten hierbei Kostensenkun-gen. Die systematische Analyse anfallender Datenmittels Big-Data-Werkzeugen soll insgesamt Ge-schäftsprozesse optimieren und den Unternehmeneinen Wettbewerbsvorteil verschaffen.

Laut Prognose des Bundesverbandes Infor-mationswirtschaft, Telekommunikation und neue

Page 4: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

{ BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE

Medien (BITKOM) wächst der deutsche Big-Data-Markt in diesem Jahr auf rund 651 Millionen Euro [5]– eine Steigerung um 85 Prozent im Vergleich zumVorjahr. Bis 2016 wird der Umsatz in Deutschlandmit Big Data auf rund 1,7 Milliarden Euro wachsen.Das entspricht einem jährlichen Plus von 48 Pro-zent. Weltweit erwarten Analysten bereits für 2013Umsätze in Höhe von 12,4 Milliarden US-Dollar.

Generell befindet sich Big Data im Jahr 2013 zu-mindest in Deutschland noch in einer recht frühenPhase. Die Mehrheit der Unternehmen möchte zu-nächst einmal verstehen, was Big Data eigentlich istund welchen Nutzen entsprechende Technologienbieten können. Die meisten sind noch dabei, Infor-mationen über Big Data auszuwerten und sich eineStrategie für den richtigen Umgang zurechtzule-gen. Die Anwender, die diesen Schritt bereits hintersich haben, profitieren bereits heute. Bei effektivenBig-Data-Lösungen werden zunächst die geschäftli-chen Anforderungen definiert, bevor Infrastruktur,Datenquellen und Analysemethoden darauf abge-stimmt werden. Unternehmen ziehen Erkenntnisseaus vorhandenen und neu verfügbaren internenInformationsquellen, definieren eine Big-Data-IT-Strategie und passen auf dieser Basis schrittweiseihre Infrastrukturen an.

Auswertungen in Echtzeit –jetzt auch in der Cloud

Mit SAP HANA hat SAP eine Datenbank-Appliancemit In-Memory-Technik entwickelt, die sich so-wohl für analytische als auch transaktionale Systemeeignet. SAP HANA unterstützt heute bereits umfas-sende Scale-out-Szenarien, also das Betreiben einesSAP-HANA-Systems über mehrere physische Ma-

Abb. 3 Gefragt sind Experten, dieDomänenerfahrung mit IT-Expertiseverknüpfen

schinen hinweg. Darüber hinaus wird das Konzeptder Multi-Tenancy unterstützt, mit dem mehrerelogische Datenbanken komplett voneinander iso-liert in einem SAP-HANA-System betrieben werdenkönnen. Dies ist besonders für den Einsatz in derCloud wichtig, wo Daten von Kunden hochsicherund voneinander getrennt gespeichert und bearbei-tet werden müssen. In diesem Bereich bietet SAP dieSAP HANA Enterprise Cloud an, ein neues Angebot,mit dem Unternehmen schnell bis in den Petabyte-Bereich skalieren und Anwendungen über die Cloudmit Echtzeitfunktionen beschleunigen können. DieSAP HANA Enterprise Cloud kann so zu einer Platt-form werden, in der Geschäftsdaten in der Cloudbearbeitet werden können.

Big-Data-Spezialisten noch MangelwareUm die Chancen, die Big Data mit sich bringt,zu nutzen, brauchen Unternehmen die richtigenMitarbeiter. Die Nachfrage nach Data Scientists,Data Curators, Analysten oder anderen Big-Data-Spezialisten, die den richtigen Mix an Kompetenzenmitbringen, um Big-Data-Projekte erfolgreichzu implementieren, wächst. Neben klassischerIT-Erfahrung sind zunehmend Fähigkeiten wieProblemlösungskompetenz, betriebswirtschaftlicheKompetenz, analytische Fähigkeiten und Kreativitätgefragt. Bei der Aufstellung eines Big-Data-Teamssetzen Unternehmen entweder auf die Schulungbestehender Mitarbeiter mit Erfahrung an denSchnittstellen von IT und Betriebswirtschaft, etwaaus den Bereichen Business Intelligence oder Busi-ness Analytics, oder die externe Personalsuche.Dabei bilden sich die Profile von Big-Data-Expertenerst langsam heraus.

Page 5: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

Fest steht: Den einen Big-Data-Spezialisten füralles gibt es nicht. Welche Kompetenzen im Ein-zelnen verlangt werden, ist unterschiedlich. Malmüssen Informationen aus verschiedenen Quellenfür neue Angebote wie etwa ortsbezogene Dienstekombiniert werden, mal sind speziell Mitarbeitermit Erfahrungen mit Datenbanken etwa in Petabyte-Dimensionen gefragt. Dabei müssen potenzielleKandidaten nicht nur in den Branchen, sondern auchin den einzelnen Geschäftsbereichen fit sein, sprichDomänenexpertise mit IT-Erfahrung verbinden.

Unternehmen stehen vortechnischen Herausforderungen

Neben der Festlegung der Strategie und dem Findengeeigneter Mitarbeiter ergeben sich für Unterneh-men bei der Umsetzung von Big-Data-Projektendurch neue Hardware und die In-Memory-Technologie auch technische Herausforderungen.So wurden beispielsweise bei In Memory bisherdie Daten zum Code transportiert – etwa aus ei-ner Datenbank zu einzelnen Anwendungen. InZeiten von Echtzeit-Analysen ist das aber zu lang-sam. Deswegen wird sich zurzeit intensiv damitbeschäftigt, wie Code-Fragmente direkt in der Da-tenumgebung abgearbeitet werden können. Diesführt zwar zu den notwendigen hohen Beschleuni-gungsfaktoren, ist aber ein gänzlich neuer Ansatzder Programmierung, den die Fachwelt erst erlernenmuss.

Auch reicht es nicht, strukturierte und un-strukturierte Daten aus den unterschiedlichstenQuellen zusammenzuführen. Entscheidend ist es,sie kontextbasiert aufzubereiten sowie ansprechendund einfach darzustellen, damit aus ihnen schnellnutzbare Informationen werden, die der Anwendermöglichst auf einen Blick erfassen kann. Hierbeistellen sowohl die situative Aufbereitung als auch dieVisualisierung von Big Data Herausforderungen dar,die bisher nur unzureichend gelöst werden können.Auch die Sicherheit ist ein Kernproblem, das nochnicht ausreichend erforscht ist.

Betriebsqualität und Leistung von Big-Data-Lösungen werden stark von der eingesetztenHardware beeinflusst. Enorme Fortschritte im Hard-wareumfeld (u. a. Multi-Core Architektur, massiveparallele Skalierung mit vielen Blades, Verbesse-rung der RAM-Lokalität) ermöglichen es, die Visiondes Echtzeit-Unternehmens mit entsprechendenIn-Memory-Applikationen zu verwirklichen.

In Bezug auf die Anbindung sind Konnektorenund Schnittstellen für ERP-Systeme, proprietäre Sys-teme und Flatfiles, wie sie etwa mit Excel erzeugtwerden, sowie für den Zugriff auf Webservices wich-tig. Die Benutzerschnittstellen müssen zudem andie Anforderungen der Anwender angepasst sein.Neue Tools bedienen sich deswegen nicht mehrumständlicher Drill-Down-Methoden, weil dabeibereits begonnene Analysen neu gestartet werdenmüssen, wenn sich eine neue Fragestellung ergibt.In-Memory-Technologien wie SAP HANA ken-nen den Status aller Datenpunkte einer Abfrage:Analyse-Ergebnisse verändern sich, sobald sich einDatenpunkt ändert.

Die Anforderungen an eine Big-Data-Infrastruktur reichen von der Datenerfassung überdie Datenorganisation bis hin zur Datenanalyse.Das explosionsartige Datenwachstum erfordert eineveränderte Datenerfassung. Big Data beinhaltet Da-tenströme mit hoher Geschwindigkeit und großerVielfalt. Entsprechend muss die Infrastruktur ska-lierbar sein und eine geringe und kalkulierbareLatenzzeit sowohl bei der Datenerfassung als auchbei der Ausführung von Abfragen gewährleisten.Ein extrem hohes Transaktionsvolumen, oftmals ineiner verteilten Umgebung, muss ebenso unterstütztwerden wie flexible, dynamische Datenstrukturen.Die Netzwerk-Latenz ist zu minimieren. Generell istzu bedenken, dass die Kapazitätsentwicklung desTransports über Netzwerke immer langsamer als dieEntwicklung der Datenmengen ist.

Aufgrund des enormen Volumens wird Big Datatendenziell eher an ihrem ursprünglichen Speicher-ort organisiert. Weil Unternehmen somit auf dasVerschieben riesiger Datenmengen verzichten kön-nen, sparen sie Zeit und Geld. Entsprechend mussdie eingesetzte Infrastruktur in der Lage sein, Datenam originären Speicherort zu be- und verarbei-ten. Zudem sollte ein extrem hoher Durchsatz beiumfangreichen Schritten zur Datenverarbeitung,auch im Batch-Modus, sichergestellt sein. Dass dieunterschiedlichsten Formate strukturierter und un-strukturierter Daten unterstützt werden müssen,versteht sich von selbst.

Aktuell ist ein Paradigmenwechsel zu ,,code-to-data“ anstelle von ,,data-to-code“ zu erkennen.Traditionell erfolgen Berechnungen größtenteilsauf der Applikationsebene. In der Zukunft wirdder Trend dahin gehen, Rechenoperationen auf dieDatenbankebene auszulagern, um eine bestmög-

Page 6: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

{ BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE

liche Performance zu erreichen. Beispiele hierfürsind Planungs- und Simulationsberechnungen, prä-diktive Analysen und die unscharfe Suche bei derTextanalyse.

Auch in der Organisationsphase werden Datennicht unbedingt verschoben. Entsprechend wer-den sie unter Umständen auch in einer verteiltenUmgebung analysiert, in der sich bestimmte Da-ten weiterhin an ihrem ursprünglichen Speicherortbefinden und über ein Data Warehouse abgerufenwerden. Um Big Data zu analysieren, muss einegeeignete Infrastruktur anspruchsvolle Analytikwie beispielsweise statistische Analysen und DataMining für unterschiedliche Datentypen in verschie-denen Systemen unterstützen sowie kombinierteAnalysen für Big Data und traditionelle Unterneh-mensdaten durchführen können. Nur wenn neueDaten im Kontext mit bereits vorhandenen unter-sucht werden, lassen sich Erkenntnisse gewinnenund bekannte Herausforderungen aus einem neuenBlickwinkel beleuchten.

Einsatzszenarien von Fertigungbis Energie

Fertigungsunternehmen, die ihre Systeme auf In-Memory-Technologie ausrichten, können ihreMaterialbedarfs- und Kapazitätsplanung um einVielfaches beschleunigen. So dauern diese Prozessenicht mehr Stunden oder die ganze Nacht, sondernsind teilweise in Minuten erledigt. Pro Tag sind ent-sprechend mehrere MRP (Manufacturing ResourcePlanning)-Läufe möglich. Im Bereich Produktions-planung und -steuerung können Unternehmen soschnell und flexibel auf neue Kundenanforderungenreagieren. Gleiches gilt für Ausnahmesituationenin der Fertigung. Weil sich mit Lösungen basierendauf In-Memory anhand aktueller ProduktionsdatenAuswirkungen von Änderungen mittels Was-wäre-Wenn-Szenarien in Echtzeit durchspielen lassen,können Fertigungsunternehmen auf Knopfdrucksehen, wie sich bestimmte Maßnahmen auf dieMaschinenauslastung oder den Personalbedarfauswirken.

Die Energiebranche sieht sich einem Wandel ge-genüber. Die Umstellung auf erneuerbare Energien,die von der EU geforderte Installation von SmartMeter, die Entwicklung neuer, kundenzentrier-ter Geschäftsmodelle: Aus diesen Veränderungenergeben sich für die Energiebranche ganz neueHerausforderungen an die IT-Infrastruktur. Mit-

tels der Analyse umfangreicher strukturierter undunstrukturierter Daten, wie sie beispielsweise überApps auf mobilen Endgeräten, Internetportalen undsoziale Medien generiert werden, können Energie-versorger künftig Geschäftsprozesse optimierenund neue Geschäftsmodelle entwickeln. So ermög-lichen Big-Data-Analysen beispielsweise bessereVerbrauchsprognosen, mit denen Versorger denEinkauf von Energie genauer als bisher steuern kön-nen. Dank Big Data können auch Tarife besser aufverschiedene Kundengruppen zugeschnitten oderunzufriedene Kunden leichter erkannt werden, wasletztlich die Kundenbindung erhöht.

Verbessertes urbanes Lebenund personalisierte Medizin

Auch in den Bereichen Stadtentwicklung undVerkehrsmanagement ergeben sich durch die Aus-wertung von Big Data völlig neue Möglichkeiten.Mithilfe von integrierten Lösungen für die Trans-portkommunikation und intelligenter Systeme fürdas Verkehrsmanagement kann der Verkehr inschnell wachsenden dichtbesiedelten Stadtgebietenbesser bewältigt werden. Die Menge an Daten, die inStädten unter anderem durch U-Bahnen, Busse, Ta-xis und Verkehrskameras generiert wird, ist immens.Mit den existierenden IT-Landschaften lassen sichoftmals kaum Vorhersagen oder erweiterte Daten-analysen durchführen, um verschiedene Verkehrs-und Transportszenarien vorausschauend durch-zuspielen. Aber nur so lassen sich entsprechendeDienstleistungen und die weitere Städteplanungverbessern. Werden Informationen in Echtzeitanalysiert, richtig ausgewertet und in Kontext mithistorischen Daten gesetzt, können Staus und Ge-fahren im Straßenverkehr frühzeitig erkannt undVerkehrsaufkommen, Emissionen und Fahrzeitensignifikant gesenkt werden.

Auch in der modernen Medizin fallen zuneh-mend größere Datenmengen an. Gründe hierfür sindzum Beispiel die immer höher aufgelösten Daten ausmodernen Untersuchungsmethoden wie der Kern-spintomografie, eine IT-gesteuerte Medizintechnik,die umfangreiche medizinische Dokumentation unddas stetig detaillierter werdende Wissen über dasmenschliche Erbgut. So wird etwa im Bereich derpersonalisierten Krebstherapie immer häufiger Soft-ware eingesetzt, um aus Terabytes an klinischen,molekularen und medikamentösen Daten, die inunterschiedlichen Formaten vorliegen, in Echtzeit

Page 7: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

effektive Behandlungsoptionen für jeden einzelnenPatienten abzuleiten und so Behandlungserfolgesignifikant zu verbessern. Die Charité Universi-tätsmedizin Berlin verknüpft die Daten von 15.000hauseigenen Patienten. Innerhalb dieser Datenbankkann man wie bei einer Google-Suche nach Patien-ten mit ähnlichen Parametern suchen – also zumBeispiel, wie ähnliche Patienten mit vergleichba-rem Krebstyp behandelt wurden und wie erfolgreichdiese Behandlungen waren. So können die Ärztedie wirksamsten Therapien mit den geringstenNebenwirkungen auswählen. Dank des Einsatzesvon In-Memory-Technologie können viele Datenteilweise um 1.000 Prozent schneller ausgewertetwerden.

In die gleiche Richtung geht das gemeinsameTumordatenbank-Projekt des Klinikums rechtsder Isar der TU München und des Klinikums derLMU München. Weil für die neue TumordatenbankBig-Data-Technologie eingesetzt wird, lassen sichselbst größte Datenvolumen verlässlich aus denunterschiedlichen Vorsystemen zusammenführen.Die Datenqualität verbessert sich enorm. Sämtli-che Informationen können zudem anhand freierSuchparameter innerhalb kürzester Zeit auch ausunstrukturierten Informationsquellen, wie zumBeispiel Arztbriefen und Befundberichten, ausge-wertet werden, um so den Entscheidungsprozessfür maßgeschneiderte Empfehlungen zur Diagnos-tik und Therapie zu beschleunigen und geeigneteKandidaten für Studien zu identifizieren.

Herausfordernd bleibt der DatenschutzNicht nur in der Medizin ist es besonders wichtig,alle Datenschutzrichtlinien strikt einzuhalten. Viele

Abb. 4 Smart Data Innovation Lab: schnellerTechnologietransfer zwischen Industrie undWissenschaft

Daten, die genutzt werden, um Trends zu erkennenund Prognosen zu erstellen, sind personenbezo-gen, so zum Beispiel Vertragsdaten zu gekauftenProdukten, Daten aus sozialen Netzwerken, E-Mailsund Telefonverbindungsdaten. Werden sie verwen-det, müssen sie deshalb ausreichend anonymisiertund die gesetzlichen Vorgaben des Datenschutzesbeachtet werden. Zudem muss ein Maximum antechnischer und organisatorischer Sicherheit vorunberechtigten Zugriffen gewährleistet sein.

SAP begrüßt die Initiative der EU-Kommission,das Datenschutzrecht in Europa zu harmonisieren,und unterstützt die Schaffung eines einheitlicheneuropäischen Rechtsrahmens. Eine Harmonisierungder aktuell fragmentierten Datenschutzbestimmun-gen würde es erleichtern, IKT-Dienstleistungen inder EU anzubieten und zu nutzen. Ein einheitlicherRechtsrahmen ist wichtig, um die Wettbewerbs-fähigkeit der europäischen IKT-Industrie weiterzu verbessern. Für das Arbeiten mit Big Data istder derzeit existierende Rechtsrahmen in vielenLändern, so auch in Deutschland, nicht ausrei-chend. So gibt es in der Rechtsprechung keinenBegriff für Dateneigentum. Moderne Systeme derDatenverarbeitung brauchen technologie-offeneRegelungen, die technische Innovationen fördernund den internationalen Charakter der sich welt-weit ausweitenden vernetzten Wirtschaftsabläufeberücksichtigen. Ein hohes Niveau des Schutzespersonenbezogener Daten sowie ein hohes Maß anSicherheit bei der Verarbeitung dieser Daten ist dieGrundlage.

Stehen Big-Data-Projekte an, sollten Unterneh-men Datenschutzanforderungen bereits frühzeitigberücksichtigen, am besten schon in der Konzep-

Page 8: Big Data: Herausforderungen und Potenziale für deutsche Softwareunternehmen

{ BIG DATA: HERAUSFORDERUNGEN UND POTENZIALE

tionsphase. Nur so lässt sich sicherstellen, dassDatenschutzrichtlinien eingehalten werden, ohnedass später Rechtsrisiken entstehen oder Pro-jekte zeit- und kostenintensiv angepasst werdenmüssen. Ignorieren die Verantwortlichen die ge-setzlichen Anforderungen, können – abgesehen voneinem möglichen Imageschaden – ganze Daten-bestände oder Auswertungsmechanismen nutzlosoder gefährdet werden, weil sie sich nicht mehrdatenschutzkonform umsetzen lassen.

Insgesamt entsteht aus dem Nutzen von Big Dataund dem Schutz individueller Informationen einganz neues Spannungsverhältnis. Die Herausfor-derung wird es auch in Zukunft sein, die Balancezwischen dem Schutz persönlicher Daten und dem(gesellschaftlichen) Nutzen zu finden. Wenn wir esschaffen, diese Balance herzustellen, sind die Mög-lichkeiten, die sich durch Big Data eröffnen, fastgrenzenlos.

Smart Data Innovation Lab:Gemeinschaftsinitiative von Wirtschaft,Wissenschaft und Politik

Ein Schlüssel hierfür liegt in der engen Zusammen-arbeit zwischen Wissenschaft und Industrie. Soarbeitet SAP beispielsweise mit vielen Partnern amSmart Data Innovation Lab, dessen Ziel es ist, BigData aus verschiedensten realen Anwendungen fürdie Wissenschaft zu erschließen und für Analysenzur Verfügung zu stellen [6]. So sollen neue Werk-zeuge und innovative Verfahren entwickelt werden.Die dabei zu verarbeitende Datenmenge erforderteine leistungsfähige Infrastruktur sowie entspre-

chende Analysewerkzeuge, die von namhaftenAnbietern und auf Big Data spezialisierten Markt-teilnehmern zur Verfügung gestellt werden, um soeine optimale Arbeitsumgebung für die Forschungzu schaffen.

Das von der Arbeitsgruppe 6 des IT-Gipfels derBundeskanzlerin initiierte Projekt möchte einenengen Dialog zwischen Wissenschaft und Wirt-schaft zum Thema Smart Data etablieren, durchden strategische Forschungsfelder wie die Industrie4.0, Energie/Smart Grid, Smart Cities und auch diepersonalisierte Medizin zum Vorteil des StandortsDeutschland schnell weiterentwickelt werden sollen.In dieser gemeinsamen Initiative von Wirtschaft undWissenschaft wird am Karlsruher Institut für Tech-nologie (KIT) eine Höchstleistungs-Infrastrukturgeschaffen, mit der die Forschung auf Basis realer In-dustriedaten im Umfeld von Smart Data unterstütztwerden soll.

Literatur1. Intel Corporation (2012) Was geschieht im Internet in einer Minute?/What Hap-

pens in an Internet Minute? http://www.intel.de/content/www/de/de/communications/internet-minute-infographic.html, letzter Zugriff 20.3.2013

2. IDC/EMC Corporation (2012) The Digital Universe in 2020. http://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf, letzter Zugriff De-zember 2012

3. Gartner, Inc. (2013) Survey Analysis: Big Data Adoption in 2013 Shows SubstanceBehind the Hype. https://www.gartner.com/doc/258912112, letzter Zugriff Sep-tember 2013

4. Experton Group (2013) Big Data Vendor Benchmark 2013. http://www.experton-group.de/research/studien/big-data-vendor-benchmark-2013/ueberblick.html, letz-ter Zugriff 31.7.2013

5. BITKOM (2013) Vortrag auf der CeBIT-Pressekonferenz und Präsentation. http://http://www.bitkom.org/files/documents/06032013_Praesentation_Big_Data_final.pdf, letzter Zugriff 6.3.2013

6. www.sdil.de