11
Effiziente Verarbeitung von großen Datenmengen Andreas Eisenkolb January 7, 2014 Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 1 / 11

Effiziente Verarbeitung von großen Datenmengen

Embed Size (px)

DESCRIPTION

Ein Vortrag von Andreas Eisenkolb aus dem Hauptseminar "Personalisierung mit großen Daten".

Citation preview

Page 1: Effiziente Verarbeitung von großen Datenmengen

Effiziente Verarbeitung von großen Datenmengen

Andreas Eisenkolb

January 7, 2014

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 1 / 11

Page 2: Effiziente Verarbeitung von großen Datenmengen

Inhaltsverzeichnis

1 Big Data

2 MapReduce

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 2 / 11

Page 3: Effiziente Verarbeitung von großen Datenmengen

Big Data

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 3 / 11

Page 4: Effiziente Verarbeitung von großen Datenmengen

Big Data

speichert ca. 2,5 Petabytes1 Petabyte = 1 048 576 GigabytesIBM Festplatten-Cluster speichert 20 Petabayte 1

1Quelle: http://www.dailytech.com/article.aspx?newsid=22558Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 4 / 11

Page 5: Effiziente Verarbeitung von großen Datenmengen

Was versteht man unter Big Data?

Big Data

Big Data bezeichnet große Datenmengen aus vielfaltigen Quellen, die mitHilfe neu entwickelter Methoden und Technologien erfasst, verteilt,gespeichert, durchsucht, analysiert und visualisiert werden konnena.

aWissenschaftliche Dienste des Deutschen Bundestages

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 5 / 11

Page 6: Effiziente Verarbeitung von großen Datenmengen

Big Data Challenge

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 6 / 11

Page 7: Effiziente Verarbeitung von großen Datenmengen

Die 4 ”Vs” von Big Data

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 7 / 11

Page 8: Effiziente Verarbeitung von großen Datenmengen

Was ist MapReduce?

MapReduce

MapReduce ist ein vom Unternehmen Google Inc. eingefuhrtesProgrammiermodell fur nebenlaufige Berechnungen uber großeDatenmengen auf Computerclustern.

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 8 / 11

Page 9: Effiziente Verarbeitung von großen Datenmengen

Warum MapReduce?

Effiziente Verarbeitung großer Datenmengen

Einfache Benutzung (Fehlerbehandlung, Datenverteilung, etc.)

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 9 / 11

Page 10: Effiziente Verarbeitung von großen Datenmengen

MapReduce

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 10 / 11

Page 11: Effiziente Verarbeitung von großen Datenmengen

Andreas Eisenkolb Effiziente Verarbeitung von großen Datenmengen January 7, 2014 11 / 11