170
AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER ONLINEMEDIEN IM RAHMEN DES ABIDA-FORSCHUNGSPROJEKTES DES BMBF FÖRDERKENNZEICHEN 01|S15016A‐F

AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

AUSWIRKUNGEN VON B IG DATA AUF

DEN MARKT DER ONLINE MEDIEN I M R A H M E N D E S A B I D A - F O R S C H U N G S P R O J E K T E S D E S B M B F

F Ö R D E R K E N N Z E I C H E N 0 1 | S 1 5 0 1 6 A ‐ F

0 1 I S 1 5 0 1 6 A - F

Page 2: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

Goldmedia GmbH Strategy Consulting

Autoren:

Prof. Dr. Klaus Goldhammer, Dr. André Wiegand,

Tim Prien M.A., Ina Wylenga M.A.

Unter Mitarbeit von:

Franziska Busse, Sophie Seyffert und Andrea Hamm

Oranienburger Str. 27, 10117 Berlin-Mitte, Germany

Tel. +49 30-246 266-0, Fax +49 30-246 266-66

[email protected]

Datum: 28.02.2018

ABIDA - ASSESS ING B IG DATA

P R O J E K T L A U F Z E I T 0 1 . 0 3 . 2 0 1 5 - 2 8 . 0 2 . 2 0 1 9

F Ö R D E R K E N N Z E I C H E N 0 1 | S 1 5 0 1 6 A ‐ F

Page 3: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

www.abida.de

© 2018 – Alle Rechte vorbehalten

Westfälische Wilhelms-Universität Münster,

Institut für Informations-, Telekommunikations- und

Medienrecht (ITM), Zivilrechtliche Abteilung

Karlsruher Institut für Technologie,

Institut für Technikfolgenabschätzung

und Systemanalyse (ITAS)

Leibniz Universität Hannover

Institut für Rechtsinformatik

(IRI)

Technische Universität Dortmund,

Wirtschafts- und Sozialwissenschaftliche

Fakultät (WiSo) Techniksoziologie

Ludwig-Maximilians-Universität München,

Forschungsstelle für Information, Organisation

und Management (IOM)

Wissenschaftszentrum

Berlin für Sozialforschung

ABIDA - Assessing Big Data

Über das Gutachten

Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für

Bildung und Forschung erstellt. Der Inhalt des Gutachtens gibt ausschließlich die Auffassungen

der Autoren wieder. Diese decken sich nicht automatisch mit denen des Ministeriums und/oder

der einzelnen Projektpartner.

ABIDA lotet gesellschaftliche Chancen und Risiken der Erzeugung, Verknüpfung und Auswertung

großer Datenmengen aus und entwirft Handlungsoptionen für Politik, Forschung und Entwicklung.

Page 4: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

1

INHALTSVERZEICHNIS

Abbildungsverzeichnis ....................................................................................................................................................... 3

Tabellenverzeichnis ............................................................................................................................................................ 5

Abkürzungsverzeichnis ...................................................................................................................................................... 6

1 Executive Summary ...................................................................................................................................................... 7

2 Einleitung und Struktur des Gutachtens ............................................................................................................... 13

3 Technologische Grundlagen von Big Data: Künstliche Intelligenz und Neuronale Netzwerke ............... 16

3.1 Definition Künstlicher Intelligenz .................................................................................................................. 17

3.2 Taxonomie von Big Data ................................................................................................................................. 18

3.3 Neuronale Netze als zentrale Methodik von Künstlicher Intelligenz................................................... 21

3.4 Deep Learning und weitere KNN-Topologien ............................................................................................ 23

3.5 Relationale Datenbanken und verteilte Dateisysteme ........................................................................... 26

3.6 Statistisches Natural Language Processing und Natural Language Generation ................................ 28

3.7 Hidden-Markov-Modelle ................................................................................................................................ 31

4 Ausgewählte Beispiele von medienbezogenen Big-Data-Anwendungen im B2C-Markt.......................... 34

4.1 Personal Voice Assistants: KI-basierte Kommunikation und Transaktion .......................................... 34

4.1.1 Definition und Anwendungsbereiche ....................................................................................................35

4.1.2 Marktpotentiale ............................................................................................................................................37

4.1.3 Nutzerakzeptanz ...........................................................................................................................................39

4.1.4 Zusammenfassung und Ausblick .............................................................................................................41

4.2 Chatbots und Social-Bots: Automatisierte (Massen-) Kommunikation .............................................. 43

4.2.1 Definition und Anwendungsbereiche ....................................................................................................44

4.2.2 Marktpotentiale ............................................................................................................................................45

4.2.3 Nutzerakzeptanz ...........................................................................................................................................47

4.2.4 Zusammenfassung und Ausblick .............................................................................................................49

4.3 Algorithmische Optimierung von Empfehlungen in Onlinemedien und im E-Commerce .............. 52

4.3.1 Definition und Anwendungsbereiche ....................................................................................................52

4.3.2 Marktpotentiale ............................................................................................................................................55

4.3.3 Gesellschaftlicher Diskurs um ADM-Prozesse .....................................................................................56

4.3.4 Zusammenfassung und Ausblick .............................................................................................................59

5 Auswirkungen von medienbezogenen Big-Data-Anwendungen im B2B-Markt ......................................... 62

5.1 Teil- und vollautomatisierte Prozesse bei der Produktion von Medieninhalten .............................. 62

5.1.1 Definition und Anwendungsbereiche ....................................................................................................62

5.1.2 Marktpotentiale ............................................................................................................................................74

5.1.3 Zusammenfassung und Ausblick .............................................................................................................76

5.2 Innerbetriebliche Potentiale von Big Data bei Medienunternehmen ................................................. 78

5.2.1 Big-Data-Prozesse als neue Schlüsselaktivität .....................................................................................78

5.2.2 Marktpotential und Anwendungsbereiche ..........................................................................................81

5.2.3 Zusammenfassung und Ausblick .............................................................................................................83

5.3 Datengewinnung für Akquise und Vertrieb ............................................................................................... 88

5.3.1 Definition von personenbezogenen Daten ..........................................................................................89

Page 5: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

2

5.3.2 Marktpotential und Anwendungsbereiche ..........................................................................................93

5.3.3 Zusammenfassung und Ausblick .............................................................................................................97

6 Auswirkungen von Big Data auf Onlinemedien: Beispiele und Case Studies .............................................. 99

6.1 Case Study: KI im Journalismus ..................................................................................................................... 99

6.2 Case Study: KI-Factchecking ........................................................................................................................ 100

6.3 Case Study: Content Blockchain................................................................................................................. 101

6.4 Case Study: Von Programmatic zu Predictive Advertising .................................................................. 103

6.5 Förderinitiativen: Google Digital News Initiative ................................................................................... 106

6.5.1 FAZ9 ............................................................................................................................................................... 107

6.5.2 Act2Access ................................................................................................................................................... 107

6.5.3 Journalism First .......................................................................................................................................... 107

7 Handlungsempfehlungen für die Politik & Fazit .............................................................................................. 108

7.1 Handlungsempfehlungen für die Politik .................................................................................................. 108

7.1.1 Sicherung der publizistischen Vielfalt ................................................................................................. 108

7.1.2 Wahrung der Meinungsvielfalt ............................................................................................................. 109

7.1.3 Richtlinien zur Datensouveränität........................................................................................................ 109

7.1.4 Algorithmen- und KI-Audits .................................................................................................................... 110

7.1.5 PVA-Plattformregulierung ...................................................................................................................... 110

7.1.6 Zusammenfassung der Handlungsempfehlungen .......................................................................... 111

7.2 Fazit und Ausblick .......................................................................................................................................... 111

8 Literatur und Quellen ............................................................................................................................................. 115

9 Anhang ....................................................................................................................................................................... 141

9.1 Marktübersicht: B2C-Anwendungen ........................................................................................................ 141

9.2 Marktübersicht: B2B-Anwendungen ........................................................................................................ 153

Page 6: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

3

ABBILDUNGSVERZEICHNIS

Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input ......... S. 17

Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken ...................................... S. 18

Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow-Bibliothek ........... S. 24

Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife ....... S. 25

Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses ................................................. S. 30

Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme ....................................... S. 32

Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero" ......... S. 33

Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017 ..................... S. 35

Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017) ............................................................... S. 36

Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017 ........................................................... S. 37

Abb. 11: Taxonomie von Chatbots .......................................................................................................... S. 45

Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD .............................................................................................................................. S. 46

Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017 ............ S. 47

Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016 .... S. 48

Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018 ................... S. 49

Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017............................................................ S. 51

Abb. 17: Modell der Organisation algorithmisch strukturierter Öffentlichkeit ...................................... S. 61

Abb. 18: AX Semantics Inputraster in drei Sprachen und Beispielartikel ............................................... S. 63

Abb. 19: Ausschnitt aus der Datenbank „Homicide Report" .................................................................. S. 65

Abb. 20: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die auf Prosa trainiert wurde .................................................................................................... S. 67

Abb. 21: Schematische Darstellung der Funktionsweise von Programmatic Creation ........................... S. 68

Abb. 22: Schematische Darstellung der Funktionsweise von Programmatic Orchestration .................. S. 69

Abb. 23: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert) ......... S. 70

Abb. 24: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious ................... S. 71

Abb. 25: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016............................. S. 72

Abb. 26: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung ........... S. 74

Abb. 27: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics Anbieters Dataiku ..................................................................................................................... S. 80

Abb. 28: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017 .................. S. 82

Abb. 29: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data- Analyseergebnissen zur Entscheidungsfindung in Unternehmen ............................................ S. 84

Page 7: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

4

Abb. 30: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland, in Prozent ...................................................... S. 85

Abb. 31: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personen- bezogenen Verbraucherdaten (vereinfachte und beispielhafte Darstellung) .......................... S. 88

Abb. 32: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz, 2011-2017, in Mio. US-Dollar ................................................................................................... S. 93

Abb. 33: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene ...... S. 96

Abb. 34: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse ..................... S. 99

Abb. 35: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde ........................... S. 100

Abb. 36: Menüansicht der Content Blockchain Testversion ................................................................. S. 102

Abb. 37: Übersicht über die Struktur des Programmatic-Buying-Ökosystems ..................................... S. 103

Abb. 38: Datenquellen im Werbenetzwerk von Facebook, Stand 2016 ............................................... S. 104

Abb. 39: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent ........................ S. 106

Page 8: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

5

TABELLENVERZEICHNIS

Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen ............. S. 19

Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants .......................................... S. 43

Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems ...................................... S. 54

Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse ........................................ S. 59

Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl) ............................................. S. 89

Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016 ................ S. 94

Tab. 7: Relevante Datenbestände im Geschäftsbereich Risiko-informationen der untersuchten Adress- und Datenhändler in Deutschland ........................................................ S. 97

Page 9: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

6

ABKÜRZUNGSVERZEICHNIS

ADM ............................................. Algorithmic Decision Making

AI ................................................... Artificial Intelligence

API ................................................ Application Programming Interface

B2B ............................................... Business-to-Business

B2C ............................................... Business-to-Consumer

BI ................................................... Business-Intelligence

BVDW .......................................... Bundesverband Digitale Wirtschaft

CRM ............................................. Customer-Relationship-Management

DAI ................................................ Distributed Artificial Intelligence

DNI ............................................... Digital News Initiative

DS-GVO ...................................... Datenschutz-Grundverordnung

E-Commerce ............................. Electronic-Commerce

HMM............................................ Hidden-Markov-Modellen

IoT ................................................. Internet of Things

KI ................................................... Künstliche Intelligenz

KNN.............................................. Künstliche Neuronale Netze

NLG .............................................. Natural Language Generation

NLP ............................................... Natural Language Processing

NoSQL ......................................... Not only SQL

PVA ............................................... Personal Voice Assistant

SNLP ............................................ Statistisches Natural Language Processing

SQL ............................................... Structured Query Language

UI ................................................... User Interface

VCA .............................................. Video Content Analysis

XML .............................................. Extensible Markup Language

Page 10: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

7

1 EXECUTIVE SUMMARY

Dieses Gutachten zu „Auswirkungen von Big Data auf den Markt der Onlinemedien“ wurde im Auf-

trag der Westfälischen Wilhelms-Universität Münster (WWU) als Projektträger des interdisziplinären

BMBF-Forschungsprojekts Assessing Big Data (ABIDA) von der Goldmedia GmbH Strategy Consul-

ting am 28.02.2018 übergeben. Es kommt zu den folgenden Ergebnissen:

K E R N E R G E B N I S S E T E C H N I S C H - S T R U K T U R E L L E R A H M E N B E D I N G U N G E N :

D E F I N I T I O N E N U N D B E G R I F F L I C H K E I T E N

▪ Der Begriff "Big Data" wird durch vier Komponenten beschrieben: Er bezeichnet den Umgang

mit Datensets, a) die ein sehr hohes Volumen aufweisen, b) in ihrer Beschaffenheit unstruktu-

riert oder anderweitig komplex sind, c) den Einsatz von flexiblen Datenbankmanagement-Sys-

temen erfordern und d) deshalb eine Kapitalinvestition rechtfertigen.

▪ Künstliche Intelligenz (KI) bildet die technische Grundlage für Big-Data-basierte Anwendungen

und bezeichnet computer-basierte, autonome Agenten, die ihre Umgebung in Form von Daten

wahrnehmen und verarbeiten können. In der Praxis trägt Künstliche Intelligenz dazu bei, be-

stimmte Gruppen von Problemen zu lösen – nämlich Probleme der Klassifikation, Regression,

Gruppierung und Reduktion von Komplexität bei großen Datenmengen.

▪ Künstliche Neuronale Netze (KNN) stellen die zentrale Methodik von KI dar. Darunter werden

in der Neuroinformatik Modelle verstanden, die eine Zielvorgabe nachbilden und durch Rück-

kopplungen kontinuierlich lernen, um große Informationsmengen automatisiert zu strukturie-

ren.

▪ Deep Learning ist die bekannteste und am häufigsten eingesetzte Lernanordnung von KNN.

Als Lernanordnung (bzw. Topologie) eines KNN wird die Struktur bzw. die Anordnung der ein-

zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet. Beim Deep Learning

werden viele verborgene Zwischenschichten von KNN systematisch angeordnet.

▪ Datenbanken spielen bei der Betrachtung von Big Data eine zentrale Rolle. Verteilte Dateisys-

teme (Hadoop) bieten dabei die Möglichkeit, auch unstrukturierte Datensets mit unterschied-

lichen Datentypen verarbeiten zu können.

▪ Statistisches Natural Language Processing (auf Deutsch: maschinelle Verarbeitung natürlicher

Sprache, SNLP) dient als Grundlage für die automatisierte Erstellung von textbasierten On-

lineinhalten. SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf

dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem

artifiziellen Agenten erkannt werden muss, indem menschliche Sprache für Computer ver-

ständlich übersetzt wird.

▪ Mit Hilfe von Hidden-Markov-Modellen (HMM) können im Rahmen von SNLP-Prozessen kon-

tinuierliche Ereignisse wie gesprochene Sprache durch Computer antizipiert werden. Ein Ge-

spräch kann in seinem Verlauf erfasst werden. Durch selbstlernende Prozesse können Texte

von Computern dabei immer besser verstanden werden.

Page 11: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

8

M E D I E N B E Z O G E N E B I G - D A T A - A N W E N D U N G E N I M B 2 C - M A R K T :

P E R S O N A L V O I C E A S S I S T A N T S U N D C H A T B O T S

▪ Die populärste medienbezogene Big-Data-Anwendung im Nutzermarkt stellen sog. Personal

Voice Assistants (kurz PVA) dar. Solche persönlichen KI-gestützten Sprachassistenten wie

bspw. Amazon Alexa oder Google Home lassen sich per Sprachbefehl einfach bedienen, er-

leichtern dadurch alltägliche Aufgaben und fungieren gleichzeitig als neuer Distributionskanal.

PVA bieten vielfältige Möglichkeiten für neue (Medien-)Produkte und Dienste und die Akquise

neuer Nutzer: Dazu zählen vielfältige Audio- und Musikdienste, Nachrichtenservices (Wetter,

Verkehr, Börse, Sport, Navigation usw.) und viele weitere Anwendungsbereiche.

▪ Hauptbedenken bei der Nutzung von PVA stellt die Angst vor Datenmissbrauch und zu hoher

Transparenz gegenüber den US-basierten Anbietern dar. Eine Mehrheit der deutschen Nutzer

befürchtet Datendiebstahl, Manipulation und Missbrauch. Die Angst, permanent abgehört zu

werden, spielt ebenfalls eine entscheidende Rolle.

▪ Chatbot-Plattformen stellen eine weitere Variante der persönlichen Big-Data-gestützten As-

sistenz dar. Nutzer können mit Chatbots direkt in Schriftform kommunizieren und interagieren.

Chatbots imitieren mit Hilfe von SNLP dabei normale interpersonelle Kommunikation. So wer-

den bereits klassische Nachrichten, aber auch Wetter- und Börseninformationen in Gesprächs-

form zwischen Nutzer und Chatbot angeboten.

▪ Einfache Chatbot-Plattformen sind über Scriptsprachen (wie python oder VBA) programmiert,

die auf eine vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem erfolgreichen

Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren fortge-

schrittene Chatbot-Plattformen, die auf Algorithmen mit KI aufbauen.

▪ Für 2020 wird prognostiziert, dass bereits 85 Prozent aller Kundeninteraktionen mit Unterneh-

men durch Chatbots erfolgen. Bereits 2016 betrug das Investitionsvolumen durch Risikokapi-

talgeber in Chatbot-Entwickler und Bot Start-ups weltweit mindestens 170 Mio. Euro.

▪ Deutsche Nutzer erkennen praktische Vorteile von Chatbots wie das einfache Buchen von On-

linetickets, automatisierte Terminplanung oder schnelle Verkaufsgespräche. Dennoch lehnt

rund jeder zweite Nutzer in Deutschland die Konversation mit Chatbots ab, weil diese unper-

sönlich, unzuverlässig und technisch zu unausgereift erscheinen.

A L G O R I T H M I S C H E E M P F E H L U N G S S Y S T E M E

▪ Algorithmische Empfehlungsmechanismen, wie sie von Onlinemedien und im E-Commerce

eingesetzt werden, nutzen Big-Data-Prozesse: Von der Datenerfassung über die Datenanalyse

bis zur Interpretation und der Ableitung einer Entscheidung werden in großem Umfang per-

sonenbezogene Nutzerdaten durch selbstlernende KI-Mechanismen ausgewertet.

▪ Empfehlungssysteme gruppieren Personen mit ähnlichen Merkmalen. Ein zu dieser Gruppe

passender neuer Nutzer erhält dann Vorschläge, welche Produkte von dieser Kundengruppe

bereits gekauft wurden (Collaborative Filtering). Dabei wird unterstellt, dass Nutzer, die in der

Vergangenheit die gleichen Artikel kauften, auch bei anderen Produkten ähnliche Vorlieben

haben.

▪ Andere Algorithmen gehen inhaltsanalytisch vor und messen spezifische Eigenschaften bereits

gekaufter Produkte. Auf Basis von Parametern wie Größe, Farbe, Material oder Form werden

dann ähnliche Artikel empfohlen.

Page 12: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

9

▪ Medien-Streaming-Dienste wie Netflix, Amazon Video oder Spotify arbeiten mit hybriden

Empfehlungssystemen (Recommendation Engines), die Empfehlungen auf Basis von verschie-

denen Algorithmen gleichzeitig offerieren.

▪ 2016 wurde der globale algorithmische Handelsmarkt bereits auf einen Wert von rund 9,5 Mrd.

US-Dollar geschätzt. Marktexperten sehen automatisierte Preisgebungsverfahren und Emp-

fehlungssysteme als die wichtigsten algorithmen-basierten Möglichkeiten zur Umsatzsteige-

rung.

▪ Im Onlinemedien-Markt spielen Algorithmen auch bei der Mediaplanung und -buchung eine

wichtige Rolle. Mit Hilfe von Algorithmen werden bereits seit einigen Jahren automatisierte

Werbung (Programmatic Advertising) oder automatisierte Echtzeit-Werbeauktionen (Real-

Time-Bidding) erfolgreich eingesetzt. Für beide Methoden ist eine erhebliche Marktdurchdrin-

gung erkennbar, die dazu führt, dass klassische Buchungs- und Planungsmethoden durch KI

abgelöst werden.

▪ Zudem werden immer mehr Werbeinhalte automatisch und kontextsensitiv durch Big-Data-

Analysen und mit Hilfe selbstlernender Algorithmen erstellt (Programmatic Creation). Damit

steht der deutschen Werbebranche der nächste Paradigmenwechsel kurz bevor.

Page 13: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

10

M E D I E N B E Z O G E N E B I G - D A T A - A N W E N D U N G E N I M B 2 B - M A R K T

▪ Die deutsche Medienbranche beginnt damit, durch den Einsatz von Big Data und KI mediale

Inhalte zunehmend automatisiert zu erstellen. Dazu zählen die journalistische Recherche, die

Analyse und Aufbereitung von Daten sowie die Produktion audiovisueller Inhalte oder auch

die automatisierte Erstellung von Werbekommunikaten. Bei all diesen Prozessen kommen häu-

fig Big-Data-Analysen und selbstlernende Algorithmen zum Einsatz.

▪ Für die automatische Generierung von Texten kommen SNLP- und NLG-Prozesse zum Einsatz.

Hierbei folgen Algorithmen den von Menschen definierten Vorgaben und übersetzen die Da-

tensätze in verständliche Prosa. Dazu werden zahlreiche Textbausteine und ggf. auch Drittda-

ten kombiniert, die dann z.B. mit aktuellen Sportergebnissen, Börsenkursen oder Wetterdaten

verknüpft werden zu neuen journalistischen Texten als Sport-, Börsen- oder Wetterbericht.

▪ Auch Videos werden bereits von vielen Onlinemedienanbietern in Deutschland automatisiert

produziert. Dazu wird zumeist ein journalistischer Text mit Hilfe von Big-Data-Analysen nach

spezifischen Stichwörtern durchsucht. Die Ergebnisse werden dann mit verschlagworteten Vi-

deodatenbanken (wie bspw. Getty Images oder AP) abgeglichen. Dort werden dann kontextu-

ell passende Bilder und Videoclips ausgesucht und automatisch ein Video zusammengeschnit-

ten, das auf verschiedenen Social-Media-Plattformen in unterschiedlichen Auflösungen auto-

matisch hochgeladen werden kann.

▪ Mit Hilfe von Algorithmen ist es ebenfalls möglich, Audioclips zu erstellen, die z.B. als Beglei-

tung für Nachrichtenstrecken oder Sportinformationen dienen. Auf Basis von Schlagwörtern,

die in einem Artikel vorkommen, können algorithmen-basierte Angebote eine Zusammenfas-

sung des Artikels erstellen und sie über SNLP-gestützte Prozesse zu einem Audiobeitrag syn-

thetisieren.

▪ Durch die Verwertung von großen Datenbanken mit populären Texten und Musiknotationen

können mit Hilfe von HMM-gestützten Algorithmen auch Muster in Kompositionen identifi-

ziert werden, die für das menschliche Ohr harmonisch klingen. Dadurch wird es Musikprodu-

zenten möglich, ästhetisch wohlklingende Harmonien und Melodien leichter zu erkennen, zu

testen und ebenfalls automatisch zu kreieren.

▪ Unter Zuhilfenahme von selbstlernenden Algorithmen wird es möglich, bei der Entwicklung

von 3D-Inhalten für z.B. Computerspiele geomorphologische, landformende Prozesse nachzu-

ahmen. Dazu müssen in den Entwicklerwerkzeugen nur einige grundsätzliche Eingaben durch

Menschen getätigt werden, um automatisiert weitläufige 3D-Spielwelten in Sekunden zu ge-

nerieren.

▪ Auch bei Spielen und interaktiven Filmen wird es durch Big-Data-Analysemethoden möglich,

auf Basis der von Nutzern getätigten Handlungen, ihrer Charakter-Präferenzen und ihrer Ent-

scheidungen ein automatisiertes dynamisches Storytelling zu realisieren.

▪ KI-gestützte Verfahren erlauben Publishern bereits die Extraktion relevanter Informationen aus

Medieninhalten. Zusammenfassungen von Texten und Audiospuren können mit Hilfe von

Schlagwörtern maschinell produziert werden, was einen grundlegenden Prozess für die auto-

matisierte Produktion verschiedener Medieninhalte darstellt. Derartige Analysen beziehen sich

auf Wörter und Phrasen, wobei auch semantische Verbindungen erkannt werden.

Page 14: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

11

▪ Die breiten Analysemöglichkeiten, KI-optimierte Wertschöpfungsketten und die Kostenvor-

teile der Automatisierung machen Big-Data-Anwendungen zu einem klaren Wettbewerbsvor-

teil für Medienunternehmen. Umgekehrt drohen Unternehmen, die Big-Data-Initiativen nicht

auf ihre Agenda setzen, mittelfristig erhebliche Wettbewerbsnachteile.

▪ Mit Hilfe von verteilten Dateimanagementsystemen lassen sich bei interdisziplinären journa-

listischen Abteilungen sehr große Datensets durch leistungsfähige Datenbanken innerhalb von

wenigen Stunden strukturieren, Ergebnisse organisieren und allen Teammitgliedern verfügbar

machen. Entscheidend wird für Onlinepublisher, dass solche technologie-gestützten Work-

flows ergebnisorientiert, dezentralisiert und auf Abruf organisiert werden können.

▪ Smart-Sales-Anbieter erweitern Vermarktungsprozesse für Verlage, indem sie durch Big-Data-

Analysen klar sagen können, wer als Individuum welches Produkt eines Medienunternehmens

erwirbt und zu welchem Zeitpunkt bzw. mit welcher Motivation.

▪ Durch das Zusammenspiel von KI und Sensordaten aus dem Internet of Things entstehen in-

telligente Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung und des Ver-

triebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten automatisie-

ren.

▪ Von der Entwicklung und dem Wachstum von Big-Data-Dienstleistern profitieren vor allem die

nachgelagerten Märkte des Daten- und Adresshandels sowie der Markt für Risikoinformatio-

nen, die mit dem Verkauf und der Vermietung von personenbezogenen Datensets Big-Data-

Initiativen im Onlinemedienmarkt erst ermöglichen.

Page 15: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

12

H A N D L U N G S E M P F E H L U N G E N

▪ Für die Politik kann ein hoher Grad an potentiellem Handlungsbedarf in Bezug auf Big-Data-

und KI-gestützte Algorithmen im Markt der Onlinemedien festgestellt werden. Zahlreiche In-

stitutionen sehen ein klares Defizit in der Regulierung von KI-basierten Anwendungen wie Per-

sonal Voice Assistants oder Chat- sowie Social-Bots. Dieser Handlungsbedarf liegt jedoch we-

niger im Bereich der Gesetzgebung oder Regulierung, sondern vielmehr im Diskurs zur Ent-

wicklung journalistischer Standards, Selbstkontrollen und Kennzeichnungsgeboten.

▪ Hier bietet es sich an, den Grad an Automatisierung von Medieninhalten in der Medienwirt-

schaft zu beobachten und sich z.B. für ein Kennzeichnungsgebot für automatisierte Artikel ein-

zusetzen. Um die Meinungsvielfalt zu wahren, könnten Maßnahmen zur Kennzeichnung von

autonomen Agenten durch öffentlich-rechtliche Onlinemedien oder durch die größten Infor-

mationsintermediäre in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter)

überprüft werden.

▪ Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur

Datenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschut-

zes angeregt werden. Durch ein Zertifikat könnte dem Endnutzer/Kunden signalisiert werden,

dass eine Plattform, die personenbezogene Daten speichert, die Vorgaben der europäischen

Datenschutz-Grundverordnung sowie die in Deutschland geltenden Datenschutzrichtlinien

über die gesamte Wertschöpfungskette hinweg einhält.

▪ Eine generelle Empfehlung an Unternehmen wäre: Da algorithmische Mechanismen aktuell

nicht hinreichend beschrieben und verstanden werden können und Unternehmen ihre Algo-

rithmen nicht publizieren, empfiehlt es sich für jedes datengetriebene Onlinemedienunterneh-

men, Strategien und Guidelines für den Umgang mit algorithmenbasierten oder KI-assistierten

Dienstleistungen zu entwickeln. Dazu zählen auch KI-Audits: Bei Einsatz von komplett automa-

tisierten, Big-Data-basierten Dienstleistungen sollten KI-Prozesse, Trainingsdatensätze und

Modelle durch ein KI-Audit kontinuierlich auf systematische Bias sowie technische Fehler über-

prüft werden.

▪ Eine konkrete rechtliche Möglichkeit bestünde darin, im Rahmen der Auslegung der europäi-

schen Datenschutzgrundverordnung bzw. auf Basis von nationalem Datenschutzgesetz/Tele-

mediengesetz die Einhaltung des Datenschutzes konkret auf sprachbasierte Assistenzsysteme

in sog. Smart-Devices zu übertragen. Dies könnte die verpflichtende Erneuerung der Einwilli-

gung zur Datenerhebung und zur Datenverarbeitung bei Verbindung eines weiteren Gerätes

(wie z.B. Personal Voice Assistants) mit bestehenden Nutzerkonten von Online-Diensten be-

deuten.

▪ Ein weiterer rechtlicher Aspekt ergibt sich aus dem Quasi-Oligopol der Anbieter von Personal

Voice Assistants, die Mediennutzer an eigene technologische und mediale Ökosysteme bin-

den. Da PVA-Plattformen zukünftig eine wichtige Rolle bei der Auswahl von Medieninhalten

spielen werden, wird es wichtig zu prüfen, ob die Plattformen ihr Angebot auf wenige große

Mediendienste einschränken oder die zusätzliche Implementierung von externen Diensten er-

schweren. Hier drohen etablierten Mediendienstanbietern Wettbewerbsnachteile. Im Zuge der

Plattformregulierung der Landesmedienanstalten könnten Probleme im Dialog geklärt werden,

bevor es zu wettbewerbsrechtlichen Auseinandersetzungen kommt.

Page 16: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

13

2 EINLEITUNG UND STRUKTUR DES GUTACHTENS

Big-Data-Technologien werden in vielen Branchen bereits als effektives Instrument zur Optimierung

von Geschäftsprozessen eingesetzt, wie beispielsweise in der Marktforschung oder Medizin. Unter

Big Data werden dabei unstrukturierte, große Datensets verstanden, sogenannte Massendaten, wel-

che mit speziellen Analysemethoden ausgewertet werden können. Populär wurde der Begriff aller-

dings vor allem durch den Markt der Onlinemedien, in welchem in den letzten Jahren ein stetig

wachsender Einfluss von Big Data beobachtet werden konnte. Die Integration neuer Technologien

und die automatisierte, algorithmenbasierte Auswertung großer Mengen von Nutzerdaten führt zu

tiefgreifenden Veränderungen bei der Interaktion von Medienanbietern und deren Nutzern.

Längst etabliert sind beispielsweise Personalisierungsprozesse bei der Einblendung von Werbung

und der Zusammenstellung inhaltlicher Angebote auf Plattformen wie Google, Facebook, Netflix

oder Amazon. Mit Hilfe von Predictive Analytics können Anbieter aus dem Verhalten von Nutzern

auf zukünftiges Konsumverhalten schließen, wobei in speziell eingerichteten Analyseabteilungen

stetig an der Zuverlässigkeit der Prognosen gearbeitet wird. So wird es zukünftig bspw. möglich

sein, zu erkennen, ab wann ein Rezipient kostenloser Inhalte bereit ist, für ein Angebot zu zahlen.

Aktuell erweist sich die Refinanzierung digitaler Angebote als prekär, da Finanzierungsstrategien

wie Abonnements oder Paywalls nur bedingt von Kunden angenommen werden. Durch die Kom-

bination von Big-Data-Analysemethoden mit neuen technischen Möglichkeiten wie etwa Block-

chain und digitale Zahlungssysteme werden neue, dynamische Zahlungsmodelle ermöglicht. So ist

es denkbar, dass Micropayments, mit denen einzelne Artikel, Videos oder andere Inhalte erworben

werden können, mit Hilfe von Big Data plötzlich rentabel werden.

Neben der voranschreitenden Personalisierung sind Sprachassistenten ein prominentes Beispiel für

die gewinnbringende Nutzung umfangreicher Datensets. Personal Voice Assistants von Konzernen

wie Apple, Google oder Microsoft, die spätestens seit der Geräteserie Amazon Echo mit dem

Sprachassistenzdienst Alexa massenmarkttauglich geworden sind, greifen auf Datenbanken mit

Nutzerinformationen und formalisiertem Wissen zu und verwenden Big-Data-Technologien, um die

richtigen Befehle auszuführen oder passende Antworten zu finden. Über Schnittstellen können auch

andere Geräte im Haus angesteuert werden, was bspw. das individuelle Mediennutzungsverhalten

beeinflussen könnte und zusätzlich dem Mikrofon als Gerätesteuerungselement wachsende Bedeu-

tung verleiht. Traditionelle Eingabegeräte wie Maus, Tastatur oder Touchpad werden im gleichen

Zug vermutlich an Relevanz verlieren. Weiter entstehen durch Voice Search auch im Marketing neue

Herausforderungen, da Suchergebnisse zunehmend bildschirmlos ausgegeben werden. Auch Ein-

kaufen und Bezahlen via Sprachsteuerung könnten sich als disruptive Innovationen verstärkt durch-

setzen.

Viele weitere Möglichkeiten, die sich durch Big Data und Künstliche Intelligenz ergeben, werden

den Onlinemedienmarkt in den nächsten Jahren stark beeinflussen. Denkbar ist etwa die teil- oder

vollautomatisierte Produktion und Analyse von Medieninhalten oder die vollständige Abwicklung

der Kundenkommunikation über Chatbot-Plattformen. Mit Hilfe Künstlicher Intelligenz und maschi-

nellem Lernen werden viele Prozesse innerhalb von Medienhäusern optimiert und ganze Wert-

schöpfungsketten nachhaltig transformiert. Auch die massenhafte Gewinnung von personenbezo-

genen Daten und Sensordaten aus dem Internet of Things trägt ihren Teil dazu bei. Von einem

medienökonomischen Standpunkt betrachtet, werden Daten zu einer Schlüsselressource und Big-

Page 17: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

14

Data-Initiativen zu einer Schlüsselaktivität, die Onlinemedien auf lange Sicht in ihre Unternehmens-

struktur eingliedern müssen, um wettbewerbsfähig zu bleiben. Diese Veränderungen haben auch

tiefgehende Implikationen für die Politik, denn der Einsatz von autonomen Agenten in der Medi-

enwirtschaft darf vor dem Hintergrund von Wahlkampfmanipulationen, potentiellen Verzerrungen

der öffentlichen Meinungsbildung sowie Oligopol-artigen Marktstrukturen nicht unbeachtet blei-

ben.

Im Rahmen des vorliegenden Gutachtens wird ein systematischer Überblick erarbeitet, der aufzeigt,

inwiefern der Einsatz von Big-Data-Technologien die Marktstrukturen der deutschen Onlinemedien

beeinflusst. Aus ökonomischer Perspektive heraus werden dabei durch Big Data hervorgerufene

Veränderungen im Wettbewerbs- und Kundenbereich sowie im öffentlichen Diskurs beleuchtet.

Übergreifend spielen dabei auch Datenqualität und -vermarktung eine wesentliche Rolle.

In einem ersten Schritt sollen in Kapitel 3 zunächst die technologischen Grundlagen abgesteckt

werden, die das Arbeiten mit großen Datensets überhaupt erst ermöglichen. Dazu wird das funda-

mentale Konzept der Künstlichen Intelligenz betrachtet und menschliches Handeln dem computer-

basierten gegenübergestellt. Anschließend erfolgt eine Abgrenzung des vielschichtigen Begriffs Big

Data, welcher in verschiedenen wissenschaftlichen Disziplinen und Anwendungsfeldern unter-

schiedlich definiert wird. Darüber hinaus werden weitere zentrale Technologien und Methodiken

der datengestützten Analysen vorgestellt, wozu unter anderem Neuronale Netze, Deep Learning

und die computerbasierte Verarbeitung natürlicher Sprache gehören.

Im sich anschließenden Kapitel 4 werden die wichtigsten Big-Data-Anwendungen im Business-to-

Consumer (B2C) Segment analysiert. Tiefgreifende Veränderungen werden aktuell vor allem durch

Sprachassistenten, Chatbots sowie die Nutzung von Algorithmen zur Optimierung von Empfehlun-

gen auf Medienplattformen hervorgerufen. Dementsprechend werden diese Technologien detail-

liert untersucht und verschiedene Anwendungsbereiche veranschaulicht. Anschließend wird einer

Abschätzung der Potentiale der einzelnen Anwendungen auf dem Onlinemedienmarkt eine Analyse

der Nutzerakzeptanz gegenübergestellt. Dabei werden verschiedene Ebenen betrachtet und sowohl

Meinungen auf Seiten des Mediennutzers als auch umfassendere gesellschaftliche Debatten einbe-

zogen. In einem Ausblick folgt eine Bewertung der Nachhaltigkeit der jeweiligen Entwicklung.

In Kapitel 5 stehen die deutschen Medienunternehmen im Fokus. Die Implementierung von Big-

Data-Initiativen führte bereits in den letzten Jahren zu Transformationen im Business-to-Business

(B2B) Markt und auch zukünftig können technologiebedingte Neuordnungen in verschiedenen Ge-

schäftsbereichen erwartet werden. Dabei spielt insbesondere die Prozessautomatisierung eine

große Rolle, da die Integration der teil- bzw. vollautomatisierten Produktion von Medieninhalten

große Wettbewerbsvorteile schaffen kann. Inwiefern die maschinelle Herstellung verschiedener In-

halte wie Texte, Videos, Audiospuren oder auch Onlinespiele den Markt bereits beeinflusst hat und

welche Potentiale die Technologien weiterhin bieten, wird daher detailliert betrachtet. Im darauf-

folgenden Schritt werden weitere innerbetriebliche Tätigkeiten der Medienunternehmen unter-

sucht, die durch Big-Data-Technologien unterstützt oder modifiziert werden. Es kann davon ausge-

gangen werden, dass Big Data insbesondere bei Kundenakquise und Vertrieb einen Wandel her-

beiführen wird, weswegen sich diesen Bereichen daraufhin separat gewidmet wird.

Bei den Betrachtungen und Analysen des B2C- und B2B-Marktes werden bereits vielfach konkrete

Big-Data-Anwendungen herangezogen, um deren Potentiale und Risiken praxisnah zu veranschau-

lichen. In dem sich anschließenden Kapitel 6 werden weitere Case Studies erläutert, die Big Data im

Onlinemedienmarkt verorten und dessen Bedeutung verdeutlichen.

Page 18: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

15

Auf die Analysen und Fallstudien aufbauend, werden in Kapitel 7 Handlungsempfehlungen für die

Politik entwickelt, wobei sich diese sowohl generell mit publizistischer Vielfalt und Meinungsvielfalt

auseinandersetzen als auch auf die Regulierung von Datensouveränität und der Nutzung Künstli-

cher Intelligenz sowie Algorithmen abzielen. Abschließend erfolgt eine Zusammenfassung, wobei

auch ein Ausblick darüber gegeben wird, inwiefern die fortschreitende Entwicklung und Implemen-

tierung von Big Data den Markt der Onlinemedien mittelfristig beeinflussen könnte.

Page 19: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

16

3 TECHNOLOGISCHE GRUNDLAGEN VON BIG

DATA: KÜNSTLICHE INTELLIGENZ UND

NEURONALE NETZWERKE

Seit der Markteinführung von dezentralen Datenbankarchitekturen wie MapReduce oder Apache

Hadoop in den frühen 2000er Jahren hat sich der Begriff "Big Data“ nicht nur in der Wissenschaft,

sondern auch in der Wirtschaft fest etabliert1. Big-Data-gestützte Abfragen und Analysen erfüllen

viele komplexe Aufgaben, die mit der Verarbeitung von unstrukturierten (bzw. schwer zu verarbei-

tenden) Datensets und der Automatisierung von Prozessen zusammenhängen (vgl. Kap. 3.5). Durch

die kontinuierliche Fortentwicklung computerbasierter Technologien wie z.B. Künstlicher Neurona-

ler Netzwerke (vgl. Kap. 3.3) und des maschinellen Lernens (etwa durch die Deep-Learning-Lernan-

ordnung vgl. ebd.) können mit Hilfe algorithmischer Prozesse enorme Datenmengen in Echtzeit

verarbeitet werden2.

Diese neue analytische Performanz ist nicht nur nützlich, sondern auch notwendig, da die verfüg-

baren Datenmengen jedes Jahr eine fast logarithmisch-wachsende Wachstumskurve erzeugen. Be-

reits im Jahr 2013 wurden weltweit insgesamt zwei Zettabyte an Daten erzeugt. 2012 existierte erst

ein Zehntel dieser Datenmenge3. Bis 2025 erwarten Marktforscher, dass der Umfang auf 180 Zetta-

byte ansteigen wird4. Hinzu kommt, dass der größte Anteil dieser Daten (IBM-Schätzung in 2016:

rd. 80 Prozent5) unstrukturiert bleibt und mit klassischen relationalen Datenbankmodellen kaum zu

verarbeiten ist. Deswegen basieren Abläufe in Branchen, die hauptsächlich mit unstrukturierten Da-

ten arbeiten – z.B. Finanzindustrie, Mikrobiologie oder E-Commerce (vgl. Kap. 4.3) –, bereits aus-

schließlich auf Big-Data-gestützten Infrastrukturen wie verteilten Dateisystemen und skalierbaren

Server-Clustern.

Von der starken Skalierung der analytischen Rechenleistung profitieren auch neue Marktakteure.

Der Einsatz von Big Data im Zusammenspiel mit einem sprunghaften Anstieg der analytischen Per-

formanz durch neue Datenbankarchitekturen eröffnet auch gänzlich neue Einsatzgebiete für Künst-

liche Intelligenz. So können etwa autonom fahrende PKWs durch Erkennungsalgorithmen alltags-

tauglich gemacht werden und ohne menschlichen Einfluss auf der Straße fahren. Dabei können

sogar bestimmte Teilaspekte des audiovisuellen Dateninputs wie z.B. Straßenverkehrsschilder, das

Verhalten anderer Verkehrsteilnehmer und der Straßenverlauf erkannt werden. Mit anderen An-

wendungen lassen sich auch bspw. die Anordnungen von Falten auf Kleidung, Tiere (vgl. dazu Abb.

1) oder Schrift auf Oberflächen sowie bestimmte Tonfrequenzen erfassen (vgl. Kap. 3.7)6.

Hinter den zunächst simpel klingenden Funktionen des Big-Data-basierten „Erkennens“, „Analysie‐

rens“ und „Auswertens“ von audiovisuellem Input verbirgt sich jedoch ein transdisziplinäres Pasti-

che aus dutzenden technologischen Prozessen, welche, je nach Forschungsstand und Konfiguration,

1 Bollier & Firestone (2010), S. 1ff. 2 Mayer-Schönberger & Mayer-Schönberger (2013), S. 8 3 Vgl. Jüngling, T. (2013a) 4 Vgl. Press, G. (2016) 5 Vgl. Schneider, C. (2016) 6 Zeiler, M.D./ Fergus, R. (2013), S. 3

Page 20: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

17

die gewünschten Ergebnisse von Analysen mit einer für die Privatwirtschaft zufriedenstellenden

Konsistenz wiedergeben.

Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input

Quelle: Deepvis Toolkit Implementation nach: Yosinski et al. (2015)

Aufgrund der Breite von Anwendungsgebieten und der zahlreichen wissenschaftlichen Disziplinen,

die sich mit dem Gegenstand von Big Data auseinandersetzen, werden in den nächsten Kapiteln

der Gegenstand des von Werbe-Kommunikation geprägten Begriffs von Big Data erläutert und die

zentralen Technologien hinter daten-gestützten Analysen vorgestellt.

3.1 DEFINIT ION KÜNSTL ICHE INTELL IGE NZ

Als Grundlage von Big-Data-basierten Anwendungen dient das Prinzip der Künstlichen Intelligenz

(ferner: KI) bei dem es darum geht, den menschlichen Verstand virtuell nachzubauen. Konkreter

handelt es sich dabei um die Idealvorstellung von Computer-basierten, autonomen Agenten, die

ihre Umgebung in Form von Daten wahrnehmen, in Form von Algorithmen selbstständig Muster

erkennen und darauf basierend handeln können7.

Ein Schwerpunkt bei der Entwicklung von KI liegt daher auf der Nachahmung von Methoden und

Verfahren, die bisher nur das menschliche Gehirn bewerkstelligen konnte oder in denen Menschen

den Computern überlegen sind. Mit dieser Thematik beschäftigen sich zahlreiche wissenschaftliche

Disziplinen wie bspw. die Informatik, die Neurowissenschaft oder auch die Kognitionswissenschaft.

Bei der Analyse menschlichen Denkens und Handelns, dessen Vereinfachung durch Modelle und

schließlich der Nachahmung sollen neben dem wissenschaftlichen Erkenntnisgewinn meist auch

andere Lösungen generiert werden: Durch Prozess-Automatisierung steht immer auch die damit

einhergehende Erleichterung des Alltags für Privatpersonen und Wirtschaftsakteure im Vorder-

grund.

7 Russell & Norvig (2010), S. 1f.

Page 21: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

18

Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken

Quelle: Vgl. SciKit-learn Developers (2017)

Durch die artifizielle Modellierung von sprachlichen und kognitiven Prozessen soll künstlichen In-

telligenzen die Wahrnehmung und Verarbeitung bestimmter Umgebungen (in Form von Daten o-

der Textkorpora) ermöglicht werden. Entsprechend der Definition von Russel und Norvig8 kann das

Ziel von KI entsprechend der zwei Dimensionen "menschliches Verhalten gegenüber rationalem

Verhalten" und "Denken gegenüber Handeln" in vier Klassen von Ansätzen unterteilt werden:

menschliches Denken, rationales Denken, menschliches Handeln und rationales Handeln.

Während "menschlich" bedeutet, dass das Ziel einer KI ist, den Menschen nachzuahmen, signalisiert

"rational" ein zielorientiertes Vorgehen, bei dem KI effizient bestimmte Werte identifiziert (z.B. bei

einer Kostenoptimierung o.ä.). Für marktrelevante Anwendungsszenarien sind natürlich die „ratio‐

nalen“ KI-Kategorisierungen besonders entscheidend.

In der Praxis soll dieses Modell dazu beitragen, bestimmte Probleme zu lösen. Konkret soll KI bei

der Klassifikation, der Regression, der Gruppierung und der Reduktion von Komplexität Abhilfe

schaffen (vgl. Abb. 2). Hierbei meint Klassifikation die Identifikation und Zuordnung von Datenmen-

gen in bestimmte Kategorien; Regression bedeutet die Bestimmung und Prognose fortlaufender

Werte in Abhängigkeit von anderen Werten; durch Gruppierung kann eine Menge an Objekten oder

Daten in disjunkte Sets aufgeteilt werden; mit Hilfe von Reduktion kann eine Reihe an zufälligen

Variablen reduziert werden, um Komplexität bei großen Datenmengen zu minimieren.

3.2 TAXON OMIE VON B IG DA TA

Angesichts der unterschiedlichen Zielvorgaben, die Big-Data-Analysen vorliegen, und der involvier-

ten Wissenschaftszweige, Konzepte sowie Methoden existieren in der wissenschaftlichen Literatur

zahlreiche Big-Data-Begriffsdefinitionen. Wie De Mauro et al. (2015) es in ihrer Übersicht aufzeigen,

8 Russell & Norvig (2010), S. 49ff.

Page 22: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

19

orientieren sich diese meistens an konkreten Forschungsfragen oder am Rahmen der jeweiligen

wissenschaftlichen Disziplin. Wenige der in Tabelle 1 vorliegenden Auslegungen versuchen, den

Gegenstand von Big Data vollständig und überschneidungsfrei zu beschreiben.

Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen

DEFINITIONEN BEZÜGE

INFOR-

MATION

TECHNO-

LOGIE

ME-

THODE

RELE-

VANZ

Beyer/Laney: "High volume, velocity and variety information assets

that demand cost-effective, innovative forms of information pro-

cessing for enhanced insight and decision making."

X X X

Dijcks : "The four characteristics defining big data are Volume, Veloc-

ity, Variety and Value." X X

Intel Corp.: "Complex, unstructured, or large amounts of data." X

Suthaharan: "Can be defined using three data characteristics: Cardi-

nality, Continuity and Complexity." X

Schroeck/Shockley/Smart/Romero-Morales/Tufano: "Big data is a

combination of Volume, Variety, Velocity and Veracity that creates

an opportunity for organizations to gain competitive advantage in

today’s digitized marketplace."

X X

NIST Big Data Public Working Group: "Extensive datasets, primarily

in the characteristics of volume, velocity and/or variety, that require

a scalable architecture for efficient storage, manipulation, and analy-

sis."

X X

Ward/Barker: "The storage and analysis of large and or complex data

sets using a series of techniques including, but not limited to:

NoSQL, MapReduce and machine learning."

X X X

Microsoft News Center: "The process of applying serious computing

power, the latest in machine learning and artificial intelligence, to se-

riously massive and often highly complex sets of information."

X X X

Dumbill: "Data that exceeds the processing capacity of conventional

database systems." X X

Fisher/DeLine/Czerwinski/Drucker: "Data that cannot be handled and

processed in a straightforward manner." X X

Shneiderman: "A dataset that is too big to fit on a screen." X

Manyika/Brown/Bughin/Dobbs/Roxburgh/Byers: "Datasets whose

size is beyond the ability of typical database software tools to cap-

ture, store, manage, and analyze."

X X X

Chen/Chiang/Storey: "The data sets and analytical techniques in ap-

plications that are so large and complex that they require advanced

and unique data storage, management, analysis, and visualization

technologies."

X X X

Page 23: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

20

DEFINITIONEN BEZÜGE

INFOR-

MATION

TECHNO-

LOGIE

ME-

THODE

RELE-

VANZ

Boyd/Crawford: "A cultural, technological, and scholarly phenome-

non that rests on the interplay of Technology, Analysis and Mythol-

ogy."

X X X

Mayer-Schönberger/Cukier: "Phenomenon that brings three key

shifts in the way we analyze information that transform how we un-

derstand and organize society: 1. More data, 2. Messier (incomplete)

data, 3. Correlation overtakes causality."

X X X

Quelle: De Mauro et al. (2015), S. 102

Als Big Data können demnach Datensets definiert werden, die entweder "Zu groß sind, um auf einen

Bildschirm zu passen" oder auch "In Bezug auf Volumen, Geschwindigkeit und/oder Vielfalt, eine

skalierbare Architektur für effiziente Speicherung, Manipulation und Analyse erfordern" (vgl. alle

Zitate mit Tab. 1). Die Spannweite dieser Definitionen verdeutlicht die Komplexität der Thematik.

Nichtsdestotrotz ist es möglich, auf Basis der existierenden Definitionen die Taxonomie des Big-

Data-Gegenstands zu bestimmen. Zwischen ideologischen, technologischen und mengenbasierten

Definitionen kann nämlich in Anlehnung an die relativ disjunkte Definition von Ward/Barker eine

Herangehensweise formuliert werden, die Big Data in dem Spannungsfeld von kontextuellen Bezü-

gen verortet. Diese Bezüge setzen sich wie folgt zusammen:

1. Beschaffenheit von Daten (Art, Hierarchie und Umfang eines Datensets)

2. Grad an struktureller Komplexität und Integrität

3. Eingesetzte Technologien

4. Kreation von ökonomischem Mehrwert

1.) Das erste definitorische Kriterium beschreibt die Beschaffenheit von Daten. Diese Kategorie er-

scheint damit als passender Indikator im Rahmen einer wissenschaftlichen Betrachtung, da alle a

priori definierten Eigenschaften von Daten qualifizierbar sind. Sowohl die Länge eines Datensets,

als auch seine möglichen Metatags oder Strukturmerkmale leisten im Kontext zu anderen vergleich-

baren Daten mit anderen Attributen die nötige erste Identifikationsarbeit. So können bei einem

quantitativen Vergleich der Eigenschaften eines Petabyte-großen unstrukturierten Datensets und

einer relationalen Datenbank beide Datensätze auf ihre Qualifikation als Big Data getestet werden9.

9 Ein konkreterer Wert zu dem zu verarbeitenden Datenvolumen, der darüber entscheidet, ob die vorliegen-

den Daten als Big Data klassifiziert werden können oder nicht, kann a priori nicht bestimmt werden. Auf-

grund der jährlich steigenden Reichenleistung von Computerprozessoren und den parallel dazu steigenden

Bandbreiten sowie stetig besser werdenden Kompressionsalgorithmen kann eine Datenmenge X, die zu

einem Zeitpunkt auf einem industriellen Niveau nicht schnell verarbeitet werden kann, bereits im nächsten

Jahr in einem Bruchteil der Zeit von einem privaten Computer verrechnet werden. Als groben Anhaltspunkt

lässt sich z.B. eine B2B-Umfrage des Marktforschungsinstituts IDC aus dem Jahr 2012 heranziehen. Dem-

nach galt für 17 Prozent der befragten IT-Entscheider ein Datenvolumen ab 10 bis 50 Terabyte, für 31

Prozent ein Volumen ab 50 bis 100 Terabyte, für 33 Prozent ein Volumen von 100 bis 1.000 Terabyte und

für 13 Prozent ein Volumen von 1.000 Terabyte und mehr als Big Data. Vgl. IDC (2012)

Page 24: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

21

2.) Um den Gegenstand von Big Data weiter zu qualifizieren, sollte im zweiten Schritt die strukturelle

Komplexität der Daten und ihres Einsatzkontextes als Bezug herangezogen werden. Die Kompo-

nente "Big" in Big Data beschreibt nicht nur die a priori definierte Kondition der Daten, sondern

zugleich den Grad an Komplexität, welcher sehr umfangreichen Datenmengen innewohnt. Darüber

hinaus spielt es auch eine Rolle, ob Daten systematisch erhoben werden oder ob sie das Ergebnis

einer willkürlichen, unstrukturierten Aggregation sind. Eine zentrale Aufgabe von Big-Data-Analy-

sen ist die Strukturierung von unstrukturierten Datensets. Dabei kann die Komponente der Kom-

plexität wichtiger sein als die erste Komponente der Beschaffenheit. Ein Datensatz kann zwar einen

geringen Umfang haben, aber gleichzeitig auch einen sehr hohen Grad an Komplexität in Form von

unstrukturierten Attributen aufweisen, was eine Big-Data-Analyse notwendig macht.

3.) Besonders die Kategorie der eingesetzten Technologien schafft eine deutliche Abgrenzung zu

anderen Datenverarbeitungsmethoden: Sowohl Oracle als auch Microsoft haben in ihren offiziellen

Stellungnamen den Begriff Big Data durch die Abhängigkeit des Einsatzes bestimmter Technolo-

gien definiert. Demnach bedarf es zu der Abgrenzung von Big Data zur bisherigen Norm der Da-

tenanalyse des Einsatzes von stark skalierbaren, verteilten Datenbank-Infrastrukturen wie Hadoop,

MongoDB oder Cassandra sowie einer Auswahl von Analyseinstrumenten wie den R-Analyse Pro-

grammpaketen, HIVE, PIG oder visuellen Analysepaketen.

4.) Final bietet es sich ebenfalls an, den ökonomischen Mehrwert einer Big-Data-Analyse als Defi-

nitionskriterium heranzuziehen, da die notwendigen Ressourcen für diese Art von massenhafter

Auswertung von Daten immer eine monetäre Investition voraussetzen. Der Aufbau von IT-Infra-

struktur, aktivem Serverbetrieb, Datenspeicherungsmöglichkeiten und der Erwerb von Lizenzen für

Analysewerkzeuge sind stets mit Kosten verbunden. Natürlich sind Ausnahmen denkbar wie etwa

bei Big-Data-Analysen im Rahmen von Non-Profit-Untersuchungen oder gemeinnütziger For-

schung. Nichtsdestotrotz erübrigen sich diese Kosten nicht und müssen in diesen Fällen subventi-

oniert werden. Im Kontrast dazu stehen Analyseverfahren und Methoden, die einen weitaus gerin-

geren Ressourceneinsatz benötigen.

Fazit: Vor diesem Hintergrund kann der Gegenstand von Big Data als Umgang mit Datensets be-

zeichnet werden, die ein sehr hohes Volumen aufweisen, in ihrer Beschaffenheit unstrukturiert oder

anderweitig komplex sind, den Einsatz von flexiblen Datenbankmanagement-Systemen erfordern

und eine Kapitalinvestition rechtfertigen.

3.3 NEURONALE NETZE ALS ZENTRALE METHODIK VO N

KÜNSTL ICHER INTELL IG ENZ

Als Künstliche Neuronale Netze (KNN) werden in der Neuroinformatik Modelle bezeichnet, welche

die Topologie von biologischen Neuronen entsprechend einer Zielvorgabe nachbilden, durch Rück-

kopplungen kontinuierlich lernen und große Informationsmengen automatisiert strukturieren10. Die

Anwendungsgebiete von KNN reichen dabei von der Erkennung von Mustern in unstrukturierten

Datensets bis zur Erstellung von Wachstumsprognosen von Mikroorganismen11. Im Markt für Onli-

nemedien werden KNN häufig für Analysen im Rahmen von Sprach- und Texterkennung sowie als

Grundlage für Empfehlungsalgorithmen verwendet (vgl. Kap. 4.1 und Kap. 4.3).

10 Bishop (2006), S. 225ff. 11 Najjar et al. (1997), S. 27

Page 25: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

22

Strukturell betrachtet, stellen KNN eine Ansammlung aus dicht untereinander vernetzten Elementen

dar, die im Stande sind, parallel zueinander kontinuierlich Daten zu verarbeiten12. Diese vernetzten

Elemente bilden den Kern von KNN und sind modellhaft an menschliche Neuronen-Zellen ange-

lehnt. Die besondere Eigenschaft, die ein KNN auszeichnet, ist, dass der Dateninput extern einge-

speist und auch aus einem anderen Neuron innerhalb desselben KNN stammen kann. Damit lässt

sich unter anderem ein Rückkopplungs-Effekt realisieren, durch den der rekurrente Datenfluss die

einzelnen Neuronen kontinuierlich anpasst bzw. trainiert, bis eine Zielausgabe möglichst präzise

approximiert werden kann13. Diese methodische Eigenschaft sorgt dafür, dass KNN über Trainings-

daten trainiert werden und dadurch aktiv lernen können - ein Vorgang, der den Erfolg von den

heute im Medienmarkt eingesetzten Innovationen überhaupt erst ermöglicht.

Als Beispiel für die Funktionalität eines Künstlichen Neuronalen Netzwerkes kann hier der Vorgang

der automatisierten Texterkennung einer Smartphone-Tastatur angeführt werden14. Als Dateninput

fungieren hierbei von einem Nutzer handgeschriebene Buchstaben auf dem Smartphone-Display.

Die Zielvorgabe für einen KNN-gestützten Erkennungsalgorithmus lautet, aus einer Vielzahl von

höchst unterschiedlich geschriebenen Buchstabensymbolen die Eingabe des Nutzers als mind. eine

von 26 oder mehr Buchstaben des jeweiligen Alphabets zu identifizieren und dem intendierten

Buchstaben möglichst akkurat zuzuordnen.

In einem ersten Schritt wird jede Nutzereingabe in ein Raster von Pixeln runtergebrochen und je-

dem Pixel ein Wert zugewiesen. Das Pixelraster und somit der geschriebene Buchstabe werden in

dem nächsten Schritt in kleinere Teilbereiche aufgespalten, für deren Analyse jeweils ein anderes

Neuron zuständig ist. Durch die parallele Bearbeitung der einzelnen Teilbereiche durch mehrere

Neuronen, kann der Algorithmus den Analysevorgang nämlich schneller durchführen. Die Summe

der Werte der einzelnen Teilbereiche eines Rasters wird nachfolgend mit einer Datenbank von Sum-

menwerten abgeglichen, die sich aus den Buchstaben des Alphabets speisen. Stimmt ein Wert mit

dem Wert aus der Datenbank überein, wirkt er aktivierend. Somit kann ein Neuron durch den Ver-

gleich der jeweiligen Werte bestimmte Muster eines Buchstabens als korrekt identifizieren. Zum

Schluss werden die einzeln erkannten Bestandteile des Pixelrasters zu einem einzelnen Symbol zu-

sammengesetzt und mithilfe des Summenwerts aller einzelnen Pixel ein konkreter Buchstabe aus

der Buchstabendatenbank approximiert15.

Dabei kann es natürlich vorkommen, dass durch eine besondere Schreibweise der Buchstabe nicht

korrekt erkannt wird und der Nutzer den resultierenden Output korrigiert. Dadurch wird eine Rück-

kopplungsschleife durch alle KNN erzeugt, welche die jeweiligen Aktivierungsschwellen entspre-

chend an die eingegebenen Werte des jeweiligen Nutzers anpasst. Damit findet ein Lernvorgang

statt, bei dem die aktivierenden Neuronen sich die Korrekturen merken und bei einer weiteren Ein-

gabe eher auf die angepassten Werte zurückgreifen, anstatt auf die standardisierten Ursprungs-

werte. Damit bringt ein Smartphone-Nutzer dem Erkennungsalgorithmus die Erkennungsroutine

für seine persönliche Handschrift bei.

12 Basheer & Hajmeer (2000), S. 3f. 13 Hecht-Nielsen (1988), S. 445ff. 14 Bishop, C. M. (1995), S. 1-9 15 Jaderberg, M. et al. (2014), S. 3f.

Page 26: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

23

Zusammengeführt in Lernanordnungen und systematisiert in einem algorithmischen Modell, lassen

sich also durch KNN Analyseprozesse vereinfachen, indem zuvor unstrukturierte Datenmengen sys-

tematisiert und strukturiert werden16. Um diese Funktionalität für Problemlösungs-Szenarien in der

Wirtschaft zu optimieren (wie z.B. bei der Vorhersage von Kundenverhalten im Marketing), benöti-

gen manche Lernanordnungen von KNN wie etwa das im nachfolgenden Unterkapitel beschriebene

Deep Learning bis zu 100.000 Trainingsdaten-Beispiele17, obgleich auch kleinere Mengen im Be-

reich von 1.000 Trainingsbeispielen für leichtere Klassifikationsaufgaben ausreichen können18.

3.4 DEEP LEARNING UND WEITERE KNN -TOPOLOGIEN

Als Topologie eines künstlichen Neuronalen Netzes wird die Struktur bzw. die Anordnung der ein-

zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet (vgl. Abb. 3 und Abb. 4).

Da ein KNN aus mehreren hundert netzwerkartig verbundenen Neuronen bestehen kann, ist es

notwendig, das Geflecht an Neuronen in Schichten zu ordnen und die Attribute der Verbindungen

festzulegen.

Unter allen möglichen Lernanordnungen existieren vor allem zwei zentrale Klassifikationen von

Strukturen. Die sogenannten "Feedforward Netze" verarbeiten die eingespeisten Informationen nur

in eine Richtung gerichtet. Diese Art von Netzen kann eine oder mehrere Schichten von Neuronen

besitzen. "Rekurrente Netze" besitzen dagegen die Eigenschaft, den eingespeisten Informationsin-

put auch rückgerichtet verarbeiten zu können oder ihn gleich in den namensgebenden rekurrenten

Schleifen zu gewichten. In der Praxis kommen dabei oft mehrere Schichten an Neuronen zum Ein-

satz, da für eine Feedback-Schleife eine minimale Zeitverzögerung notwendig ist und diese erst

durch mehrere Schichten möglich wird. Die zwischengeschalteten Neuronen-Schichten werden als

Hidden-Layer bzw. als "Verborgene Schichten" bezeichnet (vgl. Abb. 3). Sie erhalten den Input der

Eingabe-Neuronen-Schicht, extrahieren daraus entsprechend ihrer Gewichtung Daten mit den re-

levanten Attributen und leiten diese an die Ausgabe-Neuronen-Schicht weiter. In der Praxis lassen

sich mithilfe solcher Deep Learning-gestützten Analysemodelle z.B. Muster inmitten von Datensets

zu Kundenverhalten identifizieren. Damit kann ein KNN-Model trainiert werden Kaufabsichten am

Beispiel der vorher recherchierten Artikel auf einer Website zu erkennen. Durch massenhafte Aus-

wertung von Tausenden solcher Vorgänge lassen sich aus Datensets zu Online-Kundenverhalten

Wahrscheinlichkeiten ableiten, mit der Nutzer auf Basis ihrer Interessen ähnliche Produkte in naher

Zukunft werden kaufen wollen.

16 Hastie et al. (2009), S. 9-41 17 Vgl. Frank (2017) 18 Halevy et al. (2009), S. 9ff.

Page 27: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

24

Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow Bibliothek

Quelle: Vgl. TensorFlow (2018)

Als eine der bekanntesten Lernanordnungen gilt das Deep-Learning-Verfahren, bei dem viele ver-

borgene Zwischenschichten systematisch und rekurrent angeordnet werden. Über jede neue

Schicht werden die Informationen aus der Eingabeschicht systematisch verarbeitet, immer besser

systematisiert und an die jeweils nächste Schicht weitergegeben19.

Konkret nimmt jede Schicht eine einfache Gewichtung vor und reduziert damit graduell die Kom-

plexität für die nächste Schicht (vgl. Punkt 1 in Abb. 4). In Summe bildet sich durch dieses Lernver-

fahren mit jeder Schicht eine immer besser zu verstehende Struktur aus, die final eine vereinfachte

Klassifizierung und Analyse von hochkomplexen Datensets erlaubt. Nachdem die Informationen

einmal in der Ausgabeschicht angekommen sind, werden die Daten durch eine Rückkopplung rück-

wärts durch die gesamte KNN-Struktur gesendet (vgl. dazu Punkt 2 in Abb. 4). Mit jeder neuen

Rückkopplung werden die Gewichte der Neuronen erneut präziser gewichtet, bis der Trainingsda-

tensatz kaum Datenverluste produziert und somit die eingehenden Informationen möglichst genau

sortiert werden können, um das zu approximierende Problem zu lösen. Durch diesen Prozess zeigt

sich das adaptive Potential der Deep-Learning-Lernanordnung, das verstärkt im Rahmen von ma-

schinellem Lernen Anwendung findet.

Mithilfe von maschinellem Lernen und vor allem auf Basis der Deep-Learning-Anordnung können

schon heute viele selbstlernende Anwendungen realisiert werden, um komplexe Vorgänge schneller

zu analysieren und für Anwender repetitive Prozesse zu automatisieren. Beispielsweise konnte

Googles Künstliche Intelligenz AlphaGo Zero innerhalb von drei Tagen alle Regeln des sehr kom-

plexen Brettspiels Go lernen und nur durch dieses Grundwissen und ohne weitere Erfahrung die

besten professionellen menschlichen Go-Spieler besiegen20.

19 Vgl. Goodfellow et al., S. 164-175 20 Vgl. Cellan-Jones (2017)

Page 28: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

25

Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife

Quelle: Goldmedia Analyse (2018) nach: LeCun et al. (2015), S. 437

Mit Hilfe von Deep Learning ist es des Weiteren Wissenschaftlern gelungen, in Echtzeit das Wetter

und die Jahreszeit in Videos zu manipulieren, einer KI beizubringen, eine eigene KI zu programmie-

ren, einer KI beizubringen, eigenständig Computerspiele perfekt spielen zu lernen, oder etwa Fahr-

zeugen das autonome Fahren zu ermöglichen.

Darüber hinaus existieren mehrere andere Lernparadigmen, wie z.B. das der "General Adversarial

Networks" (auf Deutsch: antagonistisch-kompetitive Netzwerke), die andere Strukturen von Infor-

mationsverarbeitung und damit weitere Daten-Optimierungsvorgänge ermöglichen. Unter einer

solchen Anordnung werden z.B. mindestens zwei KNN verstanden, die in ihrer Funktionsweise bei

der Verarbeitung von Daten im Rahmen eines Nullsummenspiels gegeneinander arbeiten21. Das

erste KNN soll dabei als Zielvorgabe alle als "schlecht“ definierten Ergebnisse vermeiden. Die Auf‐

gabe des zweiten KNN besteht darin, das erste KNN dazu zu bringen, schlechte Antworten zu ge-

nerieren22. Damit werden sukzessive die Trainingsergebnisse des ersten KNNs verbessert und die

Ergebnisse präziser.

Ein weiteres prominentes Beispiel stellt das "Reinforcement Learning" dar (oder auf Deutsch: be-

stärkendes Lernen). Damit wird eine KNN-gestützte Methode bezeichnet, bei der ein Algorithmus

durch Belohnungen konditioniert wird, eine möglichst optimale Lösung (Nutzenfunktion) zu errei-

chen. Die Belohnungen können dabei negativer oder positiver Natur sein, sodass der Algorithmus

21 Radford et al. (2015), S. 1f. 22 Goodfellow et al. (2016), S. 327-339

Page 29: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

26

in Abhängigkeit von der Vorgabe approximieren kann, welchen Wert er maximieren oder minimie-

ren muss23.

Zusammenfassend lässt sich feststellen, dass KNN und Lernanordnungen wie Deep Learning integ-

rale Bestandteile von Big-Data-Prozessen geworden sind und auch die Grundlage für Künstliche

Intelligenzen bilden. Mit Hilfe der Automatisierung, Geschwindigkeit und der Menge an Daten, die

autonom verarbeitet werden kann, sorgen diese Technologien bereits dafür, dass sich Anwendun-

gen zur Text-, Bild-, und Spracherkennung global etablieren konnten.

3.5 RELATIONALE DATENBAN KEN UND VERTEILTE

DATEISYSTEME

Eine weitere zentrale Rolle spielen Datenbanken bei der Betrachtung und der Definition des Ge-

genstandes von Big Data. Wenn KNN als das metaphorische Gehirn der Künstlichen Intelligenz an-

gesehen werden können, so stellen Datenbanken und verteilte Dateisysteme das Herz- und das

Kreislaufsystem dar. Nach der Entwicklung von hierarchischen24 und netzwerkbasierten Datenbank-

typen25 in den 1960 Jahren26, gelten relationale Datenbanken seit den 80er Jahren sowohl in der

Informatik als auch in der Wirtschaft als Industriestandard für die elektronische Verwaltung von

Daten27. Ihre zentrale Aufgabe ist es, eine definierte Obermenge an strukturierten Daten aufzuneh-

men, sie in Form von Listen in Tabellen zu speichern und eine Teilmenge dieser Daten bei einer

Abfrage an den Nutzer wiederzugeben28. Relationale Datenbanken können in vielen Formen und

Datenbankmanagementsystemen erstellt und abgerufen werden. Die gängigsten Datenbankmana-

gementsysteme werden in den Sprachen "Structured Query Language" (kurz SQL) und "Not only

SQL" (kurz NoSQL) formuliert29.

In jeder Zeile einer relationalen Datenbank können beliebig viele Daten gespeichert werden. Über

sogenannte "Keys", "IDs" bzw. "Schlüssel" können die namensgebenden Relationen in einer Daten-

bank zwischen anderen Sets und Tabellen hergestellt werden. Dies geschieht, indem alle Datensets

gleichmäßig strukturiert sind und ein Attributwert als Schlüssel definiert wird. So können etwa An-

gaben zu den Mitarbeitern einer Firma in Zeilen abgespeichert werden. Attribute wie Name, Ge-

schlecht, Adresse etc. werden in Spalten organisiert. Eines dieser Attribute kann dabei als Schlüssel

definiert werden, sodass es möglich wird, über die erste Spalte einer relationalen Datenbank z.B.

über die Abfrage einer Identifikationsnummer Informationen über jeden Mitarbeiter abzurufen. Bei

Privatanwendungen und kleineren Datensets mit einer Speichergröße von bis zu zehn Terrabyte

können relationale Datenbanken relativ kosteneffizient betrieben werden30.

Bei einer direkten Datenbankabfrage werden Daten entsprechend der vorgegebenen Datenbank-

struktur aus einer Ausgangstabelle in eine passende Zieltabelle überführt, die nach demselben At-

23 Zell (1994), S. 95 24 Abiteboul & Hull (1986), S. 3-7 25 Bachman (1973), S. 269f. und Chen (1976), S. 9f. 26 Brosey & Shneiderman (1978), S. 625f. 27 Codd (1979), 397ff. und Sauer (2002), S. 13 28 Ebd. S. 20-23 29 Goldmedia Analyse (2018) nach: Google Trends (2018) 30 Russom (2013), S. 20

Page 30: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

27

tributschema aufgebaut sein muss. Darüber hinaus müssen der Ausgangsdatentyp und der Zielda-

tentyp einander entsprechen. Wird nämlich etwa eine Liste an zehnstelligen Telefonnummern ab-

gefragt, erwartet das Datenbankmanagementprogramm auch, dass es diese Nummern als Ausgabe

bekommt. Folgen z.B. stattdessen Namendatensätze, gibt es ein Problem und die relationale Da-

tenbank kann die angeforderten Informationen nicht verarbeiten. Diese strikten Vorgaben von re-

lationalen Datenbankarchitekturen dienen vor allem dem Zweck, die Richtigkeit der abgefragten

Daten zu sichern.

Verteilte Dateisysteme (wie z.B. "Apache Hadoop") setzen an dieser Stelle an und umgehen die

Problematik, indem sie auch unstrukturierte Datensets mit unterschiedlichen Datentypen verarbei-

ten können (dies allerdings zu Kosten der Datenintegrität). Die Technologie hinter verteilten Datei-

systemen wurde ab 1997 von dem Medienkonzern Yahoo als "Projekt Lucene" entwickelt31, von

Google im Jahre 2004 unter dem Namen "Google File System" implementiert32 und als Open Source

Technologie von anderen schnell wachsenden Unternehmen wie z.B. Facebook adaptiert.

Neben der Möglichkeit, unstrukturierte, verschiedene Datensets mit geringerem Aufwand zu verar-

beiten, bieten verteilte Dateisysteme den Vorteil, dass sie bei größeren Datenabfragen sehr viel

Bandbreite durch Komprimierung und parallele Verarbeitung von Datenabfragen einsparen. Mit

diesem konzeptuellen Problem sahen sich in den frühen 2000er Jahren die meisten der heutigen

Technologie- und E-Commerce-Konzerne konfrontiert.

Die Indexierungsalgorithmen von Google mussten zunehmend wachsende Quantitäten an Daten

speichern und abrufen, Amazon war als global wachsende E-Commerce-Plattform angewiesen,

mehrere Hundert Terrabyte an Suchanfragen und Empfehlungsvorschlägen auszuspielen, und Fa-

cebook musste seine Rechenzentren sowie Bandbreiten aufgrund des starken Nutzerwachstums

kontinuierlich ausbauen. Für diese Art von Big-Data-Aufgaben eignen sich zwar auch relationale

Datenbanken auf SQL-Basis, doch die singuläre und lineare Natur der Verarbeitung von Datenab-

fragen ist mit hohen Kosten verbunden, die zwischen 2002 und 2005 für die damals noch jungen

Unternehmen nicht finanzierbar waren.

Mit Hilfe von "MapReduce", einer Weiterentwicklung des Google File Systems, wurde eine Methode

entwickelt, mit deren Hilfe sich große Quantitäten von strukturierten oder unstrukturierten Daten

parallel über mehrere Computer-Cluster hinweg mit hoher Geschwindigkeit verarbeiten lassen. Das

Verfahren basiert dabei auf der Unterteilung von einer Aufgabe in mehrere Unteraufgaben deren

Zwischenergebnisse nachher zusammengefasst werden33.

Die Effizienz eines MapReduce-Prozesses äußert sich vor allem darin, dass die notwendige Band-

breite um ein Zehnfaches und die benötigte Rechenleistung um ein 54-Faches reduziert werden

kann34, da sich die parallele Verteilung der Arbeitspakete zumindest theoretisch auf unendlich viele

Server und Rechenkerne skalieren lässt. Ferner stellen MapReduce-gestützte Datenbank-manage-

mentsysteme eine kostengünstige Alternative zu SQL-Servern dar, da die einzelnen Server durch

die skalierbare Serverlast nicht aus besonders leistungsstarken (respektive teuren) Komponenten

bestehen müssen.

31 Vgl. Entwickler.de (2009) 32 Vgl. Ghemawat et al. (2003) 33 Dean & Ghemawat (2008), S. 109-112 34 Chu, C. T. et al. (2007), S. 288

Page 31: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

28

Zusammenfassend lässt sich feststellen, dass verteilte Dateisysteme gegenüber relationalen Daten-

banksystemen in Bezug auf die Verarbeitung von Daten den linearen Prozess-Flaschenhals durch

parallele und extrem skalierbare Prozesse umgehen, jedoch zu Kosten der Präzision der ausgege-

benen Daten. Diese methodischen und wirtschaftlichen Vorteile haben verteilte Datenbanksysteme

als Standard zur Analyse von Big Data in den Bereichen des Data Mining, wissenschaftlicher Simu-

lationen und Finanzanalysen etabliert35.

3.6 STATIST ISCHES NATURAL LANGUAGE PR O CESS ING

UND NATURAL LANGUAGE GEN ERATION

Als Grundlage für die automatisierte Erstellung von (journalistischen) Onlineinhalten dient die Me-

thode des Statistischen Natural Language Processing (auf Deutsch: maschinelle Verarbeitung na-

türlicher Sprache; ferner SNLP). Es handelt sich dabei um ein relativ junges Forschungsfeld, das sich

ab 2013 durch die Fortschritte in der Forschung um KNN von dem klassischen Natural Language

Processing abgespalten hat36. Da es sich bei dem Begriff SNLP um einen Oberbegriff für mehrere

Methoden der computerbasierten Analyse und Verarbeitung handelt, die auf mehreren theoreti-

schen Forschungszweigen und Technologien basieren, gibt es keine universale Definition. Als lang-

jährige SNLP-Forscherin und Pionierin auf diesem Gebiet formulierte E.D. Liddy deswegen eine vor

allem auf Textkorpora fokussierte Definition:

"Als Natural Language Processing (NLP) kann ein breites Spektrum an computergestützten Tech-

nologien bezeichnet werden, die für die linguistische Analyse von natürlich vorkommenden Texten

verwendet werden, um eine menschenähnliche Sprachverarbeitung für eine Reihe von Aufgaben

oder Anwendungen zu erreichen."37

Die Methode des SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf

dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem artifizi-

ellen Agenten (wie z.B. einem Computer, Sprachassistenten, Eingabemaske etc.), erkannt werden

muss. Deswegen bilden Dokumentenkorpora bzw. Arten von Semantiken in Daten die strukturelle

Basis für eine SNLP-basierte Analyse38. Erst wenn ein Algorithmus weiß, in welcher linguistischen

Umgebung er eingesetzt wird (z.B. Website, Sprache, Audiodatenbank etc.) und die Regeln der Um-

gebung als Handlungsmaßstab definiert werden, kann der Analyseprozess einen Kontext und eine

Syntax verstehen.

Die maschinell lernenden SNLP-Algorithmen versuchen somit nicht, für jedes Problem eine Lösung

zu finden, sondern sie lernen allgemeine Muster, mit deren Hilfe sie individuelle Fragestellungen

bearbeiten oder ganze Diskurse analysieren können39. Als prominentes SNLP-Beispiel gilt Google

Translate, dessen Algorithmen gesprochene oder geschriebene Sprache automatisch erkennen und

sinngemäß übersetzen können. Ein anderes Beispiel sind fortgeschrittene, KI-basierte Chatbot-

Plattformen oder Personal Voice Asisstants wie Siri oder Alexa. Als übergeordnetes Ziel von SNLP-

35 Vgl. Litzel (2017) 36 Vgl. Mikolov et al. (2013) 37 Liddy (2001), S. 1 38 Vgl. ebd. S. 2f. 39 Chowdhury (2003), S. 4ff.

Page 32: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

29

Algorithmen kann die Automatisierung von linguistischen Prozessen und die Reduktion der dahin-

terstehenden Rechenkomplexität bezeichnet werden40.

Darüber hinaus kann festgestellt werden, dass in einer systematischen Betrachtung des Big-Data-

Gegenstandes SNLP nicht nur für den Input und die Verwertung von Daten verwendet wird, sondern

auch für die automatisierte Generierung von Inhalten. So kann zwar keine allgemeine technische

Einführung gegeben werden, dafür aber ein Überblick darüber, wie im Speziellen automatisierte

Textgenerierung und -ausgabe in der Medienbranche technisch umgesetzt wird:

Automatisierte Textgenerierung ist die zentrale technische Komponente, die automatisierten Jour-

nalismus erst ermöglicht41. Als Teilgebiet von SNLP ist Natural Language Generation (NLG) als tech-

nische Applikation definiert, die automatisch natürliche Sprache aus der datengestützten Präsenta-

tion von Informationen generiert42. Die Umsetzung wird im Rahmen der Funktionsweise von künst-

lichen neuronalen Netzwerken folgendermaßen beschrieben43: „Strukturierte, digitale Daten wer‐

den von Algorithmen selektiert, gewichtet und es wird ihnen je nach Programmierung und Beschaf-

fenheit der Datensets Relevanz (Priorisierung und Kontextualisierung der Daten) zugewiesen.“ Die

Daten werden in Folge des zitierten Prozesses damit zuerst in eine semantische Struktur gebracht

und anschließend in einen Text mit natürlicher und grammatikalisch korrekter Sprache verwandelt.

Nach der anfänglichen Programmierung und dem Training der Anwendung kann diese relativ au-

tonom und fehlerfrei journalistische Texte erstellen, veröffentlichen und auf verschiedenen Plattfor-

men verbreiten.

40 Mikolov et al. (2013), S. 4 41 Dörr (2016), S. 700f. 42 Reiter & Dale (2000), S. 2-4 43 Dörr et al. (2017), S. 123

Page 33: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

30

Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses

Quelle: Goldmedia Analyse (2018) nach: Bateman & Zock (2003), S. 5f.

Basierend auf der Grundlage der vorangehend beschrieben SNLP-Prozesse, kann die algorithmische

Textgenerierung modellhaft in Form eines Input-Throughput-Output-Modells formuliert werden44.

Ausgangspunkt für den Gebrauch der Textgenerierung für den Journalismus ist eine Datenbank,

beispielsweise mit Daten zu Wetter, Sport oder Finanzen – dem Input. Während des Throughput

werden diese gemäß vordefinierter linguistischer und statistischer Regeln ausgewählt und verar-

beitet. Als Output entsteht ein Text in natürlicher Sprache. Der Prozess der eigentlichen Textgene-

rierung ist in vier Stufen unterteilt: 1. Macroplanning, 2. Microplanning, 3. Surface Realization und

4. Physical Representation (vgl. Abb. 5).

Während des Macroplanning werden die Daten ausgewählt, die für die Textgenerierung notwendig

sind, in eine Struktur gebracht und in einem sog. Text Plan organisiert45. Sie werden über öffentliche

Schnittstellen zur Anwendungsprogrammierung (APIs) oder private Datenbanken bezogen. Öffent-

liche Schnittstellen zur Anwendungsprogrammierung oder auch Programmierschnittstellen sind ein

Programmteil eines Softwaresystems, das anderen Programmen ermöglicht, auf das eigene System

zuzugreifen, also beispielsweise auf eigene Datenbanken.

Darüber hinaus sind Regeln und Codes – als Anforderungen an den Text – schon zu Beginn festge-

legt. Diese umfassen beispielsweise die Textlänge, Tonalität oder das Genre und sorgen dafür, dass

das Ergebnis der Textgenerierung schon vordefiniert ist. Im zweiten Schritt – dem Microplanning –

wählen Algorithmen aus, welche Elemente eines Datensets und welche linguistischen Strukturen

verwendet werden sollen. Dies bestimmt die grobe Struktur eines Satzplans und die Realisation des

späteren Texts. In der dritten Stufe – der Surface Realization (auf Deutsch: Oberflächenausführung)

– kommt dies schließlich zum Einsatz: Welche Worte werden gewählt und in welcher Reihenfolge

werden sie angeordnet? Das Ergebnis ist ein syntaktisch korrekter Text in natürlicher Sprache, der

44 Latzer et al. (2014), S. 395-425 45 Bateman & Zock (2003), S. 5f.

Page 34: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

31

meistens automatisch veröffentlicht wird. Darüber hinaus kann noch ein vierter Schritt berücksich-

tigt werden, bei dem aus reinem Text und Textbausteinen konkrete Artikel oder Audiobeiträge vor-

formatiert werden. Hier werden das Layout und etwaige Bilder für das Zielmedium entsprechend

den Corporate-Design-Vorgaben aufgearbeitet.

3.7 HIDDEN -MARKOV-MODELLE

Als letztes grundlegendes Konzept für die Entwicklung und vor allem Implementierung von Künst-

licher Intelligenz werden die Hidden-Markov-Modelle betrachtet, auf denen alle Spracherken-

nungsanwendungen aufbauen46. Benannt nach dem russischen Mathematiker A.A. Markov, wurde

der stochastische Markov Prozess Ende der 60er Jahre im Rahmen der Erforschung von maschineller

Spracherkennung in Form von Hidden-Markov-Modellen weiterentwickelt47. Ein normaler Markov-

Prozess beschreibt die prognostische Güte von Datensets48. Das Wetter kann an einem jeden ge-

gebenen Tag zu X Prozent sonnig, zu X Prozent wolkig oder zu X Prozent regnerisch ausfallen. Die

zentrale Aussage dabei lautet, dass die Prognosegüte sich mit einer ansteigenden Kenntnis von

historischen Daten nicht verändert49.

Dies bedeutet, dass lediglich mit einer Teilmenge von Daten ähnlich gute Ergebnisse erzielt werden

können wie mit einem kompletten Datenset50. Kennt man die Wahrscheinlichkeit des Prozentsatzes,

mit dem es regnen wird, und den, mit dem das Wetter sonnig ausfällt, kann man per Inferenz auch

die Wahrscheinlichkeit von Regen ermitteln, ohne diese vorher wissen zu müssen.

Mit Hilfe von Hidden-Markov-Modellen (HMM) können dagegen auch kontinuierliche Ereignisse

beschrieben werden51. Zwar ist ein HMM auch als ein endliches Modell definiert, doch beschreibt

es eine Wahrscheinlichkeitsverteilung über eine unendliche Anzahl von möglichen Sequenzen. Das

bedeutet bei einer praktischen Anwendung, dass nicht nur z.B. drei Zustände des Wetters ermittelt

werden können, sondern dass kontinuierliche Vorgänge wie z.B. ein Gespräch in seinem Verlauf

erfasst werden kann, ohne vorher zu definieren, wie viele Wörter lang es sein wird. Durch selbstre-

flexive Schleifen können in einem nächsten Schritt Algorithmen formuliert werden, die mit Hilfe von

Textkorpora und Lexika gesprochene Texte für Computer verständlich machen.

Gesprochene Sprache bzw. ein konkreter Satz wie "Ich möchte Milch bestellen" kann als ein akusti-

sches Signal dargestellt werden und in einem finiten Frequenzspektrum abgebildet werden. Dabei

werden jedes Wort und seine Frequenz getrennt und isoliert analysiert. Durch einen Abgleich mit

einer Datenbank von Phonemen (den kleinsten bedeutungsunterscheidenden Einheiten des Laut-

systems einer Sprache52) kann jedes Wort als Zustand betrachtet werden. Innerhalb dieses Zustan-

des wird die Frequenz des Phonems mit einer Datenbank aller Phoneme abgeglichen und anhand

der Dauer der Aussprache über eine HMM bestimmt, um welches Phonem es sich handelt53.

46 Gales & Young (2008), S. 197 47 Basharin et al. (2004), S. 12ff. 48 Stewart (1994), S. 4f. 49 Eddy (1998), S. 755f. 50 Schomaker (2012), S. 1ff. 51 Rabiner & Juang (1986), S. 7 52 Meibauer (2007), S. 82 53 Waibel et al. (1989), S. 332

Page 35: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

32

Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme

Quelle: Vgl. Kohler & Jurafsky (2017)

Im nächsten Schritt wird nach einer erfassten Pause (bzw. ausschlaggebender Übergangswahr-

scheinlichkeit) in der Frequenz das nächste Phonem analysiert und danach das nachfolgende (Vgl.

Abb. 9). Jeder Zustand im Verlauf der Analyse kann symbolisch als einzelnes Glied betrachtet wer-

den, und die Summe aller analysierten Zustände im Zeitverlauf ergibt die namensgebende (Hidden-

Markov-Modell-) Kette54.

Parallel zu diesem Vorgang versucht ein Algorithmus, diese einzelnen Zustände zusammenzusetzen

und zu einem Wort zusammenzufügen55. Über anschließende SNLP-Prozesse wird der semantische

Inhalt aller identifizierten Wörter des gesprochenen Satzes ("Ich möchte Milch bestellen") für den

Computer verständlich übersetzt. In einem letzten Schritt verwandelt der Algorithmus das ur-

sprüngliche akustische Signal in eine potentielle Arbeitsanweisung für nachgelagerte Prozesse - wie

z.B. einen E-Commerce-Auftrag zur Bestellung von Milch (vgl. dazu den Ablauf eines HMM-basier-

ten Erkennungsalgorithmus in Abb. 7).

54 Rabiner (1990), S. 266 55 Gales & Young (2008), S. 204

Page 36: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

33

Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero"

Quelle: Vgl. Kohler & Jurafsky (2017)

3.8 ZUSAMMENFASSUNG

Bei Big Data und allen unter diesem Themenfeld einzuordnenden Technologien, die in den voran-

gehenden Artikeln beschrieben wurden, handelt es sich im Rückblick um relativ junge Technologien,

die erst vor zehn bis zwölf Jahren im Zuge der Digitalisierung und durch steigende Rechenleistung

sowie durch wachsende Datenbestände in der Forschung erst richtig Beachtung gefunden haben.

Umso beeindruckender erscheint es, dass diese Konzepte bereits ihre Synthese in marktreifen Pro-

dukten erleben - sowohl im Privatkunden - als auch im Unternehmenssegment.

KNN-gestützte Algorithmen in der Deep Learning-Anordnung bilden bei Produkten, die Künstliche

Intelligenz einsetzen (wie z.B. bei der Texterkennung, dem Data-Mining oder in Finanzanalysesoft-

ware) die funktionale Grundlage für automatisierte Lern- und Optimierungsprozesse. Mithilfe von

verteilten Datenbankarchitekturen können diese Technologien auf ein globales Niveau skaliert wer-

den, sodass auch Privatanwender von den Vorteilen automatisierter Prozesse in Form von etwa

persönlichen Sprachassistenten oder schnellen Suchmaschinenabfragen profitieren können. Hierbei

kommen insbesondere solche Technologien wie SNLP oder Hidden-Markov-Modelle zum Einsatz,

die überhaupt erst eine Mensch-Maschine-Interaktion ermöglichen, indem sie menschliche Signale

wie gesprochene Sprache oder geschriebene Texte für Computer verständlich übersetzen. In den

folgenden Kapiteln soll das Zusammenwirken dieser Technologien weiter an konkreten Beispielen

und Produkten aus dem Markt für Onlinemedien untersucht werden.

Page 37: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

34

4 AUSGEWÄHLTE BEISPIELE VON

MEDIENBEZOGENEN BIG-DATA-

ANWENDUNGEN IM B2C-MARKT

Durch die stetige Weiterentwicklung und die steigende marktseitige Akzeptanz von Künstlicher In-

telligenz, Künstlicher Neuronaler Netze und Statistical Natural Language Processing beginnen sich

Big-Data-Anwendungen in allen Bereichen der traditionellen und digitalen Wirtschaft zu etablieren.

Um die Auswirkungen von Big-Data-gestützten Innovationen auf den Markt der Onlinemedien voll-

ständig und überschneidungsfrei zu untersuchen, werden nachfolgend die Marktpotentiale der drei

wichtigsten Entwicklungen in dem Business-to-Consumer- (B2C) Segment des deutschen Medien-

marktes dargestellt, die Nutzerakzeptanz der jeweiligen Technologien untersucht und in einem Aus-

blick die Nachhaltigkeit der Innovationen bewertet.

4.1 PERSONAL VOICE ASS IS TAN TS: K I -BAS IER TE

KOMMUNIKATION UND TR ANSAKTION

Seit dem Erscheinen der IBM-Software „ViaVoice“ und der Privatkunden-Version der Software „Dra‐

gon NaturallySpeaking“ im Jahr 1997 hat sich der Markt für digitale Sprachassistenz und Spracher-

kennung nicht nur dramatisch weiterentwickelt, sondern mit Personal Voice Assistants (ferner PVA)

auch eine komplett neue Produktkategorie geschaffen (vgl. Abb. 11). Bei PVA handelt es sich um

fortgeschrittene Chatbot-Plattformen, deren Aufgabe es ist, sprachliche Eingaben des Benutzers im

Rahmen eines imitierten Dialogs in Handlungsanweisungen umzusetzen und dadurch dem Benut-

zer zu assistieren. Zum Beispiel kann ein Nutzer einen PVA fragen, welches Wetter gegenwärtig

herrscht, und der PVA gibt ihm auf Basis der geolokalisierten Position das Wetter für die unmittel-

bare Umgebung wieder. PVA können je nach Ausführung entweder als Hardware in Form eines

Lautsprechers oder als Software auf einem Smartphone benutzt werden. Während des Zeitraumes,

in dem sie in Betrieb sind, müssen sie fortlaufend mit dem Internet verbunden sein, da die KI-Kom-

ponente auf einer Plattform ausgeführt wird, die sich nicht auf dem jeweiligen Endgerät, sondern

auf den externen Servern der Anbieter befindet.

Aus einer methodologischen Perspektive betrachtet, stellen PVA die Kulmination der wissenschaft-

lichen Erkenntnisse rund um Big Data dar. In ihrer Funktionsweise bieten sie Privatkunden den Zu-

gang zu der am höchsten entwickelten Form von Künstlicher Intelligenz, die es auf dem B2C-Markt

gibt. Als technologische Grundlage, auf der die KI hinter den PVA aufbaut, dient dabei die Summe

aller in Kapitel 3.3 bis Kapitel 3.7 untersuchten Modelle der Mensch-Maschine-Interaktion: Während

die Sprachaufzeichnungen über HMM definiert und prognostiziert werden, verarbeiten SNLP-Pro-

zesse sie in für Computer lesbare Rohdaten, die über in der Deep-Learning-Anordnung aufgebaute

und durch Millionen von anderen Datensets trainierte KNN gespeist werden, um als logisch-kon-

sistente Befehle auf den Servern der Anbietern ausgeführt zu werden. Dabei finden alle beschrie-

benen Vorgänge in Echtzeit auf verteilten Dateisystemen statt, die in Sekundenbruchteilen Tau-

sende von Befehlen filtern, analysieren und an die von den final eruierten Befehlen adressierten

Anwendungen von externen Dienstleistern weiterleiten.

Page 38: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

35

Und genau diese Anwendungen, welche die jeweiligen Anfragen der Nutzer über PVA beantworten,

tragen maßgeblich zu dem Erfolg dieser neuen Big-Data-basierten Technologie bei. Denn die Funk-

tionalität der PVA geht über simple Assistenz hinaus und verbindet den Nutzer mit zahlreichen

Onlinemedien und E-Commerce-Anbietern. Die PVA dienen daher in ihrer primären Funktion als

Intermediär zwischen Nutzern und externen Anbietern von Dienstleistungen – oder anders formu-

liert als „Lead-Up-Channels“. Der kommerzielle Erfolg solcher PVA wie Amazon Echo oder Google

Home basiert auf ihrer beinahe barrierefreien Weiterleitung der Nutzerinteressen an Medien-

dienste, die über PVA ihre Unterhaltungsangebote über einen zusätzlichen Distributionskanal mo-

netarisieren können.

Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017

Quelle: Goldmedia Analyse (2018) nach: Selbstangaben der Unternehmen 2011-2017

Wenn der Zeitraum von 1997 bis 2010 als Start- und Wachstumsphase definiert werden kann, dann

stellen die Jahre 2011 bis 2016 eine Experimentalphase für Spracherkennung und Sprachapplikati-

onen dar. Nach dem Launch von Apples Siri im Jahr 2011 und dem Start von Google Now 2012 war

die Marktresonanz verhalten – vermutlich wegen der mangelnden Spracherkennungsqualität. Aber

"… [t]he hunger to experiment was profound“, resümiert ein Bericht des Unternehmens VoiceLabs

und bezeichnet den Markteintritt der digitalen Sprachassistenten Amazon Echo im Jahr 2015 und

Google Home im Jahr 2016 als den Urknall für die Verbreitung von kommerziellen Personal Voice

Assistants56.

2016 verkündete Sundar Pichai (CEO von Google Inc.), dass bereits 20 Prozent der mobilen Such-

anfragen per Spracheingabe erfolgen. Für das Jahr 2017 wird die Anzahl der verkauften Voice-First-

Geräte auf etwa 24,5 Mio. geschätzt, womit die Gesamtzahl der im Umlauf befindlichen Voice-First-

Geräte etwa 33 Mio. beträgt57. Im Vergleich zum Vorjahr wäre das ein Anstieg von gut 35 Prozent.

Das amerikanische Marktforschungsunternehmen Gartner nennt Sprachassistenten als einen der

zehn technologischen Trends für das Jahr 2017 und prognostiziert, dass bis 2020 etwa 30 Prozent

der Internetrecherchen per Sprachsteuerung erfolgen werden58.

4.1. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE

In dem Markt der Personal Voice Assistants konkurrieren inzwischen die größten Technologie-Un-

ternehmen um Marktanteile. Als erster kaufte Apple das 2007 gegründete Siri Inc. im Jahr 2010 auf

und brachte im folgenden Jahr den ersten Endkunden-orientierten Sprachassistenten in seinem

iPhone heraus.

56 Alpine.AI (2017), S. 4 57 Vgl. ebd. 58 Vgl. Pemberton & Levy (2016)

Page 39: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

36

Als erster Konkurrent stieg 2012 das Unternehmen Google mit dem eigenen Sprachassistenten

Google Now in den Wettbewerb ein. Da der Fokus von Google Now vor allem auf der Sprachsuche

lag, ersetzte Google ihn im Jahr 2016 durch den verbesserten, intelligenten Sprachassistenten

Google Assistant, der darauf spezialisiert ist, seinen Nutzer kennenzulernen und mit ihm zu kom-

munizieren. Seit 2016 vertreibt Google auch smarte Lautsprecher, den Google Home und den

Google Home mini.

Im Jahr 2014 folgte Microsoft mit einem PVA-Angebot, seiner Sprachassistentin Cortana. Erst 2015

stieg Amazon mit der derzeit wohl bekanntesten Sprachassistentin Alexa und dem dazugehörigen

Amazon Echo in diesem Markt ein. Obwohl Amazon als letzter Big Player in Erscheinung trat, zählt

sein Angebot an vernetzten Endgeräten 2017 zu den breitesten, die über Amazons PVA Alexa ge-

steuert werden können (vgl. Abb. 12).

Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017)

Quelle: Vgl. Newman (2017)

Die zentralen Anwendungsbereiche von PVA können mit Hilfe einer repräsentativen Bevölkerungs-

befragung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC im Juni 2017 zu intelligenten

Lautsprechern dargestellt werden: An erster Stelle nennen die Befragten den Wunsch, die Sprach-

assistenten für das Abspielen von Musik einzusetzen. Direkt danach folgen mit 48 Prozent die all-

gemeine Informationssuche zu beispielsweise Nachrichten und Wetter und die Beantwortung von

Wissensfragen mit 44 Prozent. Darüber hinaus werden Sprachassistenten auch als Unterstützung

bei Organisationsaufgaben, wie bei der Terminplanung und Terminverwaltung (37%) oder Planung

von Fahrten und Routen (31%), eingesetzt. Von besonderem Interesse ist der Einsatz der Sprachas-

sistenten bei der Smart-Home-Steuerung, wo knapp ein Drittel der Deutschen Interesse an der

Nutzung zeigt.

Insgesamt werden die intelligenten Lautsprecher bzw. Sprachassistenten vor allem also für Basis-

Funktionen eingesetzt59. Ihr Einsatz bei komplexen Aufgaben, wie bspw. die Durchführung von

Bankgeschäften oder die Buchung von Tickets, findet derzeit noch eher selten statt60. Nutzer sehen

die Sprachassistenten stattdessen größtenteils als unterhaltsames Gimmick, das hauptsächlich für

59 Eresult GmbH (2017b), S. 11 60 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 5

Page 40: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

37

einfache Aufgaben verwendet wird61: "[...] they did not attempt complex tasks (particularly without

visual confirmation) or tasks where they perceived a high social cost to failure":

In Bezug auf Nutzerzahlen lässt sich beobachten, dass die Anzahl der Alexa Skills in den letzten

Jahren zwar enorm angestiegen ist, jedoch nur ein geringer Teil dieser tatsächlich verwendet wird.

Die Anzahl der Skills für Alexa ist von etwa 1.000 Skills im Juni 2016 auf rd. 25.000 Ende November

2017 angestiegen62 (für eine Darstellung der Entwicklung von Alexa Skills vgl. Abb. 10). Nur 31

Prozent der Skills weisen jedoch mehr als einen Nutzerreview auf, was Analysten als Anzeichen dafür

sehen, dass es sich bei vielen der Skills um nicht genutzte "Zombie Skills“ handelt63. Es besteht

demnach eine große Diskrepanz zwischen Quantität und Qualität.

Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017

Quelle: Vgl. Kinsella (2017)

4.1. 2 MARKTPOTEN TIALE

Eine im Jahr 2017 von Accenture durchgeführte Nutzerbefragung in 26 Ländern bestätigt die Ver-

mutung, dass KI bereits jetzt eine zentrale Rolle im Leben vieler Konsumenten spielt und Sprachas-

sistenten routinemäßig in den Alltag integriert werden64. Als größte Nutzergruppe identifizierte die

Studie die Altersgruppe der 14- bis 17-Jährigen, bei denen mehr als die Hälfte (51 Prozent) anga-

ben, sprachgesteuerte digitale Assistenten in Smartphones und Laptops zu nutzen. Die Befragung

zeigte, dass sich innerhalb der Altersgruppen deutliche Unterschiede erkennen lassen: Je älter die

befragten Teilnehmer waren, desto geringer die Anzahl der Sprachassistentennutzer. Während es

bei den 18- bis 34-Jährigen noch 38 Prozent waren, lag der Anteil der PVA-Nutzer bei den 35- bis

55-Jährigen nur noch bei 27 Prozent und bei den über 55-Jährigen lediglich bei 15 Prozent. Doch

bereits ein Drittel (31 Prozent) der 14- bis 17-Jährigen gab an, Sprachassistenten bereits regelmäßig

zu nutzen.

61 Luger & Sellen (2016), S. 5291 62 Alpine.AI (2017), S. 6 63 Vgl. ebd. S. 8 64 Sovie et al. (2017), S. 3

Page 41: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

38

Laut Accenture sei dies ein positives Zeichen für die Entwicklung zukünftiger Nutzerzahlen. Eben-

falls auf einen zukünftigen Anstieg der Nutzerzahlen deutet das Interesse über alle vier Altersgrup-

pen an der neuen Technologie hin. So gab in allen Segmenten etwa ein Drittel der Befragten an,

dass sie sich für eine zukünftige Nutzung von Sprachassistenten interessieren65. Auch der "Com-

manding Media"-Report des Marktforschungsunternehmens GfK kam zu dem Ergebnis, dass 76

Prozent der befragten US-Bürger bereits Sprachsteuerung auf verschiedenen Geräten ausprobiert

haben und eine von neun Personen einen digitalen Sprachassistenten besitzt. Von den Personen,

die einen Sprachassistenten besitzen, beschreiben 19 Prozent ihr Nutzungsverhalten mit rund um

die Uhr und 46 Prozent als sehr regelmäßig bis fast jederzeit66. Die Ergebnisse zeigen: Wer einen

Sprachassistenten besitzt, nutzt diesen meist auch regelmäßig.

Auch in Deutschland führte der Digitalverband BITKOM im Oktober 2016 zum Thema Sprachassis-

tenten eine repräsentative Befragung unter Bundesbürgern ab 14 Jahren durch. Sieben von zehn

Personen gaben bei der Befragung an, bereits von Sprachassistenten gehört zu haben, und 39 Pro-

zent, dass sie sich vorstellen könnten, Sprachassistenten in Zukunft zu nutzen67. Somit scheint auch

in Deutschland das Interesse an Sprachassistenten zu wachsen und einen Punkt erreicht zu haben,

"an dem ein Produkt wie der Echo mit dem Assistenten Alexa bereits eine recht breite Käuferschicht

erreichen kann"68. Prognosen gehen davon aus, dass sowohl die Bedeutung als auch die Nutzer-

zahlen von Sprachassistenten in Zukunft stark ansteigen werden. Während die Nutzerzahl laut Prog-

nosen weltweit zurzeit etwa auf 710 Mio. Nutzer geschätzt wird, soll sich diese Zahl bis 2021 mehr

als verdoppeln, womit die prognostizierte Nutzerzahl bei 1,8 Mrd. Nutzern läge69.

Ein ähnliches Potential lässt sich auch auf finanzieller Ebene beobachten: Experten erwarteten, dass

der Umsatz mit Personal Voice Assistants weltweit von rd. 90 Mio. Euro im Jahr 2016 auf rd. 590

Mio. Euro im Jahr 2017 steigen wird. Bis 2021 sollen digitale Assistenten sogar einen Umsatz von

bis zu zehn Mrd. Euro erwirtschaften. VoiceLabs prognostizierte für 2017, dass weltweit insgesamt

25 Mio. Geräte mit integrierten PVA verkauft wurden70. Damit würde sich der Absatz gegenüber

2016 versechsfacht haben.

Unter allen angebotenen PVA-Lautsprechern dominiert in den USA laut einer eMarketer Umfrage

der Amazon Alexa Echo mit rd. 70 Prozent Marktanteil71. Mit 24 Prozent folgt darauf das Konkur-

renzprodukt Google Home. Da der Amazon Alexa Echo und der Echo Dot in Deutschland bereits

seit 2016 verfügbar sind, der Google Home sowie der Google Home Mini aber erst in der zweiten

Hälfte 2017 in den Handel kamen, kann angenommen werden, dass die Marktanteile ähnlich verteilt

sind wie in den Vereinigten Staaten.

65 Vgl. ebd. S. 3-5 66 Vgl. GfK (2017) 67 Vgl. Prescher & Lutter (2016) 68 Vgl. Tißler (2017) 69 Vgl. Tractica (o. D.) 70 Alpine.AI (2017), S.4 71 Vgl. eMarketer (2017)

Page 42: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

39

4.1. 3 NUTZERAKZEPTANZ

Da der Mensch schneller spricht als er schreibt72, bedeutet eine Interaktion durch die Stimme einen

"raschen Zugriff auf Informationen und eine deutlich leichtere Bedienung vieler technischer Ge-

räte"73. Laut der Bevölkerungsbefragung des Unternehmens PwC sind dies aus Sicht der Befragten

die beiden Hauptvorteile von intelligenten Lautsprechern: der schnelle Zugang zu Informationen

(46 Prozent Zustimmung) und die bequeme Sprachsteuerung (43 Prozent Zustimmung)74. Dass die

Bedienung per Sprache als so angenehm empfunden wird, könnte daran liegen, dass die "Nutzung

von Sprache als Eingabe- und Ausgabesignal eine nahezu [syntaktisch] bruchlose und somit natür-

liche Kommunikation mit Computerprogrammen ermöglicht"75. Sprache als intuitive, universelle

Bedienschnittstelle offeriert viele neue Möglichkeiten und ist besonders für Menschen, die in ihrer

Mobilität eingeschränkt sind, von großem Vorteil. Freihändige Bedienbarkeit ist für viele Nutzer laut

Umfragen ein großer Komfortgewinn und für 70 Prozent der Befragten der Hauptgrund für die

Nutzung von Sprachassistenten76. Wenn die Hände anderweitig in Benutzung sind, beispielsweise

beim Autofahren oder Kochen, können Sprachassistenten eine große Unterstützung sein und Mul-

titasking ermöglichen77. Für den Großteil der Nutzer stellt auch die Zeitersparnis einen Hauptvorteil

von Sprachassistenten dar78.

Sprachassistenten lassen sich also zusammenfassend nicht nur einfach bedienen, sondern erleich-

tern für Nutzer den Alltag und für Anbieter den Zugang zu ihren Dienstleistungen. In manchen

Aspekten bevorzugen Menschen sogar die Interaktion mit computerbasierten Applikationen, wie

eine Befragung von Accenture im Jahr 2017 zeigt. Vorteile gegenüber der Interaktion mit Menschen

sehen 84 Prozent der Befragten darin, dass die Sprachassistenten jederzeit verfügbar sind, 68 Pro-

zent, dass sie weniger voreingenommen sind, und 64 Prozent empfinden die Kommunikation mit

Sprachassistenten sogar als höflicher79. Auffällig ist, dass sich viele der genannten Vorteile unter

dem Stichwort "Benutzerfreundlichkeit" zusammenfassen lassen. Der Erfolg von Sprachassistenten

scheint zum großen Teil vom Ausmaß der Benutzerfreundlichkeit abhängig zu sein. Marktexperten

schätzen, dass PVA sich nur dann im Massenmarkt durchsetzen werden, wenn die Nutzung der

Assistenten eine positive, überzeugende Nutzererfahrung mit sich bringt und auch die Integration

von digitalen Inhalten wirklich gelingen sollte80.

Doch nicht alle sind von den Vorteilen der Sprachassistenten überzeugt. Eine Studie des Marktfor-

schungsunternehmens YouGov im Jahr 2017 zeigt, dass der "Gedanke an eine Zukunft mit digitalen

Assistenten [...] nur bei einem von fünf Deutschen (21 Prozent) positive Gedanken hervor[ruft]",

72 Vgl. Thomas (2017) 73 BfDI (2017), S. 1 74 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 75 Ferdinand & Jetzke (2017), S. 2 76 Eresult GmbH (2017b), S. 5 77 "As one might expect, the principle use-case for the CA was ‘hands free’, which was tied strongly to the

theme of timesaving and convenience", vgl. dazu Luger & Sellen (2016), S. 5291 78 Eresult GmbH (2017b), S. 5 79 Sovie et al. (2017), S. 3-5 80 Vgl. Eresult GmbH (2017a)

Page 43: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

40

knapp die Hälfte der Befragten (47 Prozent) sieht einer solchen Zukunft negativ gestimmt entge-

gen81. In Bezug auf Sprachassistenten scheint in der deutschen Bevölkerung also eine gewisse Skep-

sis zu herrschen. Auch der weltweite Vergleich deutet darauf hin: Laut der Befragung von Accenture

im Jahr 2017 zählt Deutschland mit 28 Prozent zu den sog. "low-usage countries". Im Vergleich

hierzu liegt der Nutzeranteil von PVA in den USA, die zu den "high-usage countries" gezählt werden,

bei rd. 46 Prozent. Diese Unterschiede lassen sich durch die spätere und teilweise noch nicht er-

folgte Markteinführung in Deutschland erklären.

Doch die nachfolgend zitierten Studien zeigen, dass auch besonders Datenschutz, Privatsphäre und

Sicherheit eine große Rolle bei der Ablehnung von Sprachassistenten in Deutschland spielen. Laut

der repräsentativen Umfrage des Digitalverbands BITKOM im Jahr 2016 hängen die Hauptbedenken

vieler Nutzer gegenüber Sprachassistenten mit ihrer Datensicherheit zusammen. So begründen 73

Prozent der Befragten, die kein Interesse an der Nutzung von Sprachassistenten haben, ihren Ent-

schluss damit, dass sie ihre Daten nicht an Unternehmen abgeben wollen82. Aber auch die Daten-

sicherheit gegenüber Dritten spielt eine Rolle, und 61 Prozent sorgen sich, "dass Hacker die Geräte

manipulieren und mithören konnten"83.

Ähnliche Befunde zeigt auch die PwC-Befragung aus dem Jahr 2017, bei der als Hauptbedenken

die Angst vor Datenmissbrauch und vor zu hoher Transparenz genannt wurden. Fast drei Viertel der

Befragten sorgten sich vor Datendiebstahl, Manipulation und Missbrauch zum Beispiel durch Ha-

cker. Aber auch die Angst, abgehört zu werden, spielte für zwei Drittel eine entscheidende Rolle84.

Die Bedenken zum Datenschutz begründen sich in der Funktionsweise der Sprachassistenten: Damit

diese auf Zuruf reagieren können, müssen sie omnipräsent eingeschaltet sein und das Gesagte auf-

zeichnen: "Sprachassistenten hören permanent die Umgebung ab und zeichnen Befehle über Mik-

rofone auf"85. Man müsse sich der Dauerüberwachung im Klaren sein, schreibt die Bundesbeauf-

tragte für Datenschutz und Informationsfreiheit, und sich mit den damit verbundenen Nachteilen

beschäftigen86. Denn häufig ist für den Nutzer nicht nachvollziehbar, wie und wo erfasste Informa-

tionen gespeichert und genutzt werden: "Das wohl größte Problem ist nach Meinung vieler Kritiker

die 'Black Box', also die fehlende Transparenz darüber, wann die Geräte was und wieviel aufzeich-

nen, wohin die Daten übermittelt werden, wer sie für welche Zwecke analysiert, wer welche Schlüsse

daraus zieht, welche Konsequenzen sich daraus für den Anwender ergeben und ob die Daten bzw.

die daraus generierten Bewegungs- und Persönlichkeitsprofile überhaupt jemals wieder gelöscht

werden."87

Man muss nicht einmal selbst aktiv Sprachassistenten nutzen, um mit den Problemen konfrontiert

zu sein. Personen, die Sprachassistenten im Haushalt oder im öffentlichen Raum nutzen, könnten

unbeabsichtigt und unwissend Daten von unbeteiligten Dritten aufzeichnen und speichern88. Ihr

81 Vgl. Inhoffen (2017) 82 Vgl. Prescher & Lutter (2016) 83 Vgl. ebd. 84 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 85 Vgl. BfDI (2017) 86 Vgl. ebd. 87 Vgl. Lederer (2017) 88 Vgl. BfDI (2017)

Page 44: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

41

Einsatz sollte also immer "umfassende Informiertheit aller Anwesenden und echte Wahlfreiheit vo-

raus[setzen]"89.

Sprachassistenten basieren ihre Funktionalität auf einem stetigen Zufluss an Informationen, und je

mehr Daten sie über ihre Nutzer haben, desto besser funktionieren sie. Es besteht eine "Ambivalenz

zwischen latenter Verfügbarkeit auf der einen sowie einer etwaigen Einbuße von Privatsphäre auf

der anderen Seite"90. Gespeicherte Daten sind insofern ein Problem, als dass es für Konzerne wie

Amazon oder Google besonders leicht ist "Sprachinformationen [...] mit Daten aus anderen Online-

Quellen zu detaillierten Nutzerprofilen für Marketing und Marktforschung [zusammenzuführen]"91.

Besonders für Amazon ist es durch Alexa und den Amazon Echo möglich "einzigartige Daten über

die Nutzer zu sammeln und auszuwerten" und in ein "stark individualisiertes Voice Marketing flie-

ßen" zu lassen92. In den Medien wurden PVA in diesem Zusammenhang mit dem Begriff "Trojani-

sches Pferd" bedacht93. Denn um funktionieren zu können, müssen Sprachassistenten dauerhaft mit

dem Internet verbunden sein. Dies schürt bei vielen Nutzern die Angst, sie könnten von Unterneh-

men oder Hackern abgehört und manipuliert werden94, und Experten warnen vor Cyberkriminalität

wie Identitätsdiebstahl oder Bankkontobetrug95.

Dagegen fand eine BITKOM-Studie zu dem Thema Datenschutz in der digitalen Welt heraus, dass

viele Deutsche Online-Dienste nutzen, obwohl sie Bedenken bezüglich ihrer Datensicherheit ha-

ben96. So nutzen laut der Untersuchung 87 Prozent der Befragten solche Dienste, obwohl sie kein

volles Vertrauen haben, dass der Dienst die gesetzlichen Vorgaben in Deutschland zur Verarbeitung

persönlicher Daten einhalte. Als Begründung, die Personal Voice Assistants trotzdem zu verwenden,

nennen hier 72 Prozent, dass sie diese nützlich finden, und 21 Prozent, dass ihnen der Datenschutz

einfach nicht so wichtig ist97. Nimmt man diese Befunde als Indikator, könnte sich das Verhalten

vieler in Bezug auf Sprachassistenten ähnlich entwickeln: Man ist sich der Gefahren bewusst, nimmt

diese jedoch aufgrund des Komfortgewinns und der Bequemlichkeit in Kauf.

4.1. 4 ZUSAMMENFASSUNG UND AUSBLICK

Selbstlernenden Personal Voice Assistants sprechen Technologiekonzerne wie Google oder Apple

ein großes Potential zu, die Gesellschaft und ihre Interaktion mit Computern vollkommen zu revo-

lutionieren und zu einer ähnlich großen Umwälzung zu führen wie zu ihrer Zeit Touchscreens oder

das Mobile Web98. Tißler betrachtet in diesem Zusammenhang die Entwicklung der Benutzerober-

flächen von Computern und kommt zu dem Schluss, dass diese sich mit Hilfe von SNLP- und KNN-

89 Vgl. Thomas (2017) 90 Ferdinand & Jetzke (2017), S. 1 91 BfDI (2017), S. 2 92 Mendet (2017), S. 19 93 Vgl. Schmundt (2015) 94 Vgl. Prescher & Lutter (2016) sowie PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017) 95 Vgl. BfDI (2017) und Mendet (2017) 96 Rohleder (2015), S. 12 97 Vgl. ebd. 98 Vgl. Tißler (2017)

Page 45: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

42

gestützten Techniken immer mehr der Art annähern, wie Menschen miteinander und mit ihrer Um-

gebung interagieren. Sprachen und Gesten als Bedienform wären seiner Ansicht nach ein logischer

und natürlicher Entwicklungsschritt in diese Richtung99.

Es wird davon ausgegangen, dass Spracherkennung und Sprachsteuerung in den Bereichen Auto-

mobilindustrie, Smart Home, Unterhaltung, Shopping, Gesundheitswesen und Übersetzung zu um-

fangreichen Neuerungen und Transformationen führen werden. Bei dem aktuellen Marktkampf der

großen Technikfirmen geht es langfristig gesehen um Kontrolle (z.B. durch Lock-in-Effekte) und

Macht (in Bezug auf den Wettbewerb): "Wer den Assistenten kontrolliert, kontrolliert auch den Zu-

gang der Nutzer zum Internet – und damit mittelfristig auch den Zugang zu Informationen, E-Com-

merce, Marketing-Botschaften und der Produktion"100. Hierbei zeigen aktuelle Studien, dass es zu-

gleich eher unwahrscheinlich ist, dass ein Haushalt mehrere Sprachassistenten beziehungsweise

smarte Lautsprecher unterschiedlicher Anbieter verwenden wird und vermutlich das "Winner Takes

It All"-Prinzip greifen wird101. Fraglich bleibt jedoch, ob es tatsächlich, wie multilateral prognosti-

ziert, zu Voice-First kommt und grafische Benutzeroberflächen wie der Touchscreen oder die Tas-

tatur in Zukunft durch Sprache ersetzt werden.

Spracherkennungssysteme stoßen heute in noch vielen Bereichen an ihre Grenzen, wie die Nutzer-

befragung von PwC zeigt. Zwar können sie bei einer Vielzahl von Aufgaben im Alltag unterstützen

und durch Zeitersparnis und das Ermöglichen von Multitasking eine große Hilfe darstellen, jedoch

reicht der Funktionsumfang in vielen Bereichen noch nicht aus. Auch die Unsicherheiten potentieller

Nutzer in Bezug auf Datensicherheit und Schutz der Privatsphäre führen dazu, dass von einer all-

gemeinen Akzeptanz im Alltag und einer regelmäßigen Nutzung von Sprachassistenten 2017 noch

nicht die Rede sein kann. Dennoch sind die Verkaufszahlen für Sprachassistenten in den letzten

Jahren angestiegen (von 6,5 Mio. Einheiten auf 24,5 Mio. Einheiten weltweit102), und immer mehr

große Technikunternehmen wie Apple investieren in diesen Bereich. Auf der Seite der Nutzer sind

es nicht mehr nur die sogenannten Early-Adopter, die sich für das Thema interessieren, sondern

eine immer breiter werdende Masse aus allen Altersschichten.

Auch wenn in vielen Aspekten, wie beispielsweise dem Datenschutz, noch Klärungsbedarf besteht,

werden Sprache und Sprachassistenten in der Zukunft sehr wahrscheinlich eine wichtige Rolle bei

der Interaktion mit smarten Endgeräten einnehmen. Kritisch zu betrachten bleibt weiterhin die Aus-

sage, dass Sprache zur ausschließlichen Bedienschnittstelle wird. Stattdessen kann eher davon aus-

gegangen werden, dass sie eine wichtige Ergänzung zu bisherigen Benutzeroberflächen darstellen

wird.

99 Vgl. ebd. 100 Vgl. Thomas (2017) 101 Vgl. Klotz (2017) und VoiceLabs (2017a) 102 Vgl. Alpine.AI (2017)

Page 46: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

43

4.2 CHATBOTS UND SOCIAL -B OTS: AUTOMATIS IERTE

(MASSEN - ) KOMMUNIKAT ION

Im Bereich der digitalen KI-gesteuerten Assistenz existiert neben der Kategorie der Personal Voice

Assistants ebenfalls die Kategorie der sog. Chatbots, mit welchem Nutzer ebenfalls direkt kommu-

nizieren und interagieren können, wenn auch zumeist in Schriftform. Generell ist unter dem Begriff

Chatbot eine Softwareanwendung zu verstehen, welche während einer direkten oder indirekten

Interaktion mit einem Nutzer online interpersonelle Kommunikation imitiert. Chatbots werden da-

bei von Personal Voice Assistants anhand der folgenden Aspekte unterschieden:

Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants

Quelle: Goldmedia Analyse (2018) nach: VDZ (2017), S. 15

Diese Art von Kommunikation wird in der Wirtschaft vor allem im Rahmen von Customer-Relati-

onship-Management (kurz CRM) angewendet: Chatbots nehmen online erste Anfragen von Kunden

entgegen und beantworten simple Fragen zum Unternehmen oder zu Produkten. Sie werden oft

aus ökonomischen Gründen eingesetzt, um Kosten für Call-Center-Angestellte einzusparen und um

die Erreichbarkeit zu erhöhen.

Darüber hinaus existiert im Markt für Social-Media-Dienstleistungen eine Subkategorie von Chat-

bots, die speziell für Massenkommunikation konzipiert ist und in kurzer Zeit ganze Nutzergruppen

erreichen soll. Solche automatisierten Agenten werden auch als Social Bots bezeichnet. Die Funkti-

onsweise basiert zumeist auf einer Texteingabemaske, in der ein Nutzer seine Nachricht oder Frage

verfasst. Der Social Bot analysiert mit Hilfe von KNN-basierten Datenbanken (etwa durch KNN Mus-

tererkennung bzw. "Pattern Matching“-Algorithmen) die Eingaben und gibt auf Basis seiner Analyse

eine Antwort an den Nutzer wieder. In sozialen Netzwerken fungieren sie oftmals nicht als Kunden-

betreuer, sondern als Bewerber von Dienstleistungen und Services. So sind Social Bots im Zuge der

US-Präsidentschaftswahl in die Schlagzeilen geraten, weil mehreren politischen Organisationen vor-

geworfen wurde, mit Hilfe solcher Chatbots maßgeblich die Wahl beeinflusst zu haben.

KRITERIUM CHATBOTS PVA

Plattformzugang Offene Technologie Geschlossene API-Plattformen

Technik Scripted-KI, Applet, Datenbank KI, Deep Learning, KNN

Personalisierung Kaum/Nicht vorhanden Stark/Kernelement

Use Cases Wenige (v.a. monothematisch) Viele (selten monothematisch)

Service Fokus auf den Service Fokus auf den Nutzer

Zugang Auffindbarkeit herausfordernd Integriert in digitale Ökosysteme

Nutzer Lock-In Gering Potentiell stark

Page 47: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

44

4.2. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE

Chatbots kommen in vielen Variationen vor und können anhand unterschiedlicher Merkmale wie

z.B. ihres wirtschaftlichen Zwecks, ihres technischen Grundgerüsts oder durch ihre Performanz un-

terschieden werden. Da Chatbots in ihrer grundlegenden Funktion aktiv Inhalte produzieren müs-

sen und responsiv sein sollen, werden sie in der Sozialwissenschaft durch die Komponente der Hy-

peraktivität klassifiziert: Das definitorische Identifikationskriterium für einen Chatbot ist derartig an-

gesetzt, dass ein Bot auf Twitter mehr als 50 Tweets pro Tag generieren muss103. Neben diesem

relativ simplen Kriterium existieren auch differenziertere Definitionen, die nicht nur die Frequenz

der Bot-Aktivität berücksichtigen, sondern Chatbots nach ihrer soziopolitischen Funktion, Ziel-

gruppe und eingesetzten Technologie klassifizieren. Demnach existieren Gruppen von

1. legitimen Chatbots, die sich bzw. ihr Unternehmen hauptsächlich selbst vermarkten (Mar-

keting-Bots),

2. hochaktiven Accounts mit einer geringeren Anzahl von Followern,

3. plattformübergreifenden Sharing-Bots, die Inhalte von anderen sozialen Netzwerken oder

Websites kopieren, und

4. hochentwickelten Bots, die auch mit Halb-Mensch-Halb-Bot-Konten gemischt werden

(nach Ferrara al. 2017).

In der Informatik werden Chatbots in Form von automatisierten Agenten definiert, die durch einen

Algorithmus gesteuert werden, um Nachrichten zu verbreiten und menschliches Verhalten nachzu-

ahmen, während sie ihre Bot-Identität verbergen können104. Technisch betrachtet, kann ein Chatbot

mehrere Social-Media-Accounts kontrollieren, um simultan eine große Menge an Menschen oder

Gruppen zu erreichen. Als Kommunikationskanal können hierbei Messenger-Anwendungen, Web-

suchmaschinen, Unternehmenswebseiten, Apps, PVA oder soziale Netzwerke dienen. Durch die zu-

grundeliegende Technik können Chatbots in einfache und fortgeschrittene Exemplare aufgeteilt

werden.

Als einfache Bot-Plattformen fungieren dabei meist Scriptsprachen-Applets (z.B. "python" oder

"VBA"), die auf eine finite, vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem er-

folgreichen Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren

fortgeschrittene Bot-Plattformen, die auf Algorithmen mit Künstlicher Intelligenz aufbauen. Sie

greifen zurück auf Elemente des maschinellen Lernens und dahinter geschaltete künstliche Neuro-

nale Netzwerke in der Deep-Learning-Anordnung. Der audio-textuelle Input und Output wird durch

NLP-Mechanismen organisiert und verarbeitet. Ihre Funktionalität geht über das simple Beantwor-

ten von Fragen hinaus und ermöglicht eine fortgeschrittene Mensch-Maschine-Interaktion mittels

Sprache oder Texteingaben. Im Idealfall soll der Mensch nicht merken, dass er sich mit einem Chat-

bot unterhält.

Inhaltlich lassen sich Bots in unterschiedliche Kategorien gliedern, z.B. Informieren über das Wetter

oder Verkehrsverspätungen, ein Unternehmen, ein Produkt oder eine politische Partei zu fördern.

103 Vgl. Howard & Kollanyi (2016) 104 Vgl. dazu Ferrara et al. (2017) und Bessi & Ferrara, (2017)

Page 48: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

45

Daher arbeiten nicht alle Bots interaktiv oder beteiligen sich an Diskussionen. Sie können auf legi-

time Weise als Dienstwerkzeuge verwendet werden, z.B. für die Öffentlichkeitsarbeit, und sind per

se nicht schädlich105.

Quelle: VDZ (2017), S.10

4.2. 2 MARKTPOTEN TIALE

Offiziell werden in Deutschland von zahlreichen Unternehmen, Institutionen und sogar Parteien

Chatbots in unterschiedlichem Umfang betrieben. So nutzt z.B. die CSU bei Facebook den Social

Bot "Leo Bot". Auf der Homepage der Bundesregierung gibt es einen virtuellen Chatbot-Adler. Die

FDP und SPD setzen wiederum Chatbots ein, die über Amazons Sprachassistenten Alexa zu errei-

chen sind. Das konkrete Marktpotential wurde noch nicht offiziell erhoben. Analysten haben jedoch

geschätzt, dass 2016 der US-Wirtschaft durch den theoretischen Ersatz von Arbeitsplätzen mit Chat-

bots ein Einsparpotential in Höhe von 65 Mrd. Dollar entstanden wäre (vgl. Abb 12).

Wie im vorangehenden Kapitel beschrieben, hat sich in den letzten Jahren besonders die Kategorie

der fortgeschrittenen Bot-Plattformen mit Hilfe von maschinellen Lerntechniken und Verbesserun-

gen in der Verarbeitung natürlicher Sprache stark weiterentwickelt. Das Marktpotential und die mit

dem Einsatz von Chatbots verbundenen Einsparungen sind für Technologiekonzerne sehr groß, da

sich autonome Agenten in die meisten Interfaces wie Websites, mobile Anwendungen wie Messen-

ger, Assistant Devices u.v.m. integrieren lassen (vgl. Abb. ). Vor diesem Hintergrund erscheint es

plausibel, dass Tech-Riesen wie Google, Amazon, Apple etc. (vgl. Abb. 13) viele Ressourcen darauf

aufwenden, Bot-Plattformen zu trainieren und zu perfektionieren. Berichten zufolge arbeiten allein

bei Amazon rund 5.000 Entwickler daran, Alexas KI zu trainieren und auszubauen106. Die wirtschaft-

lichen Perspektiven für den Einsatz von Chatbots sind groß: Gartner prognostizierte bereits 2011,

105 Vgl. Ferrara et al. (2016) 106 Vgl. Buxton (2017)

Abb. 11: Taxonomie von Chatbots

Page 49: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

46

dass 2020 bereits 85 Prozent aller Kunden-Unternehmen-Interaktionen durch Chatbots erfolgen107.

2016 betrug das Investitionsvolumen durch Risikokapitalgeber in Chatbot-Entwickler und Bot Start-

ups weltweit mindestens 170 Mio. Euro108.

Quelle: Vgl. Business Insider (2016)

Darüber hinaus sorgen Chatbots für eine neue Art von Kundenkonversionskanal im Rahmen des

"Sales-Funnel"-Ansatzes109, indem sie Nutzer direkt in die Onlineshops der jeweiligen Unternehmen

weiterleiten. Illustrative Beispiele sind der ChatShopper-Bot Emma von Zalando, Jana, der Chatbot

der Deutschen Post, der Ray-Ban Chatbot auf Facebook oder intelligente, persönliche Assistenten

wie Siri, Alexa oder Google Home. Nutzer haben die Möglichkeit, direkt über die Konversation mit

einem Chatbot zu einer Produktauswahl in einem Onlineshop zu gelangen oder sogar direkt in der

Konversation mit dem Bot ein Produkt zu erwerben.

Somit beginnen Chatbots und PVA im Marketing-Mix von E-Commerce-Unternehmen einen festen

Platz einzunehmen. Das Onlineverzeichnis Chatbots.org indexiert mittlerweile rund 1.338 aktive

Chatbots (Stand 03.01.2018). Rd. 500 davon sind der Kategorie "Branded Conversation" zugeordnet

- sie werden also im Zuge von gezielter Markenkommunikation für E-Commerce-Sales eingesetzt.

Zudem hat sich nach eigener Aussage die Anzahl von integrierten Facebook-Messenger-Bots von

11.000 Chatbots im Juni 2016 auf 100.000 im April 2017 fast verzehnfacht110.

Deren Funktionalität zielt ebenfalls darauf ab, entweder "Sponsored Messages" zu verbreiten oder

dem Nutzer direkt bzw. indirekt Waren zu verkaufen. Bei rund 23 Mio. aktiven Facebook-Nutzern

in Deutschland ergibt sich demnach für Händler ein enormes Marktpotential über einen komplett

neuen Absatzkanal.

107 Gartner Inc. Customer 360 Summit (2011), S. 2 108 Vgl. Rahgozar (2016) 109 "Ein Vertriebs- oder Sales-Funnel ist ein Trichter zur Identifikation von Verkaufsabschlüssen. Er stellt sicher,

dass die Umsatzplanung eines Vertriebsmitarbeiters oder -leiters mit einer Wahrscheinlichkeit von nahezu

100 Prozent auch in Vertriebserfolge umgesetzt wird", Vgl. dazu: Ahlers (2016) 110 VDZ (2017), S. 6

Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD

Page 50: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

47

Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017

Quelle: VDZ (2017), S.14

4.2. 3 NUTZERAKZEPTANZ

Nutzer sehen Chatbots dagegen bisher noch skeptisch. 2016 gab bei einer Befragung von 1.500

Onlinekunden noch jeder zweite Nutzer an, Chatbots ungern zu nutzen. Als Gründe hierfür gaben

62 Prozent an, dass Chatbots zu unpersönlich seien; die dahinterliegende Technik der Text-/Sprach-

erkennung zu ungenau sei (41 Prozent), die Bedienung zu umständlich ist (25 Prozent) oder der

Nutzen hinter dem Chatbot-Konzept nicht erkannt wurde (24 Prozent). Ein Sechstel aller Befragten

gab an, dass sie sich beobachtet fühlten111.

In einer Umfrage des BITKOMs aus demselben Jahr112 zeigte sich ebenfalls, dass mehr als die Hälfte

aller Befragten (54 Prozent) Chatbots ablehnen. Davon kritisierten 63 Prozent, dass sie nicht mit

einem Computer kommunizieren wollen; 54 Prozent zweifelten, dass Chatbots ihre Anfragen zuver-

lässiger als Menschen bearbeiten würden; 49 Prozent zweifelten, dass Chatbots zuverlässig sind

und 47 Prozent fanden, dass die Technologie für Chatbots noch nicht ausgereift sei (vgl. Abb. 14).

Eine repräsentative Umfrage von YouGov zu "Vorbehalten gegenüber Chatbots aus Kundensicht"

ergab 2017, dass neben den oben genannten Kritikpunkten nunmehr auch die Gefahr von Falsch-

meldungen (45 Prozent), die Gefährdung von Arbeitsplätzen (41 Prozent) und die mangelnde Un-

terscheidung von Mensch vs. Maschine (32 Prozent) eine Rolle spielen113.

Trotz aller Vorbehalte finden sich in der YouGov-Studie auch Hinweise auf ein hohes Marktpoten-

tial: Von den 49 Prozent der Nutzer, die Chatbots akzeptieren, finden rund zwei Drittel, dass Chat-

bots ihnen eine gewisse Unabhängigkeit gegenüber Öffnungszeiten verschaffen und sich mit ihrer

Hilfe Warteschleifen vermeiden lassen. 40 Prozent der Befragten waren zufrieden, dass sie durch

Chatbots keinen Zeitdruck empfanden, wie sonst bei Service-Mitarbeitern.

111 Alle Angaben vgl. Fittkau & Maaß Consulting (2016) 112 Vgl. BITKOM (2016a) 113 Vgl. YouGov (2017)

Page 51: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

48

Aber Nutzer sehen Chatbots nicht nur als Kundenservice-Tool: Laut einer Befragung des BITKOM

2016 gaben zwar 41 Prozent der Chatbot-Befürworter an, diese im Bereich des Kundenservice zu

sehen.

Quelle: Vgl. BITKOM (2016b)

Die Mehrheit der Befragten sah diese allerdings eher als Assistenten, welche die persönliche Ter-

minplanung übernehmen (68 Prozent), Veranstaltungstickets reservieren (64 Prozent) und Reisen

sowie Flüge online buchen (58 Prozent)114.

Im Gegensatz zu den legitimen Marketing-Bots (vgl. hierzu Kap. 4.2.1) kann die Funktion der sog.

Social Bots, die hauptsächlich in sozialen Netzwerken wie Facebook, Twitter oder Instagram anzu-

treffen sind, übergeordnet als öffentlichkeitswirksame Verstärkung der digitalen Agenda von Parti-

kularinteressen verstanden werden (im positiven als auch im negativen Sinne). Sie werden nicht nur

im Rahmen des politischen Framing eingesetzt, sondern auch für dezentrale Kampagnen von zah-

lenmäßig kleinen Interessensgemeinschaften. Da eine technisch fortgeschrittene Social-Bot-Platt-

form (vgl. Kap. 4.2.10) problemlos simultan mehrere (hundert) Social-Media-Accounts steuern kann

und damit potentiell Unmengen an negativen Inhalten über deren Ziele an eine digitale Öffentlich-

keit ausspielen kann, werden solchen Bot-Kategorien rufschädigende Meinungsbildung vorgewor-

fen115.

Nicht zuletzt vor dem Hintergrund des US-Wahlkampfs im Jahr 2016 und der Fake-News-Debatte

im Journalismus hat die Akzeptanz der Nutzer von Social Bots sehr gelitten. Bereits im Januar 2017

wurde im Deutschen Bundestag deswegen ein Thesenpapier des Büros für Technikfolgen-Abschät-

zung diskutiert, das unter anderem die Notwendigkeit einer Regulierung von Social Bots fordert,

da "Social Bots […] zur Veränderung der politischen Debattenkultur im Internet bei[tragen] und […]

114 Vgl. BITKOM (2016a) 115 Vgl. Woolley (2016)

Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016

Page 52: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

49

durch die massenweise Verbreitung von (Falsch-)Nachrichten zu einer Desinformation und 'Klima-

vergiftung' im öffentlichen Diskurs führen [können]. Social Bots bergen das Potential, das Vertrauen

in die Demokratie zu unterlaufen"116.

4.2. 4 ZUSAMMENFASSUNG UND AUSBLICK

Chatbots stehen als kommerzielles Produkt vor einem großen Problem: Auf der einen Seite genie-

ßen sie als Kommunikationskanal nur eine schwache Nutzerakzeptanz, und auf der anderen Seite

genießen sie einen zweifelhaften Ruf als Manipulationswerkzeuge in sozialen Netzwerken. Laut ei-

ner repräsentativen Onlinebefragung der Developer Week aus dem Mai 2017 stoßen Chatbots als

Kommunikationskanäle im deutschen Markt kaum auf Interesse: 71 Prozent aller deutschen Inter-

netznutzer ab 18 Jahren wollten Chatbots 2017 noch nicht nutzen und 46 Prozent wussten gar nicht,

was Chatbots überhaupt sind. Darüber hinaus ist ein Drittel der Befragten der Meinung, dass Chat-

bots in ihrer Funktionalität unausgereift sind117.

Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018

Quelle: Übersicht von problematischen Dialogen mit Chatbots (#1: Shop Spring Bot, #2: Poncho.is, #3: 1–800-Flowers

Bot, und #4 SureBot), Vgl. chatbot.fail (2018)

Ihre Funktionalität zeichnet sich marktseitig als der zentrale Faktor ab, welcher für ihre geringe Ak-

zeptanz seitens der Kunden sorgt. Als neuartiger Kommunikationskanal für Kundenakquise soll ein

Chatbot im Sinne eines Sales-Funnel eine direkte Konversion schaffen118. Dieser Vorgang ist auf

116 Vgl. Kind et al. (2017) 117 Alle Statistiken der Developer Week (DWX) nach: Fitschen & Maaß Consulting (2017), S. 12, 13,16 118 In der Disziplin des Marketings die Bezeichnung der Veränderung des Status einer nicht zahlenden Person

zu einem (Marken-) Kunden. Vgl. dazu Patterson, L. (2007), S. 185ff.

Page 53: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

50

allen Ebenen mit Akquisitionskosten verbunden, und nur ein kleiner Bruchteil der adressierten Ziel-

personen kommt durch einen Sales-Funnel und sorgt für ein positives Return-on-Investment für

das Unternehmen119.

Dabei ist entscheidend, dass der Konversionsvorgang optimal ablaufen kann, sodass negative Er-

fahrungen einen unentschlossenen Kunden nicht verprellen. Wenn jedoch ein Drittel aller deut-

schen Internetnutzer der Meinung ist, dass die Chatbot-Technologie noch nicht ausgereift ist, und

70 Prozent sie gar nicht erst nutzen möchten, dann stellt dies das grundlegende Konzept eines

Chatbots in Frage. Wenn ein Kunde mitten in einem Dialog mit dem Chatbot steht, welcher aber

nicht versteht, was der Kunde von ihm will oder demselben Kunden grundsätzlich falsche Informa-

tionen zuliefert, kann die Konversion nicht optimal ablaufen (vgl. dazu Abb. ).

Um eine optimale Qualitätskontrolle gewährleisten zu können, müssen die Chatbots durch Ser-

vicemitarbeiter überwacht werden, was wiederum für viel zu hohen Mehraufwand sorgen würde.

Aus diesem Grund hat bspw. Facebook beschlossen, seine sehr profilierte Chatbot-Plattform "M"

einzustellen120. Facebook-Messenger-Chatbots konnten automatisiert nur auf rd. 30 Prozent der

Kundenanfragen antworten121 und benötigten für die restlichen 70 Prozent der Anfragen einen

menschlichen Intermediär.

Während nutzerseitig die mangelnde Akzeptanz von Chatbots die Entwicklung aufhält, hindert un-

ternehmensseitig die mangelnde Erfolgs-Messbarkeit von Chatbots eine tiefergehende Integration

in den Marketing-Mix122. Bereits 2017 fand das Marktforschungsinstitut Forrester heraus, dass zwar

rd. 57 Prozent aller Unternehmen weltweit Chatbots für CRM-Prozesse nutzen oder zu nutzen pla-

nen123. Im Fazit aber kamen die Marktforscher zu dem Schluss, dass die meisten Unternehmen die

Chatbots schlecht und unwirtschaftlich betreiben würden124. Und in der Tat lässt sich ein Return-

on-Investment nicht genau kalkulieren, wenn man keine Ziele, Erfolgskennzahlen oder andere Met-

riken wie Verweildauer oder Konversationslänge quantifizieren kann. In ihrer gegenwärtigen Form

bieten die meisten Anbieter diese Tracking-Dienstleistungen nicht an125. Da die Implementierung

von Chatbots jedoch immer ein Budget voraussetzt, wird es für Werbungtreibende und Sales-Ab-

teilungen in Unternehmen schwer, ein Investment in eine Produktkategorie wie Chatbots zu ver-

antworten - insbesondere, wenn diese kaum Anklang beim Nutzer findet.

Von der Kategorie der Social Bots kann angenommen werden, dass sie ihr Nischendasein in dem

Bereich des politischen Microtargeting zum Zweck der gezielten Wähleransprache weiter fortsetzen

wird. Der oft mit dem Gesetz konfligierende Einsatz von Big-Data-gestützten Social-Bot-Plattfor-

men durch politische Randgruppen und die darauf folgenden staatlichen Ermittlungen126 haben

autonomen, KI-getriebenen Akteuren einen enormen Imageschaden verpasst. Der Technologiekon-

119 Vgl. Botteri (2008) 120 Vgl. Fiegermann (2018) 121 Vgl. Orlowski (2017) 122 Vgl. Porcellana (2018) 123 Vgl. Wang, X. et al. (2017) 124 Vgl. Boutin (2017) 125 Eine Ausnahme bilden externe Dienstleister wie z.B. "AirPR", die eine mediale Reichweite von Chatbots

messen können, vgl. dazu AirPR (2018) 126 Vgl. Holland (2017)

Page 54: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

51

zern Microsoft war sogar gezwungen, seinen selbstlernenden Twitter-Social-Bot "TAY" abzuschal-

ten, nachdem dieser durch gezielte Manipulationen am Informationsinput durch eine organisierte

Randgruppe zu rassistischen und rechtsnationalen Äußerungen konditioniert wurde127.

Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017

Quelle: Vgl. Panetta (2017)

Insgesamt lässt sich zusammenfassen, dass Chatbots und Social-Bots zwar ein starkes Marktpoten-

tial aufweisen, dieses jedoch im Gegensatz zu PVA nicht so bald monetarisieren werden können, da

sie wenig akzeptiert sind und die Technologie hinter den Bot-Plattformen noch nicht gänzlich aus-

gereift ist. Zwar gibt es vereinzelt auch positive Beispiele wie den Microsoft XiaoIce Bot128, der in

China täglich eine Zielgruppe von 40 Mio. Nutzern erreicht, oder den preisgekrönten Mitsuku Bot,

welchem eine der fortschrittlichsten KI attestiert wird und der täuschend ähnliche Dialoge mit Men-

schen führen kann129. Gartner Inc. aber verortete die Technologie von Chatbots und Smart Robots

im Rahmen seiner Hype-Zyklus-Analyse für neue Technologien sehr nahe am Gipfel der überzoge-

nen Erwartungen (vgl. dazu Abb. ). Diese bedeutet, dass Chatbots und Social Bots voraussichtlich

schon sehr bald im Tal der Enttäuschungen landen werden, da sie nicht alle Erwartungen von Un-

ternehmen und Kunden gleichermaßen erfüllen können. Erst in fünf bis zehn Jahren ist laut Gartner

mit einer (für die Wirtschaft) erfolgreichen und produktiven Implementierung dieser Technologie

zu rechnen.

127 Vgl. Lee, P. (2016) 128 Vgl. Microsoft (2017) 129 Mitsuku Bot gewann in den Jahren 2013, 2016, und 2017 den Loebner Preis als menschenähnlichster Chat-

bot, vgl. dazu Mitsuku Bot (2018)

Page 55: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

52

4.3 ALGOR ITHMISCHE OPTIM IERUNG VON

EMPFEHLUNGEN IN ON LINEMEDIEN UND IM E-

COMMER CE

Algorithmen gelten als unverzichtbarer Bestandteil für die Ordnung immenser Datenmengen. Im

Onlinemedien-Markt sind sie insbesondere für digitale Dienste relevant, die zwischen Inhaltsange-

boten und Nutzern vermitteln – sogenannte Intermediäre130. Sie üben mittlerweile einen großen

Einfluss auf viele Bereiche unseres Alltags aus und werden bereits in den verschiedensten Gebieten

eingesetzt131. Besonders bewusst sind uns Algorithmen bei der Informationssuche über bspw.

Google, Facebook oder YouTube132.

Diese Plattformen nutzen Prozesse der algorithmischen Entscheidungsfindung (algorithmic deci-

sion making, nachfolgend: ADM) für die nutzerspezifische Zusammenstellung von Informationen.

ADM umfasst dabei "den Gesamtprozess von der Datenerfassung über die Datenanalyse bis hin zur

Deutung und Interpretation der Ergebnisse und der Ableitung einer Entscheidung oder einer Ent-

scheidungsempfehlung aus den Ergebnissen"133. Lernende Algorithmen können durch die Be-

obachtung vieler Fälle dabei Regeln ableiten und auf neue Fälle anwenden134.

Nachfolgend wird anhand ausgewählter Beispiele erläutert, auf welche Informationen Algorithmen

im Bereich Onlinemedien und E-Commerce zugreifen. Anschließend wird auf die Akzeptanz von

ADM-Prozessen durch die Nutzer eingegangen, wobei auch die Konzepte Filter Bubble und Echo

Chamber beleuchtet werden. Darüber hinaus werden Potentiale auf dem Markt bewertet sowie ein

Ausblick gegeben.

4.3. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE

Generell stellen algorithmische Systeme zur Entscheidungsfindung proprietäre Technologien dar,

die von Medienunternehmen eingesetzt werden, um ihren Nutzern oder Kunden die Auswahl von

Produkten zu erleichtern. Onlinemedien setzen sie vornehmlich ein, um Nutzern auf Basis von be-

reits konsumierten Musikstücken, Filmen oder Artikeln inhaltlich ähnliche Vorschläge anzubieten,

damit diese im Endeffekt mehr Zeit auf den jeweiligen Plattformen verbringen. Im E-Commerce

dienen sie dazu, dem Kunden auf Basis von bereits gekauften Produkten und getätigten Suchan-

fragen, Produktvorschläge zu unterbreiten. Die Implementierung von ADM-Prozessen dient hier zur

Steigerung des Absatzes. Als Technologie hat ADM bereits die Marktreife erreicht und wird weit-

läufig im deutschen Markt für Onlinemedien eingesetzt. Darüber hinaus lassen sich durch ADM

auch weitere Probleme auf der Anbieterseite lösen.

130 Schulz & Dankert (2016), S. 17 131 Insbesondere in den USA bspw. in Universitäten (Vergabe von Hochschulplätzen), im Finanzsektor (Bestim-

mung von Kreditausfallrisiken, Portfoliomanagement für Finanzanleger), für Kriminalitätsprognosen und

Predictive Policing, in Smart Home-Anwendungen, für Einkaufsassistenten, automatisierte Preissetzung,

autonomes Fahren u.a. (vgl. Lischka & Klingel, 2017) 132 Ecke (2016), S. 21 133 Vieth & Wagner (2017), S. 10 134 Vgl. ebd., S. 10f.

Page 56: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

53

Die Warenwirtschaftssysteme von Händlern sind z.B. immer häufiger an Onlineshops oder Markt-

plätze wie eBay oder Amazon angebunden, um neue Märkte und Regionen erschließen zu können.

Die Nutzer dieser Plattformen werden demzufolge mit einer stetig wachsenden Produktpalette kon-

frontiert, aus der die zu individuellen Bedürfnissen passenden Artikel gefunden werden müssen. Zur

Erleichterung der Auswahl werden insbesondere auf großen Marktplätzen verschiedene Algorith-

men eingesetzt, die auf Benutzerdaten basieren. Seit der erstmaligen Vorstellung derartiger Ent-

scheidungshilfen im Jahr 1992 durch Goldberg et al.135 wurden viele verschiedene Verfahren und

Technologien entwickelt. Die meisten aktuell angewandten Methoden empfehlen Artikel mit der

höchsten Kaufwahrscheinlichkeit.

Das gängigste Empfehlungssystem, genannt "Collaborative Filtering", gruppiert Personen mit ähn-

lichen Merkmalen und schlägt von dieser Kundengruppe gekaufte Produkte vor136. Annahme hier-

bei ist, dass Nutzer, die sich in der Vergangenheit beim Kauf von Artikeln einig waren, auch beim

Kauf anderer Produkte ähnliche Vorlieben haben. Neben diesem nutzerbasierten wird auch das ar-

tikelbasierte Verfahren angewendet. Das Verfahren führt zu Empfehlungen von mit bereits gekauf-

ten Produkten zu verwandten oder gleichartigen Erzeugnissen. Bekanntheit erwarb die Methode

durch die Plattform Amazon, welche mit dem Hinweis „Das konnte Sie auch interessieren“ weitere

Artikel anbietet. Diese Verfahren stoßen allerdings schnell an ihre Grenzen. Denn: Personen mit

gleichen Verhaltensmustern zu gruppieren, ist nur in einem gewissen Rahmen möglich und auch

bei sehr großen Gruppen ist schnell eine gewisse Berechnungsdauer erreicht. Sowohl die nutzer-

als auch die artikelbasierte Gruppierung sind Formen des sogenannten Collaborative Filterings. Bei

beiden Clustermethoden werden die Empfehlungen durch andere Nutzer beeinflusst137.

Eine weitere Methode stellt das sog. "Content-Based Filterings" dar. Dieser Algorithmus geht in-

haltsanalytisch vor und misst spezifische Eigenschaften bereits gekaufter Produkte. Auf Basis von

Parametern wie Größe, Farbe, Material oder Form werden ähnliche Artikel empfohlen. Ein Nachteil

hier ist, dass dem Nutzer dabei hauptsächlich bereits Bekanntes präsentiert wird. Zudem sind be-

stimmte Produktgruppen wie etwa Musik oder Bilder schwer zu analysieren. Zur Optimierung der

Empfehlungen werden die Verfahren des Collaborative und Content-Based Filterings daher häufig

zusammen angewendet – bspw. auch von Amazon. Noch einen Schritt weiter gehen Data-Mining-

Verfahren, welche auf den Filter-Methoden basieren und zusätzlich Assoziationsanalysen anwen-

den138. Aus diesen gehen Assoziationsregeln hervor, welche Korrelationen zwischen dem Kauf ver-

schiedener Produkte beschreiben. Eine weit verbreitete Methode zur Findung dieser Regeln ist der

Apriori-Algorithmus, welcher sich insbesondere bei kleinen oder mittleren Datenmengen anbietet.

Für sehr große Datensets führt die Komplexität der Assoziationsregeln allerdings zu langen Lauf-

zeiten, was zu den modifizierten Verfahren "AprioriTID" und "AprioriHybrid" führte139.

Bei Streamingdiensten wie Netflix, Amazon Video oder Spotify greifen aufgrund ihrer besonderen

Eigenschaften diese Methoden nur bedingt. Deshalb arbeiten Streaming-Media-Dienste an ande-

ren ausgeklügelten Empfehlungssystemen. Basierten bspw. die Empfehlungen von Netflix früher

allein auf der Nutzerbewertung ausgeliehener DVDs von eins bis fünf Sternen140, steht der Plattform

135 Vgl. Goldberg et al. (1992) 136 Linden et al. (2003), S.76f. und Guo et al. (2017), S. 2 137 Linden et al. (2003), S. 77. und Guo et al. (2017), S. 3 138 Guo e.a. (2017), S. 3 139 Lazcoretta (2008), S. 1422f. 140 Gomes-Uribe & Hunt (2016), S. 2

Page 57: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

54

heute aufgrund umfangreicher Nutzerdaten ein Vielfaches mehr an Möglichkeiten zur Verfügung.

In der Regel halten die Unternehmen die Details der algorithmischen Entscheidungsprozesse aber

unter Verschluss (vgl. Kapitel 0). Der Musik-Dienst Spotify erklärt seinen Usern lediglich, dass das

Unternehmen die Musik-Empfehlungen auf Basis deren Geschmacks auswählt und sich dabei unter

anderem an Künstlern orientiert, die zuvor gehört wurden141. Für die nutzbringende Auswertung

von Userdaten gründete das Unternehmen eine speziell ausgerichtete Analyse-Abteilung und ar-

beitet mit vielen Datenspezialisten zusammen142. Netflix versucht, das Empfehlungsverfahren trans-

parenter zu gestalten und veröffentlichte Anfang 2016 die Funktionsweisen der Algorithmen des

unternehmenseigenen Empfehlungssystems (vgl. Tab. 3).

Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems

ALGORITHMUS FUNKTIONSWEISE

Personalized

Video Ranker

Sortiert Genres sowie der Videos darin mit Hilfe von persönlichen Nutzervorlieben so-

wie (unpersönlicher) Beliebtheit.

Top N Video

Ranker

Empfiehlt besonders gut zu persönlichen Vorlieben passende Filme innerhalb der ein-

zelnen Genres.

Trending Now Empfiehlt kurzzeitig spezifische Filme auf Grundlage von (1) saisonalen Effekten wie

etwa dem Valentinstag, der zu steigendem Interesse an Romantikfilmen führt, oder (2)

einmaligen Ereignissen wie bspw. Umweltkatastrophen, nach denen häufiger Doku-

mentarfilme zum Thema rezipiert werden.

Continue Wat-

ching

Empfiehlt kürzlich abgebrochene Filme, sofern diese anhand verschiedener Kriterien

darauf schließen lassen, dass der Nutzer sie gern weitersehen möchte (seit dem Ab-

bruch verstrichene Zeit, Zeitpunkt des Abbruchs im Film, Anzahl und Art der in der

Zwischenzeit gesehenen Videos, genutzte Endgeräte).

Video-Video-

Similarity

(Because You

Watched)

Der unpersonalisierte Algorithmus erstellt zu jedem Film einen Katalog ähnlicher Titel.

Dem Nutzer wird eine Auswahl davon mit Hilfe des Personalized Video Rankers ange-

zeigt.

Page

Generation

Unter Beachtung schwankender Interessen bei der Nutzung (etwa aufgrund der Tei-

lung von Accounts in einem Haushalt, Anlass und Zeitpunkt der Nutzung sowie ver-

schiedener Stimmungslagen) stellt der Algorithmus eine Filmauswahl zusammen, die

ein schnelles Überspringen eventuell uninteressanter Filme ermöglichen soll.

Evidence

Selection

Wählt personalisiert hilfreiche Informationen zu einem Film aus (bspw. Bilder, prog-

nostizierte Bewertung des Films oder Informationen zum Film wie Awards, Besetzung

oder andere Metadaten).

Search Mehrere Algorithmen optimieren die Suchfunktion. Zu dem eingegebenen Begriff

werden gesucht: (1) Filmtitel, (2) Konzepte wie z.B. Genres und (3) Filmtitel innerhalb

der identifizierten Konzepte.

141 Vgl. Spotify (2018) 142 Vgl. Seed Scientific (2015)

Page 58: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

55

Quelle: Gomes-Uribe & Hunt (2016), S. 2ff.

Soziale Netzwerke nutzen Algorithmen für die Zusammenstellung des Newsfeeds – so auch die

Plattform Facebook, welche in Deutschland von rund 23 Millionen Menschen täglich und weltweit

von circa zwei Milliarden Menschen genutzt wird143. Um für den Nutzer interessante Inhalte zusam-

menzustellen, werden dessen Vorlieben analysiert. Dabei spielen insbesondere die Kontakthäufig-

keit mit Facebook-Freunden eine Rolle, das Liken und Kommentieren von Inhalten144 sowie die

Aktualität von Beiträgen145. Zudem können User durch verschiedene Auswahlmöglichkeiten in den

Einstellungen auch selbst Einfluss nehmen146. Es wird geschätzt, dass durchschnittlich nur 35 Pro-

zent der Freunde eines Nutzers dessen Post sehen können. In den Algorithmus, der ehemals unter

dem inoffiziellen Namen "EdgeRank" bekannt wurde, fließen vermutlich noch weitaus mehr Fakto-

ren ein147. Dass diese unter Berufung auf die Wahrung von Geschäftsgeheimnissen nicht offenge-

legt werden, steht unter starker Kritik (vgl. Kapitel 0). Fehlende Transparenz wird dabei nicht nur bei

Newsfeed-Algorithmen wie beispielsweise von Facebook oder Linked-In gesehen, sondern auch bei

Suchalgorithmen wie etwa von Google.

4.3. 2 MARKTPOTEN TIALE

Moderne Analysemethoden haben ein hohes Potential für die signifikante Verbesserung wichtiger

Unternehmenskennzahlen wie bspw. Wachstum, Effizienz und Effektivität148. In einer weltweiten Be-

fragung McKinseys gaben 43 Prozent der befragten Verkaufsorganisationen an, Analytics zur Opti-

mierung ihrer Geschäftsprozesse zu nutzen. Schnell wachsende Unternehmen149 nutzten derartige

Analyseverfahren dabei häufiger als langsam wachsende150 (53 Prozent im Vergleich zu 37 Prozent).

Die Kombination von Analytics und intelligenter Automation führt laut befragter Unternehmen zur

häufigeren Erkennung und Nutzung von Verkaufsmöglichkeiten. Denn so können insbesondere

Produkte mit der höchsten Verkaufswahrscheinlichkeit sowie der optimale Zeitpunkt der Kunden-

ansprache identifiziert werden. Ein IT-Dienstleistungsunternehmen gab bspw. an, mit Hilfe von Ana-

lytics die Lead-Conversion Rate um 30 Prozent gesteigert zu haben151. Zwar bezog sich die Befra-

gung auf Geschäftsbeziehungen im B2B-Bereich, jedoch lassen sich die Erkenntnisse auch auf den

B2C-Markt übertragen.

Auch Online-Shoppingportale setzen umfangreiche Analyseverfahren zur Umsatzsteigerung ein. Ei-

nem Interview mit dessen Vizepräsident Misra zu Folge beschäftigt Snapdeal ein Team von 50 In-

genieuren mit dem Schreiben von Algorithmen. So konnten die algorithmisch initiierten Verkäufe

innerhalb eines Jahres von 15 auf bis zu 40 Prozent gesteigert werden152. Das Verfahren hat das

Potential, das Kaufverhalten von Kunden vielleicht sogar besser vorhersagen, als der Kunde selbst.

So gab es bereits 2012 einen aufmerksamkeitsstarken Fall von prognostizierten Konsumwünschen

143 Vgl. Facebook (2017a) 144 Vgl. Facebook (2015) 145 Goldsborough (2017), S. 61 146 Vgl. Facebook (2015) 147 Goldsborough (2017), S. 61 148 Atkins et al. (2016), S. 1 149 Jährliche Wachstumsrate von über sechs Prozent 150 Jährliche Wachstumsrate von unter fünf Prozent 151 Atkins et al. (2016), S. 2f. 152 Vgl. Misra (2015) in: Singh (2015)

Page 59: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

56

in den USA, als eine Supermarktkette die Schwangerschaft einer Minderjährigen erkannte noch be-

vor es der Vater tat. Aufgrund des Kundenkartensystems und implementierter Algorithmen wurde

das veränderte Konsumverhalten des Mädchens erkannt und an Schwangere gerichtete Werbung

an sie versandt153.

Auch für den Onlinemedien-Markt spielen Algorithmen eine wichtige Rolle, z.B. im Bereich des Be-

havioral Targetings. Automatisierte Werbung (oder auch "Programmatic Advertising") und Echtzeit-

Werbeauktionen (oder auch "Real-Time-Bidding") sind bereits seit einigen Jahren etablierte Ver-

fahren in der Werbeindustrie. Beim Programmatic Advertising werden automatisiert sehr zielgrup-

penspezifische und damit hochwertige Nutzergruppen auf Basis der Nutzerdaten von Publishern

über Nachfrageseiten-Plattformen angefragt und über Angebotsseiten-Plattformen vermarktet –

entweder über Festpreise oder über Real-Time-Bidding-Auktionen. Solche Werbeplatzierungen in

sehr spezifischen Zielgruppen konnten in der Vergangenheit nur über direkte (aufwändige) Ver-

handlungen mit Premium-Publishern und spezialisierten Werbenetzwerken realisiert werden154.

Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die First-Party-Daten des Publi-

shers in unterschiedlichem Umfang mit Third-Party-Daten zum Browserverlauf des Nutzers kombi-

niert, die Werbenetzwerke über Tracker-Cookies generieren. Abhängig vom Browserverhalten des

Nutzers wird Werbung eingeblendet, wodurch Streuverluste und Kosten minimiert werden können.

Mit Algorithmen kann berechnet werden, wie gut Werbeinhalte und Nutzer zusammenpassen. Chen

und Stallart zeigen in ihrer Studie, dass sich der Umsatz im Vergleich zu traditionellen Anzeigen

verdoppeln kann155. Für das Jahr 2017 wurde für automatisierte Werbung in Deutschland insgesamt

ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen Marktanteil von etwa 45 Prozent an digi-

taler Display-Werbung ausmacht156.

4.3. 3 GESELLSCHAFTL ICHER D ISKURS UM ADM -PROZESSE

Der Video-Streaming-Dienst Netflix verschaffte den Empfehlungs-Algorithmen bereits im Jahr 2006

internationale Aufmerksamkeit, indem er den Netflix Prize ausschrieb. Gegenstand des Wettbe-

werbs war die Verbesserung des Collaborative Filtering-Algorithmus zur Vorhersage der Nutzerbe-

wertung von Filmen. Rund 50.000 Teilnehmer bewarben sich und diskutierten im öffentlichen On-

line-Forum des Netflix Prizes Fortschritte und Probleme bei der Entwicklung. Drei Jahre später

wurde der Gewinner gekürt und erhielt eine Mio. US-Dollar157. Der öffentliche Diskurs um das ge-

naue Vorgehen der ADM-Prozesse erscheint als Ausnahme – häufiger wird mangelnde Transparenz

kritisiert.

Spätestens seitdem der Internetaktivist Eli Pariser im Jahr 2011 das Buch Filter Bubble veröffent-

lichte, werden algorithmische Empfehlungen kontrovers diskutiert. Laut Pariser würden mit Hilfe

von Personalisierungsalgorithmen Filterblasen geschaffen, in denen sich allein die Interessen des

Nutzers widerspiegeln und die Informationsvielfalt eingeschränkt wird158. In Bezug auf soziale Netz-

werke hat sich zudem das Konzept der Echokammer etabliert, welches eine Weltsichtverengung

153 Vgl. Duhigg (2012) 154 Vgl. Simons, J. (2016): Programmatic Advertising (Digitalwiki) und Absatzwirtschaft (2015): Werbebudgets

verlagern sich in Richtung Programmatic zulasten des TV 155 Vgl. Chen & Stallaert (2014) 156 Vgl. Gillner (2017) 157 Vgl. Netflix (2009) 158 Vgl. Pariser (2011)

Page 60: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

57

aufgrund des Umgangs mit Gleichgesinnten beschreibt. Die im Online-Raum befindlichen Meinun-

gen würden so verstärkt werden, wobei der fehlende Widerspruch zu Gruppenpolarisierungspro-

zessen führen könne159.

In späteren Studien konnte die Filterblase allerdings weder in Bezug auf Google160, noch auf Face-

book161 festgestellt werden. Eine im Dezember 2017 auf dem Chaos Communication Congress vor-

gestellte Analyse von Twitter-Inhalten stellt das Konzept ebenfalls in Frage. Untersucht wurde die

Verbreitung von Fake News mit rassistischem Hintergrund. Dass deren Richtigstellung auch auf der

Timeline der eng vernetzten, politisch eher rechtsgesinnten Gruppe der Fake-News-Verbreiter auf-

taucht, spricht gegen eine Filterblase. Für den Austausch an Informationen sorgten vor allem klas-

sische Medien wie Spiegel Online oder die Welt, denen die Gruppe ebenfalls folgte162.

Pariser räumte in einem Interview im Mai 2017 ein, dass er beim Schreiben seines Buchs das Wachs-

tum der Medienorganisationen nicht ausreichend bedacht habe und dass diese die Blasen durchaus

durchdringen können163. Hinsichtlich der politischen Polarisierung konnte sogar ein negativer Zu-

sammenhang zur Internet- bzw. Social Media-Nutzung festgestellt werden. Zwar wird dem Internet

eine Rolle in Polarisierungsprozessen nicht abgesprochen. Eine Verstärkung von Meinungsunter-

schieden wurde allerdings vor allem bei Personen höheren Alters festgestellt – einer Gruppe, in der

die Internetnutzung am niedrigsten ist164.

Unabhängig von der Existenz von Filterblase und Echokammer werden Plattformen wie Google,

Facebook oder Linked-In als wichtige Quellen zur kulturellen und politischen Meinungsbildung be-

trachtet. Mit ihren Such- und Newsfeed-Algorithmen selektieren sie vor und nehmen somit Ga-

tekeeper-Funktionen ein165. Mögliche Auswirkungen der Algorithmen-Anwendung werden in der

Wissenschaft und Öffentlichkeit kontrovers diskutiert. Die Wissenschaftlichen Dienste des Deut-

schen Bundestags etwa gehen davon, dass "die Informationsbeschaffung und damit die Meinungs-

bildung durch nicht klar erkennbare algorithmische Mechanismen beeinfluss- und sogar manipu-

lierbar werden"166.

Tatsächlich machte der Facebook-Konzern im Jahr 2014 negative Schlagzeilen mit manipulierten

Timelines167. Wissenschaftler untersuchten, welchen Einfluss soziale Netzwerke auf die Emotionen

der User ausüben und reduzierten dafür bei rund 700.000 Usern eine Woche lang positive oder

negative Inhalte. Insbesondere die Verringerung negativ konnotierter Beiträge im Newsfeed wies

Effekte aus: Die Versuchsgruppe postete im Vergleich zur Kontrollgruppe mehr positive Inhalte168

und weniger negative169. Die Effektstärke ist zwar gering, doch durch die hohe Mitgliederanzahl

Facebooks sind durch derartige Emotionsübertragungen dennoch viele Menschen betroffen.

159 Vgl. Moscovici & Zavalloni (1969) und Sunstein (2009) 160 Vgl. Kraft et al. (2017) 161 Vgl. Stark (2017) 162 Vgl. Kreil (2017) und Meineck (2017) 163 Vgl. Pariser (2011) in: Hempel (2017) 164 Vgl. Boxell et al. (2017) 165 Vgl. ebd., S. 4 166 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 6 und Oertel (2017), S. 13 167 Vgl. dazu z.B. Dambeck (2014) 168 (t = −5.63; p<.001, Cohen’s d = 0,02) Vgl. dazu: Kramer et.al. (2014) 169 (t = +2,71; p<0.05; d = 0,001) Vgl. ebd.

Page 61: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

58

Darüber hinaus können Algorithmen in sozialen Netzwerken auch demokratische Grundprinzipien

berühren. Im Rahmen eines Experiments im Jahr 2010 wurde beispielsweise festgestellt, dass über

Facebooks Newsfeed auch das Wahlverhalten beeinflusst werden kann. Konkret wurde von Face-

book zur Wahl aufgerufen, was 0,14 Prozent der Wahlberechtigten (340.000 Personen) animierte,

tatsächlich wählen zu gehen170.

In einer Studie der Bertelsmann Stiftung wird festgehalten, dass durch Algorithmen zum Teil "eine

massive Divergenz zwischen inhaltlicher Qualität und algorithmisch ermittelter Relevanz ent-

steht"171. Journalistische oder wissenschaftliche Qualitätskriterien würden sich in der Regel nicht

mit durch ADM-Prozessen Bedeutung verliehenen Kriterien decken. Die deskriptive Funktionsweise

der Algorithmen, das heißt die Orientierung an vergangenem Verhalten, wird von Nutzern zudem

häufig normativ wahrgenommen172. Es wird resümiert, dass Intermediäre "einen großen, aber bis-

lang nicht entscheidenden Einfluss auf die öffentliche Meinungsbildung" ausüben173.

Allerdings spielen ADM-Prozesse eine zentrale Rolle bei der Strukturierung von Öffentlichkeit und

beeinflussen auch die Arbeit klassischer Medien (vgl. Kapitel 0). Aktuell wird im Rahmen des Projekts

"Algorithmischer Strukturwandel der Öffentlichkeit" (AlgStrOeff) untersucht, inwiefern algorithmi-

sche Selektionsmechanismen die politische Informationskompetenz beeinflussen. Das Projekt ent-

stand aus dem durch das Bundesministerium für Bildung und Forschung veranstalteten Forum für

"Innovations- und Technikanalyse (ITA) 2017", welches Chancen und Risiken der Digitalisierung dis-

kutierte.

Insgesamt werden der mögliche Einfluss, den Intermediäre durch die Anwendung von Algorithmen

ausüben könnten, sowie die Notwendigkeit und deren Kontrolle zunehmend diskutiert. Heiko Maas,

Bundesminister der Justiz und für Verbraucherschutz, sprach sich bereits 2015 für die Einführung

eines "Algorithmen-TÜVs" aus, welcher zu mehr Transparenz und Vertrauen führen könne. "Jeder

Algorithmus basiert auf Annahmen, die falsch oder gar diskriminierend sein können", so Maas. Zu-

dem bestehe die Gefahr der Einschränkung von Handlungs- und Entscheidungsfreiheit174. Auch die

Verbraucherzentrale Bundesverband empfiehlt die Einrichtung eines staatlich legitimierten, umfas-

senden Kontrollsystems in seinem im Dezember 2017 veröffentlichten Positionspapier175.

Im Gegensatz dazu betont Matthias Spielkamp von der Institution Algorithm Watch in einem Inter-

view, dass verstärkt auf die Durchsetzung bereits bestehender Antidiskriminierungsgesetze geach-

tet werden müsse. Eine Institutionalisierung der Algorithmenkontrolle erachtet er als nicht notwen-

dig176. Ebenso weisen die Wissenschaftlichen Dienste darauf hin, dass das Telemediengesetz und

das Wettbewerbsrecht auf algorithmengesteuerten Plattformen bereits Anwendung finden. Den-

noch sehen sie einen Bedarf an zusätzlichen gesetzlichen Regelungen177.

Neben dem Einfluss, den ADM-Prozesse auf Meinungsbildung, Entscheidungsfreiheit und andere

Vorgänge ausüben könnten, wird häufig auch deren Funktionalität diskutiert und kritisiert. Der Net-

flix-Algorithmus schlage zum Beispiel monatelang die gleichen Inhalte vor und behalte auch Filme

170 Vgl. Bond (2012) 171 Vgl. Lischka & Stöcker (2017), S. 11 172 Vgl. Ebd. 173 Vgl. Lischka & Stöcker (2017), S. 61 174 Vgl. Maas (2015) 175 Vgl. Verbraucherzentrale Bundesverband e.V. (2017), S. 8 176 Vgl. Spielkamp in: Beuth (2017a) 177 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 16

Page 62: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

59

in der Empfehlungsliste, die bereits gesehen wurden. Stern-Redakteur Fröhlich betitelte den Algo-

rithmus als "Zwangsbeglückung" und forderte eine Block-Funktion von Inhalten und die Möglich-

keit des gänzlichen Zurücksetzens. Zu Facebook lassen sich im Internet Beiträge finden, die zu er-

klären versuchen, wie der Newsfeed-Algorithmus umgangen werden könne178. Im Bereich des Mu-

sikstreamings scheinen algorithmisch optimierte Empfehlungen tendenziell besser anzukommen,

bspw. bei Spotify179. Öffentliche Umfragen zur Zufriedenheit der Nutzer mit Empfehlungen bzw.

der Auswahl an Informationen existieren derzeit noch nicht.

4.3. 4 ZUSAMMENFASSUNG UND AUSBLICK

Im Jahr 2016 wurde der globale algorithmische Handelsmarkt auf einen Wert von rund 9,5 Mrd. US-

Dollar geschätzt. Hinsichtlich der jährlichen Wachstumsrate schwanken die Schätzungen von Exper-

ten von 3,7 bis zu zehn Prozent innerhalb der nächsten drei bis sieben Jahre180. Laut Gartner sind

das automatisierte Preisgebungsverfahren und die Optimierung von Empfehlungen die bedeu-

tendsten algorithmenbasierten Möglichkeiten zur Umsatzsteigerung181. Insgesamt müssten bei Un-

ternehmensgründungen verstärkt algorithmische Geschäftsmodelle bedacht werden, so Steve

Prentice. Der ehemalige Vizepräsident Gartners geht davon aus, dass Algorithmen eine stärkere

Disruption hervorrufen werden als die Digitalisierung. Dabei zieht er einen Vergleich zu den Verän-

derungen, die mit dem Aufkommen von mobilen Geräten und Appstores im Softwaremarkt bewirkt

wurden182.

Speziell für den Onlinemedien-Markt können ein immer stärkerer Einfluss algorithmischer Selekti-

ons- und Empfehlungsmechanismen sowie eine zunehmend personalisierte Auswahl an Inhalten

erwartet werden. Nutzerreaktionen wie Kommentare, Likes oder das Teilen von Inhalten werden

eine immer größere Rolle bei der Themenauswahl klassischer Medien spielen. In Tab. 4 werden die

Veränderungen herausgestellt, die den Medienmarkt zum Teil bereits durch Digitalisierungspro-

zesse beeinflusst haben und durch ADM-Prozesse zunehmend beeinflussen werden. Dabei wird

sowohl auf potentielle Chancen als auch auf Risiken eingegangen.

Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse

ASPEKT BESCHREIBUNG CHANCEN RISIKEN

Entkopplung von

Veröffentlichung

und Reichweite

Jeder kann veröffentlichen.

Aber nicht jeder findet ein

Publikum. Aufmerksamkeit

entsteht erst durch das

Zusammenwirken von

Menschen und ADM-

Prozessen (Dobusch 2017).

Größere, leichter

zugängliche

Medienvielfalt, weil

Gatekeeper nicht über

Veröffentlichung

bestimmen.

Vielfaltsverengung bei

Filterlogik durch

Dominanz weniger

Intermediäre und ADM-

Prozesse.

178 Vgl. Fröhlich (2016) 179 Vgl. Ballein (2017) 180 Vgl. z.B.: QY Research Group (2017) oder Research and Markets (2017) oder TechNavio (2016) 181 Vgl. van der Meulen (2016) 182 Vgl. Prentice in: van der Meulen (2016)

Page 63: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

60

Entbündelung

von

Publikationen

Reichweite wird auf

Beitragsebene

ausgehandelt, Platzierung

innerhalb einer Publikation

zieht Beiträge bei

Intermediären weniger mit.

Größere Medienvielfalt.

Chancen auf

Aufmerksamkeit breiter

gestreut. Medien

können diverses

Publikum segmentieren.

Schwächung von

Publikationen als

Qualitätsmarker.

Geringere Chancen für

unpopuläre, aber

relevante Themen.

Personalisierung

Nutzer erfahren mehr über

ihre Interessengebiete.

Vertiefte Information,

stärkere Mobilisierung.

Filterblasen

Echokammern

Größerer Einfluss

des Publikums

auf Reichweiten

Nutzerreaktionen

beeinflussen ADM-Prozesse

insgesamt und Reichweite

jedes Beitrags.

Demokratisierung durch

größeren

Publikumseinfluss.

Größere Dynamik der

Agenda.

Verengung der

Aufmerksamkeit auf in

ADM-Prozessen

chancenreiche Themen

und Tonalitäten.

Zentralisierung

der

Auswahlinstanzen

Weniger Intermediäre als

redaktionell kuratierte

Medien.

Leichter zugängliche

Medienvielfalt.

Vielfaltsverengung bei

Filterlogik.

Wechselwirkung

zwischen

redaktioneller

und maschineller

Kuratierung

Redaktionell kuratierte

Medien nutzen Reaktionen

in Intermediären als Signal

für Publikumsinteresse.

Größere Chancen auf

Verbreitung für neue,

nicht etablierte Themen

und Akteure in

redaktionell kuratierten

Medien.

Irrige Annahmen über

Repräsentativität der

algorithmisch

priorisierten Aussagen

und Akteure.

Quelle: Lischka & Stöcker (2017), S. 18

In Abb. 20 werden Zusammenhänge zwischen Intermediären, ADM-Prozessen und klassischen Me-

dien graphisch veranschaulicht. Dabei wird deutlich, wie algorithmisch strukturierte Plattformen wie

Facebook oder Google mit Hilfe von Personalisierungsprozessen Nutzerreaktionen beeinflussen

können. Beispielsweise erfährt ein Thema eine höhere Resonanz, wenn ihm durch den Intermediär

eine hohe Relevanz beigemessen und es vielen Nutzer an prominenter Stelle angezeigt wird.

Dadurch werden wiederum Medienhäuser beeinflusst, welche dem Thema ebenso ein höheres Ge-

wicht verleihen. Auf diesem Wege wirkt nicht mehr nur die Medienagenda, sondern in einem wei-

teren Schritt auch die Agenda der Intermediäre auf die Öffentlichkeit ein.

Page 64: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

61

Abb. 14: Modell der Organisation algorithmisch strukturierter Öffentlichkeit

Quellen: Lischka & Stöcker (2017), S. 62 und Dobusch (2015)

Page 65: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

62

5 AUSWIRKUNGEN VON MEDIENBEZOGENEN

BIG-DATA-ANWENDUNGEN IM B2B-MARKT

Schon heute finden sich zahlreiche automatisierte und durch Algorithmen gesteuerte Prozesse z.B.

bei der Evaluation von Bildungsangeboten, dem Aktienhandel, politischen Kampagnen oder der

öffentlichen Sicherheit aber auch im Sozialwesen. Und auch der heutige Journalismus und die deut-

sche Medienbranche werden maßgeblich von Big-Data- und KI-gestützte Anwendungen und

Dienstleister beeinflusst. Nachfolgend sollen die Wertschöpfungsprozesse und organisationalen

Bereiche im Business-to Business (B2C) Segment des deutschen Onlinemedienmarktes systematisch

untersucht werden, um das paradigmatische Potential von Big Data herauszuarbeiten.

5.1 TEIL - UND VOLLAUTOMA TIS IER TE PROZESSE BE I

DER PR ODUKTION VON M EDIEN INHALTEN

Mit zunehmender Digitalisierung etablierte sich der Begriff des Online-Journalismus, welcher sich

vordergründig auf den Übertragungsweg bzw. Vertriebskanal bezieht und Grenzen zu Rundfunk

und Print zog. Im Zuge voranschreitender Digitalisierungsprozesse unterliegt jedoch auch die jour-

nalistische Praxis zunehmend einem Wandel, da sich Berufsfelder stärker technisieren und zudem

die Interaktion mit Rezipienten eine immer größere Rolle spielt. Dieser Strukturwandel, welcher

auch unter dem Begriff des "Digitalen Journalismus" gefasst wird, birgt sowohl Chancen als auch

Herausforderungen. Veränderungen in journalistischen Prozessen wirken sich auf kommunikativer,

handwerklicher, technischer und wirtschaftlicher Ebene aus, und insbesondere die Ermöglichung

von teil- und vollautomatisierten Prozessen führt zur Veränderung von Abläufen innerhalb der Me-

dienhäuser183.

5.1. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE

Generell wird der Umgang von Journalisten mit Datenbeständen zwecks Anfertigung von datenba-

sierten textuellen Beiträgen als "Data Driven Media" bzw. "Datenjournalismus" bezeichnet. Die

Kompetenz ist dem Bereich der Produktion zuzuordnen und beschreibt den "Hybrid an der Schnitt-

stelle zwischen (digitaler) Recherche, journalistischer Auswertung und digitaler Darstellung"184.

Hierunter zählen dementsprechend automatisierte Vorgänge in den Bereichen Recherche, Analyse

und Datenaufbereitung.

Dagegen kann die automatisierte Erstellung von Medieninhalten mit Hilfe von Algorithmen als weit-

gehend autonom betrachtet werden. Dem Menschen kommen hier in der Regel nur wenige vor-

oder nachgelagerte Aufgaben zu, bspw. die Erfassung der zu verwertenden Daten oder die Sichtung

und Kontrolle der erstellten Inhalte. Umgangssprachlich wird häufig auch von "Roboterjournalis-

mus" gesprochen. Das kann irreführend sein, da nicht menschenähnliche Maschinen, sondern Pro-

gramme für die Generation von medialen Produkten verantwortlich sind185. Im Folgenden werden

183 Lilienthal et al. (2015), S. 30 184 Vgl. ebd., S. 35 185 Vgl. Hestermann in: Tusch (2017)

Page 66: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

63

grundlegende Techniken der computer-basierten Produktion verschiedener Medieninhalte sowie

automatisierte Analyseverfahren unter Einbeziehung von Anwendungsbeispielen erläutert.

A U T O M A T I S I E R T E T E X T - U N D V I S U A L P R O D U K T I O N

Für die automatische Generierung von Texten kommen NLP- und NLG-Prozesse zum Einsatz (vgl.

dazu Kap. 3.6). Im Rahmen von NLP folgt der Algorithmus den von Menschen definierten Vorgaben

und übersetzt Datensätze in verständliche Prosa. Entsprechend werden Textbausteine benötigt, die

mit Daten wie beispielsweise Sportergebnissen oder Wetteraussichten verknüpft werden. Bei NLG

handelt es sich um einen technisch weiterentwickelten Prozess: Das Programm wird befähigt, aus

großen Samples von Texten zu lernen, indem er sie auf Muster in der Sprachanwendung hin analy-

siert. Der selbstlernende Algorithmus kann diese Beispiele daraufhin anwenden (vgl. Kapitel 3.7).

Aktuell können durch Algorithmen vor allem Texte produziert werden, die sich auf strukturierte

Daten in maschinenlesbarem Format beziehen186. Die wiederkehrend verwendbaren Textfragmente

müssen zuvor durch Menschen verfasst und es müssen auch Anweisungen zur Verwendung gege-

ben werden. Dementsprechend wird das Verfahren vor allem in den informationsjournalistischen

Themenbereichen Sport, Finanzen, Wetter, Events oder für Geschäftsberichte sowie Produktbe-

schreibungen (vgl. Abb. 15) eingesetzt.

Abb. 15: AX Semantics Inputraster in drei Sprachen und Beispielartikel

Quelle: Vgl. AX Semantics (2017)

Erkennt der auf NLP basierende Algorithmus bspw. ein unentschiedenes Mannschaftsspiel, wählt er

automatisch die passende Formulierung für den Sportbericht wie etwa "Mannschaft 1 und Mann-

schaft 2 trennten sich X:X unentschieden". Mannschaftsnamen und die Anzahl der Tore werden

dabei automatisiert in vorgesehene Platzhalter eingesetzt187.

Standardisierte Nachrichten und Berichte, für die bei der Erstellung keine Kreativität erforderlich ist,

lassen sich so schnell und vollautomatisiert produzieren. Ein weiterer Vorteil der Algorithmen be-

steht darin, dass durch die Implementierung statistischer Methoden interessante Zusammenhänge

in den Daten gefunden werden können. Die sinnvolle Interpretation der Korrelationen ist allerdings

186 Graefe (2016), S. 8 187 Hestermann in: Tusch (2017)

Page 67: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

64

nicht bzw. nur stark eingeschränkt möglich, da maschinell keine Sinnzusammenhänge hergestellt

werden können. Zudem stellen nicht hundertprozentig zuverlässige Datengrundlagen die automa-

tisierte Textproduktion vor eine Herausforderung188. Ebenfalls datenbasiert können auch Abbildun-

gen automatisiert erstellt werden, bspw. Tabellenübersichten mit Sportergebnissen189. Damit wir-

ken die Texte weniger einfach bzw. langweilig.

In der Massenproduktion schneiden durch ein Programm erstellte Texte insgesamt oft besser ab

als von Menschen produzierten Darstellungen, da Algorithmen u.a. systematisch Wiederholungen

vermeiden können190. Der Journalistik-Professor Hestermann stellte 2017 in einem Forschungspro-

jekt sogar fest, dass Rezipienten maschinell und von Menschenhand erstellte Texte z.T. nicht unter-

scheiden können191. Im Rahmen seiner Studie staunte eine Probandin über einen maschinell erstell-

ten Text derartig, weil dieser ihrer Meinung nach wie Shakespeare klinge. Und tatsächlich arbeitete

der Algorithmus der Software, die den Text erstellt hatte, mit Elementen des Werkes des Dichters

und mischte diese neu auf192.

Ebenfalls bestätigte eine Untersuchung des Forscherteams rund um Graefe, dass algorithmisch pro-

duzierte, datenbasierte Texte von durch Menschen erstellten nicht zu unterscheiden sind. In ihrer

Studie mit 986 Probanden fanden die Forscher sogar heraus, dass computergenerierte Texte glaub-

würdiger erscheinen und mehr Fachkenntnis bei der Erstellung vermutet wurde als in von Journa-

listen geschriebenen Artikeln. Dagegen wurde die Lesbarkeit, auf welche u.a. auch die Struktur und

sprachliche Gestaltung des Berichts Einfluss nahm, bei von menschlichen Autoren geschriebenen

Artikeln insgesamt höher bewertet193.

Ein weiteres Beispiel für den effizienten Einsatz von Algorithmen zur Textproduktion ist das Pro-

gramm "Quakebot", welches v.a. im Jahr 2014 Aufmerksamkeit erlangte. Direkt nach dem Erdbeben

in Los Angeles wurde automatisiert folgende Nachricht erstellt, die von Journalisten nur wenige

Minuten nach dem Vorfall veröffentlicht werden konnte:

"A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood,

California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time

at a depth of 5.0 miles. According to the USGS, the epicenter was six miles from Beverly Hills, Cali-

fornia, seven miles from Universal City, California, seven miles from Santa Monica, California, and

348 miles from Sacramento, California. In the past ten days, there have been no earthquakes mag-

nitude 3.0 and greater centered nearby. This information comes from the USGS Earthquake Notifi-

cation Service and this post was created by an algorithm written by the author. Read more about

Southern California earthquakes."194

In einem ähnlichen Verfahren erstellt die Software "Homicide Report" Texte für die Los Angeles

Times als Teil des Programms "Uniform Crime Report". Die Software listet alle Fälle von Mord und

Totschlag in Los Angeles auf und dient gleichzeitig als Datenbank, Blog und interaktive Karte. Mit

188 Graefe (2016), S. 27f. 189 Vgl. z.B. Norkon Computing Systems (2018) 190 Vgl. Hestermann in: Tusch (2017) 191 Vgl. New York Times (2015) 192 Vgl. Hestermann in: Tusch (2017) 193 Graefe et al. (2016), S. 10 194 Vgl. Holland (2014)

Page 68: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

65

deren Hilfe können Tötungsdelikte in verschiedenen Gegenden angezeigt und nach Todesursache,

Ethnizität, Alter, Geschlecht, Wochentag und anderen Variablen gefiltert werden195.

Abb. 16: Ausschnitt aus der Datenbank „Homicide Report"

Quelle: Vgl. Cruz (2017)

Auch im Bereich der visuellen Kunst entstehen mit Hilfe von Algorithmen neue Inhalte. Aufsehen

erregte Anfang 2016 das kunsthistorische Projekt „The Next Rembrandt", in welchem 350 Original-

Werke des Malers aus dem 17. Jahrhundert durch 3D-Scans analysiert wurden.

In Zusammenarbeit mit dem Museum Het Rembrandthuis und Microsoft gelang es Wissenschaft-

lern und Ingenieuren der Delft University of Technology Rembrandts Malstil, Farben, Formen und

typische Attribute so zu erfassen, dass ein 3D-Drucker ein komplett neues Werk erschaffen konnte.

Auf dem mit dreizehn Farbschichten erstellten Bild im Rembrandt-Stil ist ein Mann in der Mode des

17. Jahrhunderts zu sehen – in schwarzer Kleidung mit weißer Halskrause, großem Hut und Bart196.

A U T O M A T I S I E R T E V I D E O P R O D U K T I O N

Auch im Bereich der Videoproduktion hat sich in den letzten Jahren einiges entwickelt. Plattformen

wie Wochit und Wibbitz197 erlauben es, entweder komplett automatisiert oder mit wenigen Arbeits-

schritten Videobeiträge auf Grundlage von Artikeln zu erstellen. Durch eine Kombination der NLP-

und KNN-Verfahren können derartige Softwareplattformen Texte nach Stichwörtern durchsuchen.

Aus verschlagworteten Videodatenbanken wie bspw. Getty Images oder The Associated Press wer-

den kontextuell passende Bilder und Clips ausgesucht und ein Video erstellt. Zum Teil ist es auch

möglich, animierte Bildunterschriften einzubauen – ein Format, welches insbesondere für content-

basierte soziale Netzwerke wie Instagram oder Snapchat interessant sein dürfte, da Rezipienten

195 Vgl. Los Angeles Times - The Homicide Report (2018a) 196 Vgl. The next Rembrandt (2018) 197 Vgl. Wochit (2018) und Wibbitz (2018)

Page 69: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

66

Videos häufig auch ohne Ton ansehen. Auch computergestützte oder menschliche Voice-Over-Op-

tionen werden angeboten198. Der Grad an Automatisierung ist variabel: Es sind sowohl kleine als

auch umfangreiche Bearbeitungen, das Einfügen von zusätzlichem Original-Material oder auch die

gänzlich automatisierte Erstellung möglich.

Auf diese Weise können Medienorganisationen ohne großen Zeitaufwand und zusätzliche Video-

bearbeitungskenntnisse Artikel oder andere Texte multimedial und für verschiedenen Plattformen

aufbereiten. Michael Ferro, Vorsitzender der US-Zeitung und des Zeitschriftenverlags Tronc (ehe-

mals Tribune Publishing), erwähnte in der New York Times, dass im Unternehmen täglich zwar nur

einige hundert Videos produziert werden, aber ein Bedarf an rund 2.000 bestehe199. Derartige Grö-

ßenordnungen verdeutlichen das enorme Potential, das durch Videoautomatisierung entsteht. Wei-

tere Unternehmen, die die Möglichkeit der automatisierten Videoproduktion bereits nutzen, sind

bspw. Time Inc., The Huffington Post, CBS Interactive, Rotten Tomatoes, NowThisNews, Bonnier

Magazines und Hearst200.

A U T O M A T I S I E R T E A U D I O P R O D U K T I O N

Ähnlich wie bei der automatisierten Produktion von Videocontent ist es mit Hilfe von Algorithmen

möglich, Audioclips zu erstellen, bspw. als Begleitung für Nachrichtenstrecken oder Sportinforma-

tionen. Die Methode hinter der Automatisierung ist dieselbe wie in der Texterstellung: Auf Basis

von Schlagwörtern, die in einem Artikel vorkommen, können algorithmenbasierte Angebote eine

Zusammenfassung des Artikels erstellen und sie über NPL-gestützte Prozesse zu einem Audiobei-

trag synthetisieren. Mit Hilfe großer Datenbanken mit populären Texten und Musiknotationen kön-

nen KNN darüber hinaus auch Muster in Kompositionen identifizieren, die für das menschliche Ohr

harmonisch klingen. Die automatisierte Audioproduktion wird aktuell insbesondere für musikali-

sche Werke genutzt.

Als Beispiel hierfür kann Plattform IBM Watson genannt werden, über welche Künstler ihre Musik-

kompositionen optimieren oder sogar vollständig automatisieren können201. Mit Hilfe einer Sprach-

API wurden dafür zunächst nicht nur musikalische sondern auch kulturelle Inhalte der letzten fünf

Jahre analysiert. Aus Songtexten, Filmzusammenfassungen, Reden von Nobelpreisträgern oder Ar-

tikeln der New York Times wurden so zentrale Themen identifiziert. Um Meinungen und Stimmun-

gen zu diesen Themen zu erfassen, erfolgte die zusätzliche Analyse von Inhalten aus sozialen Netz-

werken mit einer weiteren API. Für sog. kognitive Musik wurden neben diesen textbasierten Inhalten

auch musikalische Werke analysiert. Mit Hilfe der Plattform bzw. des Programms "Watson Beat"

konnten Musiktrends untersucht werden, wobei Machine-Learning-Algorithmen Faktoren wie Ton-

art und -höhe, ganze Tonfolgen, Anschlagsstärke und andere Bestandteile in beliebten Liedern auf-

schlüsseln. Auch musikpsychologische Theorien über Reaktionen auf Musik flossen schließlich in

die Komposition gänzlich neuer Stücke, welche je nach gewünschter Stimmung variieren können.

Mit Hilfe von Markov-Ketten (vgl. Kapitel 3.7) ist es außerdem möglich, automatisiert semantisch

kohärente Texte zu produzieren, die in ihrem Charakter zur vordefinierten Musik passen (vgl. Abb.

17). Der amerikanische Musikprofessor David Cope nutzte diese bereits in den 1980er Jahren für

198 Vgl. z.B. Wibbitz (2018) 199 Vgl. Ferro in: Herrman (2016) 200 Vgl. Herrman (2016) 201 Vgl. Amini (2016)

Page 70: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

67

seine Software "Experiments in Musical Intelligence" (EMI), durch die er bekannt wurde. Die Soft-

ware untersuchte Symphonien auf Gesetzmäßigkeiten und erstellte neue Stücke im gleichen Stil.

Heute läuft der Prozess mit Hilfe von Programmen wie Alda, Avid Sibelius First oder Liquid Notes

sehr viel schneller ab202. Letzteres bietet besonders viele Funktionen aus einer Hand und beschreibt

das Tool als Instrument, das "Komponisten, Songwriting-Partner, Arrangeur, Electronic Artist, Pro-

ducer und Live DJ"203 vereint.

Abb. 17: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die

auf Prosa trainiert wurde

Quelle: Vgl. McDonald (2017)

Obwohl die Erzeugung von Tonabfolgen durch Algorithmen auch kritisch betrachtet wird – hier

wird v.a. die fehlende Innovation und Kreation von Neuartigem missbilligt 204 – heben andere Stim-

men hervor, dass musikalischer Erfolg u.a. auch stark mit statistischen Zusammenhängen einher-

geht. Denn auch Musik folgt bestimmten Regeln wie z.B. der Harmonielehre, welche Ton- und Ak-

kordfolgen beschreibt, oder der Kompositionstechnik des Kontrapunkts, welche die Gegenstimme

zu einer Melodie regelt205.

A U T O M A T I S I E R T E P R O D U K T I O N V O N W E R B E I N H A L T E N

Mit Hilfe von Big Data und maschinellem Lernen ist es nunmehr möglich, detaillierte Nutzerprofile

zu erstellen, die Informationen über Affinitäten zu speziellen Produktgruppen oder Services enthal-

ten. Auf dieser Grundlage wird sog. Programmatic Advertising möglich, also das programmatisch

gesteuerte, zielgerichtete Ausspielen von Werbeinhalten an bestimmte Nutzer. Mit Hilfe neuer

Technologien können Onlinebesucher bestimmter Web-Services in ihrem unmittelbaren Nutzungs-

kontext erreicht werden. Die Produktinformationen werden dabei in Echtzeit ausgeliefert und sind

in Inhalt und Design an die Nutzungssituation bzw. Umgebung angepasst bzw. personalisiert. Die-

ses Prinzip der direkten Erstellung von Werbeinhalten heißt "Programmatic Creation". Die Gestal-

tung funktioniert wie ein automatisierter modularer Kreationsbaukasten ("Atomic Design") und

konfiguriert die einzelnen Elemente des Mediums. Homepages können so in bis zu fünf Ebenen

202 Vgl. Alda (2018), Avid Sibelius First (2018), Liquid Notes (2018) 203 Vgl. Liquid Notes (2018) 204 Vgl. Lanz (2017) 205 Vgl. Scherer (2017)

Page 71: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

68

unterteilt werden: Atome (1) sind die Grundelemente wie bspw. Schriften oder Farben und bilden

gruppiert Moleküle (2), die kleine Bedienelemente wie Suchfelder oder Buttons beschreiben. Aus

diesen setzen sich wiederum Organismen (3) zusammen, z.B. eine Leiste aus Bedienelementen. Auf

diesen Ebenen basierend, existieren ganze Vorlagen (4) und fertige Produkte (5). Im Rahmen von

Programmatic Creation wird die Werbebotschaft in diese Ebenen gegliedert und mit Hilfe von Big

Data und KI in Echtzeit modifiziert, konfiguriert und an den Nutzer angepasst.

Zudem können Daten zu Ort und Geschlecht des Nutzers, Uhrzeit und Wetter mit in die Erstellung

einbezogen werden (vgl. Abb. 18). So kann einer Person zu einem bestimmten Zeitpunkt an einem

bestimmten Ort z.B. ein Museum empfohlen werden, sofern es regnet, oder ein Biergarten, wenn

die Sonne scheint. Mit Hilfe von NLP werden darüber hinaus auch automatisierte Videos und Audi-

ospuren ermöglicht. Aktuell werden zunehmend programmatische Werbeinhalte gebucht. Für

Google, YouTube und Facebook ist Programmatic Creation bereits ein Standardverfahren206.

Abb. 18: Schematische Darstellung der Funktionsweise von Programmatic Creation

Quelle: Diffferent Strategieagentur (2015), S. 24

Auf diesem Prinzip aufbauend, soll in einigen Jahren zudem die "Programmatic Orchestration" er-

möglicht werden, wodurch Werbung kanalübergreifend, interaktiv und selbstlernend wird. Mit Hilfe

von Algorithmen wird aus Reaktionen des Nutzers auf gesehene Inhalte gelernt und zukünftige

Werbemaßnahmen werden variiert. Die Synchronisation der Touch Points ermöglicht so transme-

diales Storytelling: gefällt dem Nutzer Gesehenes nicht, kann bei der nächsten Interaktion auf eine

andere Storyline mit variierender Tonalität oder Botschaft oder ganz auf andere Produkte gesetzt

werden (vgl. Abb. 19).

Für eine Etablierung des selbstlernenden iterativen Systems ist zunächst der weitere Ausbau der

technischen Infrastruktur notwendig, um die eindeutige Nutzeridentifikation über Gerätegrenzen

hinweg zu gewährleisten. Darüber hinaus müssen gesellschaftliche und juristische Bedenken gere-

gelt werden207.

206 Vgl. Petereit (2016), Prien (2017) 207 Diffferent Strategieagentur (2015), S. 25

Page 72: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

69

Abb. 19: Schematische Darstellung der Funktionsweise von Programmatic Orchestration

Quelle: Diffferent Strategieagentur (2015), S. 26

A U T O M A T I S I E R T E A N A L Y S E V O N M E D I E N I N H A L T E N

Durch moderne Technologien wird auch die Extraktion relevanter Informationen aus Medieninhal-

ten optimiert. So können mit Hilfe von Schlagwörtern Zusammenfassungen von Texten und Audi-

ospuren rasch maschinell produziert werden. Derartige Analysen beziehen sich auf Wörter und

Phrasen, wobei auch Verbindungen erkannt werden können. Die automatisierte Bild- und Video-

analyse bietet sehr viel mehr Möglichkeiten, was aufgrund der zunehmenden Kommunikation über

Bilder – bspw. in sozialen Netzwerken – besonders relevant erscheint. Die automatisierte Analyse

von Bewegtbild-Inhalten ist besonders komplex, da Bilder, Sprache und Text über einen längeren

Zeitraum hinweg gleichzeitig analysiert werden müssen. Sie wurde algorithmisch bereits Anfang

der 2000er Jahre ermöglicht. Das Forscherteam um Ekin stellte schon 2003 ein System zur voll au-

tomatisierten Erfassung von Fußballspielen in Echtzeit vor, wobei die Präsentation von Zusammen-

fassungen auch an Nutzervorlieben angepasst werden konnte208. Algorithmen dienten dabei vor

allem der Wahrnehmung und Erfassung von Bewegungen.

In Verbindung mit KI wird das Interpretieren und Schlussfolgern sowie das Lernen aus dem Erfassten

möglich. So können Bewegungen einem Objekt zugeschrieben und auch der Kontext verstanden

werden. Seit einigen Jahren wird die Video Content Analysis (VCA) bereits auch zur Objektüberwa-

chung eingesetzt, da auffällige Aktivitäten von Personen oder Fahrzeugen erkannt werden können

und die automatisierte Meldung an Sicherheitspersonal möglich ist. In verschiedenen Verarbei-

tungsschritten werden dafür einzelne Bildausschnitte analysiert und auf Veränderungen hin unter-

sucht209. Die Möglichkeit der Gesichtserkennung und der automatische Abgleich mit Fotos in einer

Datenbank stellt eine weitere Möglichkeit der VCA dar, auch das Zählen von Menschen bspw. in

Warteschlangen oder die Analyse der Frequentierung von Verkaufsflächen210.

Auf Grundlage von VCA-Techniken wurde die Methode des Content-based Video Retrieval entwi-

ckelt, die der textuellen Zusammenfassung von Videoinhalten dient. Dafür werden zunächst soge-

208 Vgl. Ekin et al. (2003) 209 Vgl. Gagvani (2008) 210 Vgl. Artech Technologies AG (2018)

Page 73: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

70

nannte Keyframes ermittelt, das heißt Bildausschnitte aus jeder Kameraeinstellung, die diese opti-

mal wiedergeben. Die Bilder werden mit Hilfe von Bildverarbeitungsalgorithmen analysiert und vi-

suelle Merkmale erfasst, die mit Hilfe einer Datenbank indexiert werden. Auf diese Weise müssen

Schlagworte und Metainformationen von Videos nicht mehr manuell erzeugt werden, was den Vor-

teil der höheren Objektivität bietet. Zudem kann mit Hilfe der Keyframes bei Recherchen schnell die

Relevanz von Videos ermittelt werden. Sie können entweder als Mosaik dargestellt oder auf tem-

porär-visueller Ebene gemappt werden (vgl. Abb. 20)211. Darüber hinaus wird an intelligenten Sys-

temen gearbeitet, die multimodal vorgehen und gleichzeitig Video sowie Tonspuren und Textele-

mente analysieren. So können sogar Emotionen von Personen untersucht werden, welche in Videos

auf Plattformen wie Facebook oder YouTube eine zunehmende Rolle spielen, etwa im Rahmen von

Influencer-Beiträgen. Erreicht werden kann dies vordergründig durch die zusätzliche Implementie-

rung der Analyse von Gesichtsausdrücken, welche mit Ton, Kontext und Metainformationen kom-

biniert wird212.

Abb. 20: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert)

Quelle: Borth e.a. (2009), S. 51

Auf der Entwicklerkonferenz "Microsoft Build" wurde im Mai 2017 der "Video Indexer" für Azure

vorgestellt, mit welchem Keyframes extrahiert und Szenen, Personen sowie Sprachen analysiert wer-

den können. Das Programm ist in der Lage, Gesichtern Sprache zuzuordnen, diese zu transkribieren

und zu übersetzen. Außerdem kann es Gesichter erkennen und diesen positive oder negative Stim-

mungen zuordnen213. Ähnliche Funktionen bietet Googles Cloud Video Intelligence API, welche nur

wenige Wochen vor Microsofts Dienst angekündigt wurde214.

Mit Hilfe solcher automatisierter Analyseverfahren können inzwischen Projekte mit außerordentli-

chem Umfang realisiert werden. Ein Beispiel jüngerer Vergangenheit sind die sog. Panama Papers,

211 Vgl. Borth et al. (2009) 212 Vgl. Poria et al. (2015) 213 Vgl. Gada (2017) 214 Vgl. Li (2017)

Page 74: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

71

welche kürzlich rund 400 Journalisten in 80 Ländern beschäftigten. 2,6 Terabyte umfassten die 11,5

Mio. Dokumente, die weltweite Strukturen von Steuerhinterziehungen aufdeckten. Ohne Big-Data-

Analysen wäre die detaillierte Auswertung der unstrukturierten Inhalte nicht möglich gewesen. Für

die Aufbereitung der Daten, also das Auslesen gescannter Ausweise, unterschriebener Verträge

usw., wurde die Software "Nuix"215 genutzt, welche auch international in Ermittlungsbehörden zum

Einsatz kommt216. Ebenfalls wurden mit derselben Software die maschinenlesbaren Inhalte inde-

xiert, wodurch die systematische Suche nach Personen und Firmen ermöglicht wurde.

Abb. 21: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious

Quelle: Vgl. Linkurious (2018b)

Das "International Consortium for Investigative Journalists" (ICIJ) setzte weitere Tools für die Da-

tenverarbeitung und -konvertierung ein, mit welchen das gemeinsame Arbeiten an Dokumenten

ermöglicht wurde und auch Verwandtschaftsverhältnisse schneller aufgedeckt werden konnten. So

wurde schnell erkannt, dass Politiker zwar selten selbst Scheinfirmen in Steueroasen gründeten,

jedoch häufig deren Angehörige. Die Nutzung der Graphdatenbank "Neo4j"217 sowie der Visuali-

sierungssoftware Linkurious218 (vgl. Abb. 21) ermöglichten darüber hinaus die Veranschaulichung

der komplexen Beziehungen der Akteure untereinander. Noch vor zehn Jahren wären derartig de-

taillierte Analysen dieser enormen Datenmengen unmöglich gewesen219.

Durch diese Anwendungen werden Trends erkennbar, die auf einen starken Einfluss der automati-

sierten Medieninhalts-Analyse auf journalistisches Arbeiten hindeuten. Aktuelle Entwicklungen zie-

len z.B. auf die Erkennung von Fake News ab. Mit diesem Phänomen kämpft u.a. das soziale Netz-

215 Vgl. Nuix (2018) 216 Vgl. Torinus (2016) 217 Vgl. Neo4j (2018) 218 Vgl. Linkurious (2018a) 219 Vgl. Torinus (2016)

Page 75: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

72

werk Facebook und will daher verstärkt auf eventuelle Falschmeldungen hinweisen und Gegendar-

stellungen anzeigen, wenn der Wahrheitsgehalt einer Nachricht angezweifelt wird220. Aktuell wird

hinter vermeintlich anzweifelbaren Texten auf Facebook (in den USA) ein rotes Warndreieck ange-

zeigt. Dafür arbeite Facebook mit externen Nachrichtenseiten zusammen221.

In eine ähnliche Richtung geht das "Social Listening Tool" namens Crowdalyzer von Wafana. Die

erste digitale Fact-Checking-Agentur Deutschlands beschäftigt sich mit Verifizierungsstrategien

und wird dabei vom Media Lab Bayern unterstützt. Der Crowdalyzer identifiziert mit Hilfe von Al-

gorithmen nachrichtenrelevanten User-generated Content und überprüft die Glaubwürdigkeit zu-

gehöriger Accounts222.

Auch das vom Bundesministerium für Wirtschaft und Energie und der EU geförderte Projekt Scat-

terBlogs widmet sich der Extraktion relevanter Nachrichten. Mit Hilfe des Tools können soziale Platt-

formen wie Facebook, Twitter und Co. in Echtzeit überwacht und wichtige Ereignisse lokalisiert wer-

den. Im Anschluss werden Nutzer und Ort verifiziert und die Erstellung eines Lagebilds ermöglicht

(vgl. Abb. 22)223.

Abb. 22: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016

Quelle: Vgl. Scatterblogs (2018b)

In Bezug auf das Rezeptionserleben und Personalisierung von Medieninhalten antizipieren Bran-

chenexperten starke Entwicklungstendenzen in den kommenden Jahren. Je nach persönlichen Ei-

genschaften des Konsumenten können schon heute verschiedene Inhalte erstellt und angezeigt

werden. Doch der Strategiechef der Washington Post etwa geht davon aus, dass durch die auf ein-

zelne Kunden zugeschnittene Personalisierung von Inhalten Leser im Rahmen von Kundenbin-

dungsmaßnahmen länger an Onlinemedienangeboten interessiert bleiben.

Mit Hilfe von Nutzerdaten könnten z.B. der Bildungsstand erkannt und die passende Version eines

Artikels eingeblendet werden224. Mit der Weiterentwicklung der automatisierten Textproduktion

220 Vgl. dpa (2017) 221 Vgl. Karon (2017) 222 Vgl. Crowdalyzer (2018) 223 Vgl. Scatterblogs (2018a) 224 Vgl. Gilbert in: Jannasch (2017)

Page 76: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

73

muss diese Optimierung nicht zwingend Mehrarbeit für die Medienhäuser bedeuten, bietet aber

Mehrwert für die Kunden.

A U T O M A T I S I E R T E P R O D U K T I O N V O N V I D E O S P I E L - W E L T E N

Der Games-Writer Chet Faliszek, der durch das Schreiben von Handlungssträngen kommerziell er-

folgreicher Spiele Bekanntheit erlangte, arbeitet aktuell an KI-getriebenem Storytelling225. Damit

soll die Geschichte und Struktur eines Spieles nicht mehr festen Vorgaben folgen, sondern sich auf

Grundlage der Handlungen des Spielers entwickeln. So könnte bspw. ein mit einer anderen Figur

im Spiel gestarteter Konflikt das Spiel eines Nutzers über Wochen oder Monate beeinflussen, wäh-

rend ein anderer Nutzer, der diesem Charakter einen Gefallen erwies, diese Figur vielleicht niemals

wiedersähe226. Konsequenzen sollen auf die verschiedensten Handlungen erfolgen.

Laut Faliszek ist es dafür aber zunächst wichtig, die Wahrnehmung des Spielers zu verstehen. Mit

Hilfe analytischer Verfahren ist es bspw. sehr einfach, zu definieren, ob ein Spieler kämpft oder nicht.

Inwiefern er aber glaubt, in einer Liebesgeschichte zu sein, ist sehr viel schwieriger. Insbesondere

Nuancen und Konnotationen bei Dialogen stellen eine große Herausforderung dar. Auch der Infor-

mationsübermittlung kommt zunehmende Bedeutung zu, denn auch das bewusste Entscheiden

gegen Optionen und Konsequenzen stellt eine Handlung dar. Derartige Personalisierungen sind in

Spielen bisher kaum implementiert, da das Erstellen der Inhalte kostspielig ist. Zukünftig ist laut

Faliszek KI-basiert das automatisierte Entstehen personalisierter Geschichten denkbar227. Derartige

Spiele sollen durch tiefgründigere Geschichten einen größeren Umfang aufweisen als bisher Be-

kannte und auf spezielle Nutzer zugeschnitten sein228.

Doch auch mit den neuesten Techniken stellt das Modellieren von virtuellen Umgebungen Spiele-

entwickler vor große Herausforderungen. Auch unter Zuhilfenahme umfangreicher Algorithmen

sind geomorphologische, landformende Prozesse nur schwierig nachzuahmen. Verschiedene exis-

tierende Methoden generieren entweder geologisch fehlerhafte Modelle, erlauben eine nur unge-

nügend Nutzerinteraktion oder replizieren ausschließlich importierte Beispiele. Problematisch ist

zum Teil auch die Berechnungsdauer. Fortschritte im Bereich Deep Learning ermöglichten es einem

Forscherteam jedoch kürzlich, derartige Probleme zu minimieren. So müssen in dem von ihnen

entwickelten Programm nur einige grundsätzliche Anforderungen durch den Menschen angegeben

sowie einigen Linien eingezeichnet werden. Auf diesen Grundlagen erstellt das Programm selbst-

ständig Flächenprofile (vgl. Abb. 23)229.

225 Vgl. Zelada (2017) 226 Vgl. Faliszek in: Zelada (2017) 227 Vgl. ebd. 228 Vgl. Cornillon in: Zelada (2017) 229 Guérin et al. (2017), S. 1f.

Page 77: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

74

Abb. 23: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung

Quelle: Guérin e.a. (2017), S. 2

A U T O M A T I S I E R T E A N A L Y S E D E S M E D I E N N U T Z U N G S V E R H A L T E N S ,

S P E Z I E L L : I N D E R S P I E L E - I N D U S T R I E

Mit der zunehmenden Nutzung von Smartphones und sozialen Netzwerken breiten sich auch neue

Spieleplattformen aus, insbesondere kostenfreie Spiele etablieren sich zunehmend. Gewinn wird

bei den sog. Free-to-Play-Spielen mit Hilfe von In-Game-Verkäufen generiert, mit denen bspw. Le-

benszeit oder Ressourcen für das Spiel erworben werden können. Während des Spielens hinterlas-

sen Nutzer Unmengen an Daten. Hierbei ist die Herausforderung, die Informationen automatisiert

zu protokollieren und auszuwerten, die dem Spielehersteller tatsächlich von Nutzen sind, um etwa

die In-Game-Performance und Nutzererfahrung zu verbessern, die Spieldauer zu verlängern oder

mehr Verkäufe zu erzielen230.

Zwischen 40 und 60 Prozent der Spieler von kostenfreien Anwendungen wenden sich nach nur einer

Session bereits wieder vom Spiel ab. Gründe dafür liegen im ungenügend ausbalancierten Schwie-

rigkeitsgrad und zu aufdringlichen In-App-Kaufangeboten231. Die Nutzung moderner Analytics-An-

gebote ermöglicht Aufschluss darüber, ob Nutzer die ersten Level zu schwierig finden – oder spä-

tere Level zu einfach. So können auch zu schwierige Stellen, die zur Aufgabe des Spiels führen (sog.

Flaschenhälse), aufgedeckt werden. Besonders unbeliebte und optimierbare Elemente werden

ebenso ersichtlich wie sehr beliebte. Peaks in der Serverauslastung werden mittels Nutzerdaten-

Auswertungen vorhersehbar und ein plötzlicher Anstieg an Online-Spielern nicht mehr zu Kapazi-

tätsproblemen hinsichtlich der Serverauslastung. Schließlich wird auch Aufschluss ermöglicht, in-

wiefern die Nutzung verschiedener Endgeräte (Tablet oder Smartphone, XBox oder PlayStation) die

Spielerfahrung beeinflusst und ob Anpassungen im Spiel vorgenommen werden sollten232.

5.1. 2 MARKTPOTENT IALE

Spätestens seit Associated Press, eine der weltweit größten Nachrichten- und Presseagenturen, au-

tomatisch generierte Nachrichten in Quartalsberichten verwendet, setzt sich die automatisierte Pro-

duktion von Inhalten immer stärker durch. Mit dem Automated Insight-Programm Wordsmith pro-

duziert AP derzeit rund 15.000 Berichte pro Jahr – ungefähr 14-mal mehr, als die Redakteure zuvor

produzieren konnten233. Inzwischen arbeiten Unternehmen weltweit an Softwarelösungen zur au-

tomatisierten Erstellung von Nachrichten, darunter unter anderen Forbes, The New York Times, Los

Angeles Times und ProPublica. Da Nachrichtenorganisationen in aller Regel Kostenminimierung bei

230 Vgl. Gutierrez (2016) 231 Vgl. ebd. 232 Vgl. van Rijmenam (2017) 233 Vgl. Wölbert (2017)

Page 78: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

75

gleichzeitiger Erhöhung der Nachrichtenanzahl anstreben, ist zu erwarten, dass sich die maschinelle

Produktion weiter in Redaktionen etablieren wird. Auch die zunehmende Verfügbarkeit strukturier-

ter Datengrundlagen gilt als Treiber der automatisierten Contentproduktion234.

Insbesondere aufgrund der vermehrten Entwicklung intelligenter Gegenstände wird die systemati-

sche Erfassung verschiedenster Arten von Daten zunehmen235. Im Rahmen des sogenannten Inter-

net of Things (IoT) werden physische Objekte mit Technologien wie Mikroprozessoren und Senso-

ren ausgestattet, die dem Messen des Zustandes von Gegenständen oder deren Umwelt dienen.

Damit werden auch Alltagsgegenstände dazu befähigt, weitestgehend autonom Daten über Netz-

werke weiterzuvermitteln236 – von Waschmaschinen über Straßenbahnen, Autos, Straßenlaternen,

Fabriken bis hin zu ganzen Städten. Im Jahr 2020 sollen weltweit rund 21 Mio. Gegenstände vernetzt

sein237. So können vor allem verstärkt Nachrichten automatisiert erstellt werden, in denen aufgrund

der verschiedensten intelligenten Objekte eine enorme thematische Breite erreicht werden kann.

Vordergründig wird zwar zunächst das verarbeitende Gewerbe von IoT profitieren, da vernetzte

Maschinen und Geräte sowie Kontrollsysteme große Effizienzgewinne mit sich bringen. Doch auch

industrieübergreifend wird ein erheblicher Mehrwert erwartet. Für das Jahr 2020 wurde vom Markt-

forschungsunternehmen Deloitte für das Industriesegment Kommunikation, Medien und Service

ein durch IoT generierter Umsatz von rund 880 Mio. Euro prognostiziert238. In der Vergangenheit

stieg die Anzahl der vernetzten Gegenstände im Medien- und Unterhaltungssektor um 120 Prozent

(2013 zu 2014), womit das Wachstum nur in der Fertigungs- (204 Prozent) und Finanzbranche (128

Prozent) noch höher lag239. Analysten erwarten, dass IoT-relevante Investments vor allem in Unter-

nehmen aus den Bereichen Reisen und Transport, Fertigung, Medien und Unterhaltung sowie Te-

lekommunikation getätigt werden.

Durch die intelligenten Gegenstände werden Datengrundlagen zunehmenden Umfangs erzeugt,

die für die automatisierte Contenterstellung genutzt werden können. Konkret sollen im Jahr 2025

IoT-getrieben 180 Zettabytes (180 Billionen Gigabytes) an Daten entstehen240. Generell wird der

maschinellen Produktion von Medieninhalten ein enormes Potential zugeschrieben. Maschinen er-

zeugen schneller und mit weniger Fehlern umfangreichere Inhalte als Menschen. Dabei kann eine

einzige Datenbasis als Grundlage für mediale Angebote in verschiedenen Sprachen dienen, wobei

Ausführungen aus unterschiedlichen Perspektiven erfolgen und diese zusätzlich an Nutzerpräferen-

zen angepasst werden können241. Die Digitalisierung, die seit Beginn der 2000er Jahre viele Medi-

enhäuser mit einem Rückgang der Leserzahlen und sinkenden Werbeeinnahmen konfrontierte,

könnte mit Hilfe von Automatisierung und Personalisierung so wieder neuen Aufschwung bringen:

Zum einen können Publisher durch die automatisierten Prozesse Kosten einsparen, zum anderen

besteht die Möglichkeit, Inhalte so zu personalisieren, dass bei Nutzern eine höhere Zahlungsbe-

reitschaft erzeugt wird242.

234 Graefe (2016), S. 9f. 235 Vgl. Press (2016) 236 Technologiestiftung Berlin (2017), S. 10f. 237 Vgl. Gartner (2015) 238 Deloitte (2016), S. 9 239 Verizon Communications (2015), S. 6 240 Vgl. Press (2016) 241 Graefe (2016), S. 10 242 Vgl. dazu Premium-Onlineangebote wie Bild+, Spiegel Plus, FAZ Plus etc.

Page 79: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

76

Die Vorlieben der Nutzer wiederum können sowohl mit Hilfe von IoT als auch im Rahmen des On-

line-Nutzerverhaltens umfassend protokolliert werden, was eine zielgenaue Kreation und Einblen-

dung von Werbung ermöglicht. Mit Hilfe von Algorithmen kann zudem berechnet werden, wie gut

Werbeinhalte und Nutzer zusammenpassen, um Streuverluste zu minimieren. Chen und Stallaert

zeigen in ihrer Studie, dass sich bei personalisierter Werbung der potentielle Umsatz im Vergleich

zu traditionellen Anzeigen verdoppeln kann243. Das Verfahren der automatisierten Werbung, wel-

ches sich vor allem am jeweiligen Nutzungskontext der Personen orientiert, ist bereits seit einigen

Jahren ein etabliertes Verfahren der Werbeindustrie. Für das Jahr 2017 wurde für Programmatic

Advertising in Deutschland insgesamt ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen

Marktanteil von etwa 45 Prozent an digitaler Display-Werbung ausmacht244. Durch detailliertere

Profile potentieller Käufer könnte die automatisierte Werbekommunikation zukünftig noch effizi-

enter gestaltet werden.

Neben dem zielgerichteten Marketing werden automatisiert erfasste Nutzerdaten auch zu einem

besseren Verständnis der Kunden führen. Insbesondere im Videospiel-Sektor birgt die Analyse der

richtigen Daten enorme Umsatzpotentiale. Der weltweite Umsatz im Markt mit Videospielen wächst

stetig245, und insbesondere in China, den USA und Japan werden hohe Handelsumsätze erzielt.

Innerhalb Europas ist in Deutschland der größte Spielemarkt zu finden: Jährlich werden bis zu 3,3

Mrd. Euro mit digitalen Spielen erwirtschaftet. Damit liegt die Computer- und Videospielbranche

zwar hinter den Umsätzen des Buchhandels (9,2 Mrd. Euro), jedoch vor denen des Musikmarkts (1,6

Mrd. Euro) und des Kinofilmmarkts (1,2 Mrd. Euro)246. Die Nutzerdaten von weltweit rund zwei Mrd.

Spielern bieten das Potential, das Marktwachstum überproportional zu steigern.

5.1. 3 ZUSAMMENFASSUNG UND AUSBLICK

Dass sich die 47. IFRA World Publishing Expo (WPE) in Berlin im Oktober 2017 erstmals zusammen

mit der Digital Content Expo (DCX) präsentierte und dabei thematisch die Integration von KI domi-

nierte, verdeutlicht deren Relevanz in der Medienbranche. "Künstliche Intelligenz und Roboterjour-

nalismus erobern den Content-Markt" lautete die Schlagzeile der anschließenden Pressemittei-

lung247. Medienschaffenden und Content-Managern wurden zahlreiche, auf KI basierende Lösun-

gen und Angebote präsentiert. Die Messe verdeutliche, "wie Algorithmen und Automatisierungslö-

sungen den Markt der Medien, Nachrichten und Content-Provider aufmischen"248.

Es wird geschätzt, dass aktuell bereits rund 70 Prozent einer Tageszeitung automatisiert erstellt

werden könnten249. Allerdings stehen Rezipienten maschinell erstellten Inhalten bisher zum Teil

noch skeptisch gegenüber250, zudem sind auch Algorithmen fehleranfällig. Laut Tony Emerson, dem

Managing Director des Bereichs "Media and Cable" bei Microsoft, seien die Fehlerquoten aber

durchaus mit denen von Menschen zu vergleichen – so können Übersetzungsleistungen maschinell

243 Vgl. Chen, J./Stallaert, J. (2014) 244 Vgl. Gillner (2017) 245 Vgl. VentureBeat (2015) 246 Castendyk, & Müller-Lietzkow (2017), S. 89f. 247 Vgl. IFRA World Publishing Expo & DCX Digital Content Expo (2017) 248 Vgl. ebd. 249 Vgl. Alkan in: Meier (2017) 250 Vgl. z.B. Graefe et al. (2016)

Page 80: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

77

derzeit mit rund 90 Prozent Genauigkeit geleistet werden251. Zudem kann erwartet werden, dass

sich die Qualität automatisierter Inhalte insbesondere durch Fortschritte im Bereich der NLG-Tech-

nologien noch weiter stark verbessern wird252. Die Associated Press bspw. will bis 2020 80 Prozent

ihres Nachrichtenangebots automatisiert erstellen und so Journalisten mehr Raum geben, sich in-

vestigativem Journalismus oder neuen Formen wie Virtual Reality zu widmen253.

Das größte Potential wird derzeit in der Automatisierung kleiner und einfacher Aufgaben gesehen,

und Computerprogramme werden vor allem als Zuarbeiter betrachtet254. Auf der anderen Seite

wurden mit Hilfe von KI in den USA bereits ein Drehbuch255, in Japan ein Roman256 und in Großbri-

tannien ein Marketing-Magazin verfasst257. Algorithmen können aktuell zwar keine neuen Phäno-

mene oder kausale Beziehungen erklären und sind in journalistischen Tätigkeiten nur begrenzt ein-

satzfähig258. Vermutlich können diese Einschränkungen aber mit der fortschreitenden technischen

Entwicklung in einigen Jahren aufgehoben werden.

251 Vgl. Emerson in: Leitner (2017) 252 Graefe (2016), S. 10 253 Lobe (2017), S. 1; Marconi in: Leitner (2017) 254 Lobe (2017), S. 2; Unsworth in: Leitner (2017) 255 Vgl. Neewitz (2016) 256 Vgl. Olewitz (2016) 257 Vgl. Writer (2016) 258 Graefe (2016), S. 10

Page 81: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

78

5.2 INNERBETRIEBL ICHE PO TENTIALE VON B IG DATA

BEI MEDIENUNTERNEHME N

Mit der fortschreitenden Digitalisierung in den Onlinemedien verändert sich nicht nur die Art und

Weise, wie mediale Inhalte erstellt werden. Vor allem auf der Anbieterseite birgt Big Data das Po-

tential, die gesamte Organisationsstruktur der Medienbranche grundlegend und nachhaltig zu ver-

ändern. Wie in den vorangehenden Kapiteln beschrieben wurde, lassen sich KI-gestützte Anwen-

dungen und Prozessautomatisierung bereits in die meisten Bereiche der Wertschöpfungskette in-

tegrieren (vgl. dazu Kap. 5.1.2).

Analysten erwarten, dass in der Forschung und Entwicklung durch den Einsatz von KI Kostenreduk-

tionen in Höhe von zehn bis 15 Prozent realisiert werden können. Neue Produkte können so schnel-

ler konzipiert und auf ihre Qualität getestet werden, was dazu führt, dass sie rd. zehn Prozent früher

in den Markt eingeführt werden können259. Dadurch entwickeln sich Big-Data-Prozesse aus einer

strategischen Perspektive zu distinktiven Wettbewerbsvorteilen. Repetitive Arbeiten können ver-

mieden und durch die freigesetzten Ressourcen neue Wertschöpfungsfelder erschlossen werden.

Um die zukünftigen Auswirkungen innerbetrieblicher Big-Data-Optimierung auf den Onlinemedi-

en-Markt abschätzen zu können, werden nachfolgend datenbasierte B2B-Angebote als Schlüssel-

aktivitäten untersucht260.

5.2. 1 BIG-DATA-PROZESSE ALS NEUE SCHLÜSSELAKTI VITÄT

Als Schlüsselaktivitäten werden die primären Tätigkeiten eines Unternehmens bezeichnet, die dazu

dienen, Kernprodukte und Dienstleistungen zu erstellen. Im Kontext von Onlinemedien handelt es

sich dabei vor allem um die Bereiche der Anfertigung von Inhalten, Kundenmanagement und des

Verkaufs von Werbung zur Refinanzierung. Doch auch andere Schlüsselaktivitäten werden von Big-

Data-gestützten Anwendungen erfasst.

Big-Data-Recherchen und Analysen wurden in den letzten Jahren im Kontext von Wikileaks-Veröf-

fentlichungen zur NSA-Spionage261 oder dem Wirtschaftsskandal um die sog. Panama Papers (vgl.

Kap. 5.1.1) zu den wichtigsten Werkzeugen des investigativen Journalismus. Neue, ortsungebun-

dene Datenanalyse-Abteilungen, bestehend aus internationalen Datenspezialisten, bieten das Po-

tential, journalistische Recherche- und Analysearbeit als Schlüsselressource für Medienunterneh-

men stark aufzuwerten. Zusammen mit Journalisten, Redakteuren und Grafikern können nunmehr

auch Datenwissenschaftler, Datentechniker und Big-Data-Analysten multidisziplinäre Teams für in-

teraktive Medienproduktionen bilden.

259 McKinsey & Company Inc. (2017), S. 35f. 260 In Anlehnung an die Methodik des Business Model Canvas Modell nach: Osterwalder & Pigneur (2010), S.

14ff. 261 Vgl. WikiLeaks (2016)

Page 82: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

79

Einige solcher hybriden Onlinemedien-Magazine wie vox.com, fivefortyeight.com oder das New

York Times Datenjournalismus-Portal theupshot.com implementieren seit einigen Jahren erfolg-

reich dieses Geschäftsmodell262. Was sich im Rahmen von Big Data jedoch für Unternehmen ändern

wird, ist die Organisation und das Management dieser Schlüsselaktivität.

Über Plattformen wie z.B. "Kaggle" werden Gigabyte-große Datensets frei verfügbar gemacht und

können von Datenforschern aus unterschiedlichsten Redaktionen aus der ganzen Welt dezentral

bearbeitet werden263. Alle Schritte und Werkzeuge zur Erstellung, A/B Prototyp-Prüfung, Ausfüh-

rung und Wartung von datengesteuerten Anwendungen werden durch KI-Automatisierung in einer

Plattform vereint. Auch ein öffentlicher Austausch von selbst programmierten Analysepaketen ist

möglich. Da verteilte Dateimanagementsysteme (wie z.B. Apache Hadoop) und ihre respektiven

Analysesprachen (HIVE, R-Pakete oder SPARK) modular und geografisch dispers eingesetzt werden

können, bieten andere kollaborative Online-Plattformen wie z.B. "Dataiku"264 mehreren dezentral

organisierten Gruppen die Möglichkeit, gemeinsam und in Echtzeit an einer Analyse zusammenzu-

arbeiten (vgl. Abb. 24).

Zentral für das Versprechen der Automatisierung ist, dass innerhalb solcher Plattformen Datensets

aus allen verfügbaren Datenbanksystemen aggregiert, strukturiert und sortiert werden können. In

den vorangehenden Jahren mussten sich Unternehmen für einen Datenstandard entscheiden und

kostenintensiv durch IT-Firmen implementieren lassen. Heute können Programmierer diese Daten

mit Hilfe von relationalen oder unstrukturierten Datenbanken innerhalb von wenigen Stunden or-

ganisieren und allen Teammitgliedern verfügbar machen, sodass Webentwickler diese visualisieren

und interaktiv aufbereiten können. Entscheidend wird für Online-Publisher, dass diese Form von

datengetriebener Analyse ergebnisorientiert und dezentralisiert organisiert werden kann. Somit

können Medienhäuser schnell neue Formate testen, publizieren und ihre Performance überprüfen,

ohne eine neue Abteilung gründen und Personal dauerhaft einstellen zu müssen – was einen Vorteil

zugunsten von Kosteneinsparungen bietet.

Big-Data-gestützte Vermarktung und Smart Sales stellen zwei weitere aufkommende Schlüsselak-

tivitäten für Medienunternehmen dar. Um Streuverluste zu vermeiden und die identifizierten Ziel-

gruppen direkt erreichen zu können, existieren schon heute integrierbare Sales-Cloud-Anwendun-

gen (wie z.B. die "Salesforce Einstein"-KI265 oder Pipedrive266), die in Echtzeit Kundenverhalten ana-

lysieren und automatisch eine grobe Zielgruppe bestimmen, damit Vertriebsmitarbeiter ihre Res-

sourcen besser planen und organisieren können.

Smart Sales erweitern diese Vermarktungsprozesse für Verlage, indem sie durch Big-Data-Analysen

Fragen beantworten wie z.B., wer als Individuum im Markt welches Produkt des Verlages erwirbt

und zu welchem Zeitpunkt. Durch das Zusammenspiel von KI und Sensordaten aus dem IoT entste-

hen zunehmend intelligentere Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung

und des Vertriebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten auto-

matisieren.

262 Vgl. Ball (2014) 263 Vgl. Kaggle (2018) 264 Vgl. Dataiku (2018) 265 Vgl. Salesforce (2018) 266 Vgl. Pipedrive (2018)

Page 83: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

80

Abb. 24: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics An-

bieters Dataiku

Quelle: Vgl. Dataiku (2018)

Organisiert als Cloud-Lösung, sind Smart Sales-Plattformen darauf ausgelegt, herauszufinden, wel-

che Faktoren für eine ideale Beziehung zum Kunden in Bezug auf das Zielunternehmen wie ausge-

prägt sein müssen. Die Algorithmen solcher Big-Data-Plattformen wie z.B. "Oracle Data Cloud"267

analysieren das Kundenverhalten, KNN-basierte Algorithmen lernen Muster in diesen Verhaltens-

daten zu erkennen und ermöglichen es dem Verleger, mehr über das Kundenengagement, die Kun-

denkonversion und das langfristige Erfolgspotential der eigenen (Online-) Publikationen herauszu-

finden. Diese KI-assistierte Vorgehensweise, um detaillierte Erkenntnisse zu generieren, hat in naher

Zukunft das Potential, zum Standardrepertoire von traditionellen Verlagen als auch von reinen On-

line-Publikationen zu werden, da bei jedem einzelnen Leser mit geringem Personalaufwand ein sehr

hoher Grad an Personalisierung erreicht werden kann.

Komplementär dazu existieren Big-Data-Anbieter, die unter Einsatz von maschinellem Lernen die

nachgelagerten Sales-Prozesse optimieren. Als Beispiel lässt sich das Unternehmen "Collective In-

telligence" anführen, welches Millionen von Aufzeichnungen über das B2B-Kaufverhalten aggre-

giert hat268. Der Anbieter bedient sich dieser Daten, der Methode des maschinellen Lernens und

multivariater Forecast-Modelle, um Mitarbeitern im Vertrieb Handlungsempfehlungen aufzuzeigen,

die direkt zu einem erhöhten Vertriebsumsatz führen sollen. Das Programm verbindet sich dazu

267 Vgl. Oracle Data Cloud (2018) 268 Vgl. Collective Intelligence (2018)

Page 84: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

81

nach der Integration in die IT-Infrastruktur eines Unternehmens mit dem CRM-System und weiteren

relevanten Datenquellen, um diese in quantifizierbare Erkenntnisse und Prognosen umzuwandeln.

5.2. 2 MARKTPOTENT IAL UND ANWENDUNGSBE R EICHE

Mit der Implementierung von Daten-Abteilungen und der automatischen Erstellung von Medien-

inhalten durch Big Data kommt den deutschen Medienunternehmen die Aufgabe zu, die Infrastruk-

tur um diese neuen Prozesse als Schlüsselressourcen zu erkennen und zu managen. Künstliche In-

telligenz und maschinelles Lernen wurden in Kapitel 3.1 als technologische Grundlagen für Big-

Data-Analysen vorgestellt und gleichsam als hochkomplexe Lernanordnungen beschrieben, die in

selbstreflexiven Algorithmen zusammengefasst werden. Die Formulierung, Modellierung und Im-

plementierung der Kern-Algorithmen müssen in einem organisationalen Kontext sorgfältig geplant

und in der Regel durch eine eigene IT-Abteilung (konkreter: durch Computerwissenschaftler) aus-

geführt werden269.

Obwohl Medienunternehmen immer weniger auf diese Schlüsselressource verzichten können, ver-

fügen sie noch über zu wenig Expertise, um KI-basierte Prozesse wie Roboterjournalismus selbst zu

implementieren270. An dieser Stelle setzen KI-as-a-Service-Anbieter an und ermöglichen Unterneh-

men den Zugriff auf selbstlernende KI-Modelle in Form von Online-Plattformen, die mit dem Begriff

"Distributed Artificial Intelligence" (DAI) betitelt werden271.

Für diese Form der KI-Integration können Publisher auf den Aufbau von eigenen Server- und KI-

Training-Infrastrukturen verzichten. Als Beispiel kann das Unternehmen "Fluid AI" angeführt wer-

den272, das durch flexibel gestaltbare KI-Modelle versteckte Beziehungen, Muster, Korrelationen

und Ursachen innerhalb großer Datenmassen identifizieren kann. Durch solche Formen des Zugan-

ges zu neuen Schlüsselressourcen über Intermediäre kann, zumindest in der Theorie, jede Art von

Unternehmen auf bestimmte Zielaufgaben abgestimmte Deep-Learning-Algorithmen entwickeln.

Ein weiteres prominentes Beispiel stellt die Open-Source Machine-Learning-Lösung "H2O.ai" dar273.

Dabei handelt es sich um eine Plattform für Entwickler, die das Erstellen von intelligenten Anwen-

dungen vereinfacht und eine Integration der generierten Algorithmen in eigene Applikationen un-

terstützt. Unternehmen wie PayPal benutzen sie zur Mustererkennung bei Betrugsfällen und erstel-

len Prognosen über geografische Problemgebiete, um nachhaltig sich ähnelnden Betrugsmustern

vorzubeugen274. Millionen von Datensets können in kürzester Zeit über ausgelagerte Algorithmen

und Analysemodelle nach Auffälligkeiten gefiltert werden.

Zu den Einsatzbereichen gehören dabei nicht nur Marketing, Versicherung, Finanzwesen und Tele-

kommunikation, sondern auch auf die Medienindustrie abgestimmte Verfahren zur Reduktion von

Komplexität in Textdokumenten, relationalen Datenbanken und Videodatenbanken.

Dienstleister wie "Sentient Technologies" ermöglichen es, komplett autonome Systeme zu betrei-

ben, ohne dezidierte KI-Forschungsabteilungen aufbauen zu müssen275. Die auf Web-Entwickler

269 Vgl. Planung der Prozessinfrastruktur in z.B. Batista et al. (2016), S, 5ff. 270 McKinsey & Company Inc. (2017), S. 39 271 Bond & Gasser (2014), S. 3 272 Vgl. Fluid.AI (2018) 273 Vgl. H2O.AI (2018) 274 Vgl. Morisy (2016) 275 Vgl. Sentient Technologies (2017)

Page 85: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

82

abgestimmte Schnittstelle lässt den Nutzer vollständig autonom agierende Systeme erstellen und

testen, wodurch sich u. a. im Bereich der digitalen Vermarktung Kampagnen optimieren, im E-Com-

merce höhere Konversionsraten erzielen und im Vertrieb Verkaufsstrategien automatisieren lassen.

Abb. 25: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017

Quelle: Vgl. Sentient Technologies (2017)

Im Rahmen einer solchen Vertriebsoptimierung konnte die eingesetzte KI bei einem Sonnenbrillen-

Online-Versand über eine Einkaufsmaske (vgl. Abb. 25) völlig automatisiert eine visuelle Konversa-

tion mit seinen Käufern führen. In Echtzeit konnte die KI verstehen, was den jeweiligen Kunden am

meisten interessierte, indem sie Hunderte verschiedener Vektoren (bzw. Bildpunkte) eines Bildes

analysierte, mit denen der Kunde in der Einkaufsmaske interagierte. So konnte die KI genau die

Präferenzen des Kunden als Faktoren bestimmen. Anstatt diese Präferenzen in Form von Kohorten-

basierter Personalisierung auszuwerten, um standardisierte Produktempfehlungen zu generieren,

konnte durch maschinelles Lernen ein Präferenzen-Modell des konkreten Katalogs des Händlers

erstellt werden.

Das Katalog-Modell enthielt hierbei nur die Bilderdateien und unstrukturierte Vektordaten von den

tatsächlich vertriebenen Modellen (was auch als Big Data bezeichnet werden kann). Auf diesem

Wege konnte die KI über die identifizierten Faktoren in Echtzeit eine Beziehung zwischen den Prä-

ferenzen des Kunden und den Eigenschaften der vorhandenen Artikel herstellen. Das Unternehmen

gibt an, damit den Verkaufsvorgang zwischen einem Menschen und einem ausgebildeten Laden-

mitarbeiter zu simulieren, der sich mit dem Angebot seiner Filiale auskennt. Als Resultat konnten

durch den Einsatz der KI der durchschnittliche Bestellwert um acht Prozent und die durchschnittli-

che Konversionsrate um 21 Prozent gesteigert werden276.

276 Vgl. ebd. S. 2

Page 86: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

83

Auf der anderen Seite des Anwendungsspektrums existieren hybride DAI-Angebote, bei denen die

Anwendung von Künstlicher und menschlicher Intelligenz zusammen gebucht werden kann. Hyb-

ride Automations-Dienstleistungen wie Amazons "Mechanical Turk"277 oder die "WorkFusion"278

Online-Plattform bieten virtuelle B2B-Marktplätze, die es Unternehmen erlauben, zeitlich unbe-

schränkt KI-gestützte "menschliche Intelligenz" in Arbeitsabläufe zu integrieren und einfache Auf-

gaben zu automatisieren, die Computer bisher noch nicht im Stande sind zu erfüllen – wie z.B. von

Nutzern hochgeladene Online-Inhalte zu kuratieren. Durch ein derartig bedarfsorientiertes Arbeits-

kraft-Management besteht die Möglichkeit, mit hybriden DAI-Angeboten Lohnkosten erheblich zu

senken.

Big-Data-bezogene Geschäftsprozesse müssen deswegen auch nicht nur durch Outsourcing auf

Kosten der Arbeitnehmer optimiert werden, sondern können in Form von robotergesteuerter Pro-

zessautomatisierung, maschineller Analyse und Arbeitskraftorchestrierung realisiert werden. Solch

flexible Figurationen im Management von Schlüsselressourcen ermöglichen im Verlauf der Adap-

tation von Big-Data-Produkten der deutschen Medienbranche erhebliche Synergieeffekte. Der Ein-

satz von verlagsinternen Schlüsselressourcen wie menschlicher Intelligenz, Kreativität und Ästhetik

in Kombination mit zugelieferter Analysekraft von KI kann die Produktivität und Agilität bei der

Dienstleistungserbringung von Unternehmen enorm steigern. Multimediale Projekte, bestehend

aus Millionen von Video- und Textrohdaten, können mit Hilfe von Big-Data-Prozessen schnell ge-

sichtet, indexiert und bearbeitet werden, sodass die zuständigen redaktionellen Mitarbeiter mit den

kondensierten Ergebnissen in kurzer Zeit tiefgehende Analysen, Porträts oder Gutachten erstellen

können.

5.2. 3 ZUSAMMENFASSUNG UND AUSBLICK

Wenn es um die Implementierung von Big Data in innerbetriebliche Prozesse im deutschen Markt

für Onlinemedien geht, neigt der öffentliche Diskurs dazu, KI als Ursache für Filter Bubbles darzu-

stellen (vgl. Kap. 4.3.3), Prozessautomatisierung als Grundlage für Arbeitsplatzrationalisierungen279

und Chatbots als Instrumente für Wahlkampfmanipulationen280. Die Realität in Unternehmen, die

Big-Data-Initiativen gestartet haben, ist dagegen von eher sachlicher Natur. Von den rd. 40 Prozent

aller Unternehmen weltweit, die Big-Data-Projekte umsetzen, haben erst 18 Prozent diese als festen

Bestandteil in ihre innerbetriebliche Prozessstruktur implementiert (in Europa sind es sogar nur 16

Prozent)281. Von einer komplett autonomen Entscheidungsfindung in Medienunternehmen und ei-

ner daraus resultierenden systematischen Verzerrung der Meinungsbildung kann daher im Moment

nicht gesprochen werden.

Im normativen Mediendiskurs wird durch die Priorisierung der negativen Folgen von KI-gesteuerten

Prozessen eine zentrale Perspektive vernachlässigt: Im Fokus der innerbetrieblichen Optimierung

durch Big Data oder KI geht es nicht darum, Entscheidungen zu automatisieren oder sich der Ver-

antwortung zu entledigen. Marktstudien und Umfragen zur Big-Data-Nutzung in Unternehmen

277 Vgl. Amazon Mechanical Turk (2018) 278 Vgl. WorkFusion (2018) 279 Vgl. z.B. Hank & Meck (2016) 280 Vgl. z.B. Krempl (2017) 281 BARC (2015), S. 10

Page 87: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

84

kommen oft zu demselben Ergebnis: Unternehmen investieren in Big Data, um Mitarbeiter zu ent-

lasten und nicht, um sie zu entlassen282. Mit Hilfe von Big-Data-Ergebnissen soll die Entscheidungs-

findung von Mitarbeitern nicht obsolet gemacht, sondern insofern erleichtert werden, als dass das

Geschäftsmodell in Bezug auf Gewinnmaximierung verbessert werden kann.

Diese Aussage lässt sich anhand des Einsatzes von Automatisierungsprozessen nach Branchen

überprüfen. Bei der Frage nach der Umsetzung von Entscheidungen auf Basis von Ergebnissen von

Big-Data-Analysen konnte im Rahmen einer BITKOM-Studie eine stärkere Zustimmung zu dieser

Aussage bei v.a. technischen und industriellen Branchen verortet werden, wie bspw. im Maschinen-

und Anlagebau oder in der Automobilindustrie. Im direkten Vergleich sieht man unter allen befrag-

ten Branchen die Medienwirtschaft als die Branche, die am allerwenigsten relevante Entscheidungen

auf Basis von Erkenntnissen aus Big-Data-Analysen umsetzt (vgl. Abb. 26).

Abb. 26: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data-

Analyseergebnissen zur Entscheidungsfindung in Unternehmen

Quelle: Erwin et al. (2016), S. 6; Mittelwerte auf einer Skala von 1 „Trifft voll und ganz zu“ bis 5 „Trifft überhaupt nicht

zu“ (gewichtet) der befragten Unternehmen, n=704

Im Rahmen derselben Untersuchung wurde jedoch auch festgestellt, dass trotz der unterdurch-

schnittlichen Nutzung von Analyseergebnissen zur Entscheidungsfindung die Medienwirtschaft

282 Vgl. z.B. ebd., S. 15 oder Erwin et al. (2016), S.15 ff.

Page 88: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

85

über alle Branchen hinweg den größten Anteil von Unternehmen besitzt, die fortgeschrittene Ana-

lysemethoden zur freien bzw. explorativen Suche von Erkenntnissen in Datensets von unterschied-

lichster Herkunft und Struktur einsetzen283.

Wie auch in den meisten anderen Branchen geht es beim Einsatz von Big-Data-Analyseplattformen

in der deutschen Medienbranche eher darum, Erkenntnisse aus deskriptiven Analysen zu ziehen, als

Entscheidungen aus präskriptiven Analysen zu generieren284. Besonders der Erkenntnisgewinn im

Bereich Kundenverständnis und Verbesserung der Kundenerfahrung ist für jedes zweite Unterneh-

men entscheidend285, da über alle Unternehmensbereiche hinweg Big-Data-Analysen vor allem in

den operativen, auf Kunden fokussierten Marketing- und Vertriebs-Abteilungen realisiert werden

(vgl. Abb. 27).

Abb. 27: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland,

in Prozent

Quelle: BARC (2015), S. 17; Frage: „In welchen Bereichen nehmen Sie in Ihrem Unternehmen Big-Data-Analysen vor

bzw. planen Sie Big-Data-Analysen vorzunehmen?", n = 423

In diesem Kontext müssen Unternehmen, die ihre Abteilungen auf den Big-Data-Paradigmenwech-

sel vorbereiten, v.a. auf Folgendes achten: auf die Herausforderungen der unscharfen Analysetiefe,

den Aufbau von methodisch reliablen Vorhersagemodellen und die Analyse von polystrukturierten

283 Vgl. ebd. S. 11 284 Vgl. ebd. S. 9 285 BARC (2015), S. 15

Page 89: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

86

Datenquellen286. Um diesen Herausforderungen gerecht zu werden, müssen Datenquellen richtig

aggregiert, verstanden und interpretiert werden. Die häufigsten Arten von Datenquellen stellen bei

Big-Data-Analysen vor allem Daten aus Transaktionssystemen, Log-Daten aus internen (CRM-) Sys-

temen und maschinelle Sensordaten aus dem IoT dar287.

Das zentrale Problem, das allen beschriebenen Herausforderungen innewohnt, ist die Erwartungs-

haltung des Managements, Big-Data-Analyseergebnisse aus der Perspektive von klassischen Busi-

ness-Intelligence Anwendungen zu betrachten. Klassische BI-Analysewerkzeuge sind wenig flexibel,

da sie auf relationalen Datenbankmanagement-Systemen aufsetzen. Big-Data-Initiativen generie-

ren stattdessen eher explorative Resultate, um komplett neue Wissenskontexte zu ermöglichen, die

bisher aufgrund der nötigen analytischen Rechenleistung nicht denkbar gewesen sind.

Gerade in der Medienbranche bestehen deshalb noch weitere Herausforderungen, die es zu über-

winden gilt. Fehlendes fachliches und technisches Know-how verhindern derzeit noch eine bran-

chenweite Implementierung von KI und maschinellem Lernen288. Doch nicht nur die Mitarbeiter

müssen in dem Umgang geschult sein, sondern vor allem auch die Entscheidungsträger in den

jeweiligen Abteilungen. Wie in den Kapiteln 5.1 und 5.2 beschrieben wurde, hat sich um KI-as-a-

Service bereits ein großes Ökosystem aus zahlreichen Big-Data-Dienstleistern gebildet. Ihr Ge-

schäftsmodell basiert darauf, als Intermediäre organisatorische und technologische Wissenslücken

zu schließen, indem sie on-demand und modular die Integration von Big-Data-Services anbieten

(vgl. dazu Übersicht im Anhang, Kap. 9.1 und 9.2).

Doch dazu muss der Wert von Big Data als Schlüsselaktivität und -ressource überhaupt von Ent-

scheidungsträgern anerkannt werden: Laut einer Umfrage unter Führungskräften aus allen Bran-

chensektoren aus dem Jahr 2016 gaben rd. 30 Prozent zu, dass das Management ihrer jeweiligen

Unternehmen Künstliche Intelligenz als Technologie prinzipiell nicht versteht289. Analog dazu sollte

sich auch auf der Arbeitnehmerseite das Verständnis durchsetzen, dass arbeitsethische Bedenken

beim Einsatz von KI und Algorithmen nicht der Technik per se gelten sollten, sondern eher den

Verantwortlichen. Die Zielsetzung hinter Innovationsprozessen ist stets, Arbeitsvorgänge zu kataly-

sieren, und menschliche Ressourcen effektiver einzusetzen, um bessere Produkte zu produzieren,

anstatt reine Kosteneinsparungen durch Automatisierung zu realisieren.

Wie in Kapitel 5.1.1 erläutert, liegt für die Medien- und Werbeindustrie das Big-Data-Potential darin,

explorative Erkenntnisse zu generieren, um den Kunden anhand seines Verhaltens und nicht wegen

seiner Demografie besser einschätzen zu können und basierend darauf Predictive-Analytics-Lösun-

gen zu erarbeiten. Vor allem im Marketing, der Akquise und im Vertriebs-/Sales-Bereich lassen sich

Konversionen gerade durch die allein menschlichen Eigenschaften wie Kreativität, Intuition und

Konsistenz erzielen290. Diese Eigenschaften werden auch in naher Zukunft nicht durch KI-gestützte

Algorithmen ersetzt werden können291. Hybride Big-Data-Lösungen bieten für diese Einsatzgebiete

286 Vgl. ebd. S. 13 und McKinsey & Company Inc. (2017), S. 40ff. 287 BARC (2015), S. 32 288 Vgl. ebd. S. 35 289 The Economist Business Intelligence Unit Ltd. (2016), S. 19 290 Vgl. Albrecht (2017) 291 Innovationen wie "Artificial General Intelligence" oder "Quantum Computing", die potentiell in der Lage

wären, menschliche Wesenszüge zu simulieren, werden noch länger als 10 Jahre vor der Markteinführung

entfernt eingestuft. Vgl. dazu Panetta (2017)

Page 90: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

87

dagegen unter Einbezug von personenbezogenen Daten das größte Potential, menschlichen Mit-

arbeitern die Kundenansprache zu erleichtern – und nicht, sie ihnen komplett abzunehmen.

Dabei ergibt sich im Umgang mit personenbezogenen Daten die Herausforderung, Datensicherheit

als ernstes strategisches Problem zu beachten. Denn sobald Kunden und nicht Analyseergebnisse

in den Mittelpunkt von Big-Data-Auswertungen rücken, spielen sowohl der Datenschutz als auch

die Datensicherheit eine zentrale Rolle für Unternehmen. Rund die Hälfte aller Unternehmen, die

Big-Data-Initiativen gestartet haben in Deutschland, sieht Datenschutz als problematischste Kom-

ponente für die Implementierung von automatisierten Prozessabläufen. 48 Prozent sehen gleich-

zeitig die Datensicherheit als gleichwertig relevantes Problem an292. Datensicherheit ist als norma-

tive Vorgabe schwierig und vor allem kostspielig. Deswegen wird es in den kommenden Jahren für

Medienunternehmen, E-Commerce-Anbieter und Werbetreibende entscheidend, im Rahmen einer

konsistenten Datenstrategie möglichst früh Schutzklassen, Sicherheitszonen sowie -protokolle für

Maschinen-Datensets und personenbezogene Daten festzulegen.

Vor diesem Hintergrund zeichnet sich immer deutlicher ab, dass Big-Data-Datensets und perso-

nenbezogene Daten zu einer Schlüsselressource im Onlinemedien-Markt werden, die es zu über-

wachen und zu schützen gilt. Im folgenden Kapitel soll die Gewinnung und die rechtliche Situation

von personenbezogenen Daten in Deutschland untersucht und ihr Marktpotential dargestellt wer-

den.

292 BARC (2015), S. 35

Page 91: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

88

5.3 DATENGEWINNUNG FÜR A KQUISE UND VER TRIEB

Die Identifikation neuer Kunden und die gerichtete Werbeansprache an passende Zielgruppen sind

von wesentlicher Bedeutung für den Vertrieb im deutschen Markt für Onlinemedien. Publisher, E-

Commerce-Firmen, Gaming-Anbieter können nur dann profitabel wirtschaften, wenn ihre Produkte

passend für Kunden gestaltet sind und diese kontinuierlich zu einem Wiederkauf motivieren. Noch

profitabler gestaltet sich das Abonnement-Geschäftsmodell, bei dem der Nutzer sowohl mit tradi-

tionellen Zeitschriftenverlagen als auch mit Onlinemedienanbietern wie Netflix oder Spotify eine

langfristige Geschäftsbeziehung eingeht. Damit kann der interne Cash-Flow eines Unternehmens

gesteigert oder zumindest konstant gehalten werden. Daher kommt der Akquise neuer Kunden und

dem Vertrieb von zeitlich ausgedehnten Abonnements in der Wertschöpfungskette von Medien-

unternehmen eine zentrale Rolle zu. Für diese Art von gezielter Nutzerakquise benötigen Unter-

nehmen nicht nur qualifizierte Vertriebsmitarbeiter und computergestützte Analysemethoden, son-

dern vor allem auch den Zugang zu potentiellen Kunden durch aufbereitete Personendaten, Kun-

denprofile und Bonitätsauskünfte. Wie eingangs in Kapitel 3.2 beschrieben, stellen sie die Grund-

lage für den Gegenstand von Big Data dar.

Der Markt für solche Verbraucher- bzw. Nutzerdaten hat sich durch die steigende Nachfrage von

Medienunternehmen, Werbetreibenden, E-Commerce-Anbietern, Politik und Marktforschern im

Segment des Online-Marketings sowie der (digitalisierten) Bonitätsauskünfte stetig weiterentwi-

ckelt293. Personenbezogene Konsumentendaten und digitale Verhaltensprofile dienen nicht mehr

nur der Werbewirtschaft, sondern liefern mittlerweile die Grundlage für ein wachsendes Ökosystem

an Listbrokern, Datenhändlern, Auskunfteien und weiteren Anbietern, die sich auf die Anreicherung

von Big-Data-tauglichen Datenclustern spezialisiert haben (vgl. Abb. 28).

Abb. 28: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personenbezoge-

nen Verbraucherdaten (vereinfachte und beispielhafte Darstellung)

Quelle: Goldmedia Analyse (2016/2017) nach: Eigenangaben der Unternehmen (2016/2017)

Dabei wirken zwei zentrale Treiber für das Marktwachstum: einerseits der Siegeszug des datenba-

sierten Marketings und andererseits die zunehmend durch KI automatisierten Kreditvergabe- und

293 Vgl. Absatzwirtschaft (2015)

Page 92: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

89

Bonitätsprüfungsdienste. Beide Branchen versprechen ihren Unternehmenskunden durch die auto-

matisierte Analyse, Auswertung und Ansprache von Kunden Kosteneinsparungen, die vor allem

durch den Erwerb und die Anreicherung von Kundendaten funktionieren.

5.3. 1 DEFINIT ION VON PERSO NENBEZOGEN EN DATEN

Das Bundesdatenschutzgesetz definiert personenbezogene Daten generell als "Einzelangaben über

persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Per-

son"294. Grundsätzlich gelten damit sämtliche Daten als personenbezogene Daten, die es ermögli-

chen, einen Personenbezug direkt oder indirekt herzustellen. Ein direkter Personenbezug erfolgt

über den Namen, ein indirekter Bezug kann bspw. über eine Kreditkarten- oder Telefonnummer

hergestellt werden (personenbeziehbare Daten). Anhand dieser Definition kann eine Vielzahl an

unterschiedlichen Arten von Datenkategorien identifiziert werden:

Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl)

KATEGORIE PERSONENBEZOGENE DATEN

Soziodemografische/

-ökonomische Angaben

Alter, Geschlecht, Bildung, Beruf, Einkommen, Familienstand etc.

Geografische Angaben Standort, Anschrift etc.

Sensible Daten Ethnische Herkunft, politische Meinungen, Religionszugehörigkeit,

Gesundheitsdaten, Sexualleben, biometrische Daten etc.

Persönlichkeitsprofil Extraversion, Gewissenhaftigkeit etc.

Angaben über Konsumverhalten Getätigte Einkäufe etc.

Interessen Produkte, Marken, Musik, Film etc.

Technische Angaben Browser, Endgerät, IP-Adressen, Nutzungs-/Surfverhalten (Web-

Tracking) etc.

Audiovisuelle Daten Videoaufzeichnungen, Fotos, Audio-Mitschnitte etc.

Indirekte bzw.

personenbeziehbare Daten

Personalausweisnummer, Versicherungsnummer, Kreditkartennum-

mer, Kfz-Kennzeichen, Telefonnummer, E-Mail-Adresse etc.

Quelle: Goldmedia Analyse (2018)

Seit der Novellierung des Bundesdatenschutzgesetzes 2009 können zum Zwecke der Werbung oder

des Adresshandels personenbezogene Daten – sofern keine explizite gesetzliche Regelung existiert

– grundsätzlich nur mit Einwilligung der betroffenen Person erhoben werden (Opt-In)295.

Für die Datenerhebung und -speicherung im Rahmen der eigenen Geschäftstätigkeit von Unter-

nehmen sowie der geschäftsmäßigen Datenübermittlung legen die §§ 28 und 29 BDSG die rechtli-

chen Rahmenbedingungen für den Umgang mit personenbezogenen Daten und Ausnahmen vom

294 § 3 Abs. 1 Bundesdatenschutzgesetz (BDSG) 295 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG)

Page 93: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

90

Einwilligungsvorbehalt fest. Personenbezogene Daten können daher ohne Einwilligung der be-

troffenen Person erhoben, verarbeitet und genutzt werden, sofern sie beschränkt sind auf Name,

Titel, akademischer Grad, Anschrift, Geburtsjahr und ein Listenmerkmal, das die betroffene Person

als zu einer Gruppe zugehörig definiert (bspw. Online-Käufer, Pkw-Besitzer, etc.)296.

Nicht unter das Listenprivileg fallen damit bspw. E-Mail-Adressen und Telefonnummern. Im Rah-

men der listenmäßigen Erhebung können die personenbezogenen Daten zum Zwecke der Eigen-

werbung (an Bestandskunden oder Interessenten), für berufsbezogene Werbung und Spendenwer-

bung genutzt und für Zwecke der Werbung für eigene Angebote auch mit weiteren Merkmalen und

Daten (sowohl aus internen als auch externen Quellen) angereichert werden. Ausdrücklich gesetz-

lich erlaubt ist der Adresshandel mit Listendaten (auch "Listbroking"), sofern in der Werbung kennt-

lich gemacht wird, welche Stelle die Daten ursprünglich erhoben hat297. Unter diesen Transparenz-

vorschriften können die Listendaten dann an Dritte für Werbezwecke übermittelt werden. Ebenso

können Unternehmen den eigenen Listenbestand nutzen, um im Auftrag Dritter zu werben298.

Für die Erhebung von personenbezogenen Daten im Internet liefert das Telemediengesetz (TMG)

eigene Regularien: Auch hier gilt grundsätzlich, dass personenbezogene Daten nur mit Einwilligung

des Nutzers erhoben und gespeichert werden dürfen299. Eine gesetzliche Erlaubnis zur Erhebung

und Speicherung der Daten besteht – wie im Offline-Bereich auch – im Zusammenhang mit Be-

standsdaten (Vertragsdaten, Kundendaten etc.). Darüber hinaus ist es Online-Anbietern ohne Ein-

willigung des Nutzers gesetzlich erlaubt, Nutzungsdaten (u.a. Identifikation des Nutzers, Umfang

der Nutzung) zu erheben und zu verwenden, sofern diese benötigt werden, um das bereitgestellte

Online-Angebot zu ermöglichen bzw. die Dienstleistung abzurechnen300.

Am 25. Mai 2018 tritt die Europäische Datenschutz-Grundverordnung (EU-DS-GVO, kurz: DS-GVO)

in Kraft. Damit ändert sich die Rechtslage für Unternehmen innerhalb der Europäischen Union er-

heblich. Die Anpassung an nationales Recht ist in Deutschland restriktiv ausgefallen. Dies wird so-

wohl von der Wissenschaft als auch in der Wirtschaft kritisiert, während Verbraucherschutzverbände

die Verordnung begrüßen301. Die Richtlinien der DS-GVO werden vor allem deshalb kritisiert, weil

sie für datenverarbeitende Dienstleister den Nachweis eines aufwändigen Double-Opt-In der Nut-

zer vorschreiben. Konkret müssen Nutzer ab Mai 2018 nicht nur den jeweiligen Datenschutz- und

Datensammelerklärungen auf den Webseiten der Betreiber zustimmen, sondern auch explizit der

Verarbeitung ihrer Daten via E-Mail302.

Die DS-GVO will durch einen einheitlichen Datenschutz innerhalb der EU-Mitgliedsstaaten mehr

Datensicherheit und Datenhoheit für natürliche Personen schaffen. Dabei geht es vor allem um die

automatisierte Verarbeitung, Verwendung und Speicherung personenbezogener Daten. Betroffen

sind dabei alle (Online-)Unternehmen, die personenbezogene Daten von deutschen Bürgern verar-

beiten303.

296 Vgl. Jüngling (2013b) 297 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG) 298 Vgl. BfDI (o. D.) 299 § 12 Telemediengesetz 300 § 15 Abs. 1 Telemediengesetz 301 Vgl. Käfer (2017) 302 Art. 7 Abs. (1) und Abs. (4) ebd.; Ebenfalls zu beachten: Erwägungsgrund 33 ebd. 303 Art. 3 Abs. (2) und Abs. (3) sowie Art. 44 EU-DS-GVO

Page 94: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

91

Die neuen Regelungen der DS-GVO verlangen, dass für den Nutzer durch klare Formulierungen

und eine einfache Sprache größtmögliche Transparenz gewährleistet ist305. Hinzu kommt eine ob-

ligatorische Datenschutzbelehrung, die jedes Unternehmen verbindlich präsentieren muss – inklu-

sive Links zu Datenschutzbelehrungen Dritter, die am Prozess der Datenverwertung beteiligt sind306.

Art. 7 Abs. 4 der DS-GVO sieht dabei ein strenges Kopplungsverbot im Zuge der Datenaggregation

vor. So dürfen Datenbestände mit personenbezogenen Daten nicht mehr für mehrere Maßnahmen

genutzt werden, sodass für jede Aktion eine separate Einwilligung eingeholt werden muss. Zudem

wird auch eine Speicherbegrenzung personenbezogener Daten mit unterschiedlichen Fristen vor-

geschrieben, um eine langfristige bzw. permanente Datennutzung zu begrenzen307.

Unternehmen, die mit Einwilligung eines Nutzers personenbezogene Daten erhoben haben, stehen

aufgrund der DS-GVO in einer umfangreichen Nachweis-, Dokumentations- sowie Meldepflicht ge-

genüber dem Nutzer308. Damit wird das Personenrecht gestärkt, da jeder Nutzer ab Mai 2018 ein

"Recht auf Vergessenwerden" hat: So müssen Unternehmen, die personenbezogene Daten vorhal-

ten diese nach einem Widerruf durch den Nutzer vollständig löschen309.

Im Bereich des Medienrechts ist in Art. 85 DS-GVO vorgesehen, dass der Schutz personenbezogener

Daten mit dem Recht auf freie Meinungsäußerung und der Informationsfreiheit (incl. der Verarbei-

tung dieser Daten für journalistische, wissenschaftliche, künstlerische und literarische Zwecke) in

Einklang gebracht werden müssen. Damit sind auch das deutsche Presse-, Rundfunk- und Tele-

medienrecht betroffen. Insbesondere müssen auch der Ausnahmetatbestand des Medienprivilegs

bei der Datenverarbeitung zu journalistischen Zwecken, (bspw. bei der namentlichen Nennung von

Personen in den Medien, vgl. § 57 im RStV bzw. § 41 im BDSG) und die Ausgestaltung der Rundfunk-

Aufsicht mit dem DS-GVO in Einklang gebracht werden zu müssen. Die Bundesländer sind hierbei

in ihren Gesetzgebungsprozessen unterschiedlich weit fortgeschritten und die vorgesehen Rege-

lungen dabei nicht einheitlich.310

Erlaubt bleibt weiterhin die Verwendung von Online-Nutzungsdaten für Werbe- oder Marktfor-

schungszwecke, wenn die Nutzerprofile durch Pseudonymisierung nicht auf die jeweilige Person

zurückzuführen sind und zuvor die Person dieser pseudonymisierten Weiterverarbeitung zuge-

stimmt hatte311. Die Pseudo- bzw. Anonymisierung großer Mengen personenbezogener Daten ist

für Onlinemedien-Anbieter von hoher Relevanz: Für die Personalisierung von Inhalten und Ange-

boten durch KI-basierte Algorithmen sowie für die Vermarktung der Reichweiten ist es entschei-

dend, die Präferenzen, das Surfverhalten oder sonstige Charakteristika des Nutzers zu kennen.

305 Art. 12 Abs. (1) ebd. 306 Art. 24 und Art. 26 Abs. (3) ebd. 307 Art. 5 Abs. (1) lit. e ebd. 308 Zu Nachweispflichten vgl. Art. 5 Abs. (2), Art. 7, Art. 12, Art 24. und Art. 35 ebd.; zu Dokumentationspflichten

vgl. Art. 26, Art. 28, Art. 33 und Art. 46 ebd.; zu Meldepflichten vgl. Art. 33 und Art. 34 Abs. (1) ebd. 309 Art. 17 ebd. 310 Vgl. EMR (2018): unter http://emr-sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsver-

trages-und-der-datenschutz-grundverordnung-der-eu/ 311 Vgl. zu Pseudonymisierung Art. 4 Abs. (5), Art. 6 Abs. (4) lit. e, Art. 25 Abs. (1) und Art. 40 Abs. (2) lit. e ebd.;

Der Diensteanbieter hat jedoch auf das Widerspruchsrecht des Nutzers nach § 13 Abs. (1) TMG hinzuwei-

sen. Vgl. § 15 Abs. 3 Telemediengesetz

Page 95: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

92

In der Regel werden daher IP-Adressen in Deutschland vor der Speicherung anonymisiert und nur

zur Geolokalisierung eingesetzt312. Die Anonymisierung ist datenschutzrechtlich notwendig, da die

längerfristige Speicherung von IP-Adressen nur zu Abrechnungszwecken erfolgen darf313.

Für deutsche Unternehmen, die mehr als zehn Mitarbeiter beschäftigen und die direkt mit perso-

nenbezogenen Daten arbeiten, sie sammeln oder auf Basis solcher Datensets Big-Data-Analysen

durchführen, verlangt die Europäische DS-GVO, einen eigenen Datenschutzbeauftragten zu benen-

nen314. Während für kleinere Unternehmen die Vorschriften der DS-GVO mit erheblichem administ-

rativen Aufwand verbunden ist, wird sich für große Plattformanbieter vermutlich wenig ändern: Sie

erheben in der Regel bereits die Einwilligung zur Datenverarbeitung über das Log-In in das jeweilige

Nutzerprofil315.

Für Unternehmen, die Big-Data-gestützte Auswertungen anbieten, werden die Möglichkeiten des

Profilings, also die Erstellung psychometrischer Profile, die Rückschlüsse auf Nutzerverhalten, Inte-

ressen und Präferenzen erlauben, durch die DS-GVO stark eingeschränkt316. So kritisiert bspw. der

Bundesverband der Zeitungsverleger (BDZV), dass eine restriktive Auslegung der DS-GVO moderne

Online-Werbung und Algorithmen-gestützten E-Commerce, die auf personenbezogenen Daten ba-

sieren, erheblich einzuschränken drohe317. Auch der Deutsche Journalisten-Verband beklagt, dass

institutionelle Datenschützer Einblick in die (geschützte) Arbeit von Redaktionen nehmen könnten

und damit die Pressefreiheit gefährdet würde. Auch die Position von Intermediären und Suchma-

schinen, die nicht selbst dem Medienprivileg unterliegen, wird neu hinterfragt: So prüft das Bun-

desverfassungsgericht derzeit, ob das Medienprivileg eines öffentlich-rechtlichen Senders, der den

Name einer Person publiziert hatte, eine Einschränkung der Nennung auf Plattformen verhindert.

Doch trotz vielfältiger Kritik von Medienverbänden hat die öffentliche Diskussion zur Nutzung per-

sonenbezogener Profile im Zuge des "Cambridge Analytica-Skandals" Anfang 2018 bereits zu wei-

tergehenden Konsequenzen geführt: So erklärte Facebook in Folge des Bekanntwerdens der un-

kontrollierten Nutzung von rund 87 Mio. Nutzerprofilen durch Cambridge Analytica318, Werbepart-

nern in Zukunft weniger personenbezogene Datenkategorien anbieten zu wollen, den Zukauf von

Datensets von Drittanbietern zu begrenzen und vor allem Werbekategorien auf Basis der Vorher-

sage von Kundenverhalten einzudämmen319.

Gerade der Einsatz von personalisierten Inhaltsangeboten und automatisierten Werbekampagnen

könnte vor diesem Hintergrund durch die DS-GVO – je nach Auslegung der einzelnen Öffnungs-

klauseln320 – problematisch bis unmöglich gemacht werden: Ohne ausreichend historische Daten

und einer nur unzureichenden Profilbildung durch eine Limitierung von Drittdaten können KNN-

basierte Algorithmen nicht zureichend präzise trainiert werden, um dem Nutzer passende Inhalte

zu präsentieren oder Werbetreibenden verlässliche Vorhersagen liefern zu können.

312 Vgl. BVDW (o. D.) 313 Vgl. § 15 Abs. 4 Telemediengesetz 314 Art. 37 EU-DS-GVO 315 Vgl. Kafsack (2015) 316 Vgl. zum Begriff des Profiling in EU-DS-GVO Art. 4 Abs. 4, Art. 22 und Art. 35 ebd. 317 Vgl. BDZV (2016) 318 Vgl. Handelsblatt (2018) 319 Vgl. Collins/Buchanan (2018) 320 Vgl. Haufe Online Redaktion (2017)

Page 96: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

93

5.3. 2 MARKTPOTENT IAL UND ANWENDUNGSBE R EICHE

In Anbetracht der steigenden Investitionen, die in Unternehmen für Adress- und Datenhandel seit

2012 getätigt wurden321, sowie des wachsenden Volumens an investiertem Risikokapital in neue

Big-Data-Unternehmen (vgl. Abb. 29) lässt sich eine hohe Gewinnerwartung gegenüber diesen

Branchen ablesen322. Bereits 2012 meldete der Weltmarktführer für personenbezogene Big-Data-

Datensets "Acxiom" rund 50 Trillionen Datentransaktionen auf seinen Servern323. Insgesamt gene-

rierte 2012 der Markt global einen Umsatz von rd. 150 Mrd. Dollar. 2013 waren es bereits rd. 200

Mrd. Dollar324. Und dieser Trend hält weiter an. Data-Mining und weitläufige Datenanalyse sind

bereits für viele Branchen zum zentralen Bestandteil ihrer Marketingkampagnen und Kundenkom-

munikation geworden. 2015 wurden entsprechend rd. 4.000 Anbieter weltweit registriert. Im Juni

2016 zählte Gartner Inc. bereits 5.000 Anbieter325.

Abb. 29: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz,

2011-2017, in Mio. US-Dollar

Quelle: Vgl. CB Insights (2016)

Der Handel mit Adressen und Big-Data-Datensets ist auch in der deutschen Werbe- und Medien-

landschaft etabliert: Das Ziel der meisten Werbetreibenden ist es, aufgrund von zunehmend KPI-

orientierten Marketingbudgets Streuverluste von Marketingkampagnen zu minimieren. Durch Da-

321 Bspw. Investitionen in das Unternehmen Datalogix in 2014, vgl. Constine (2014), und dessen Akquisition

von Oracle oder in den dt. Anbieter Blackbee in 2014, vgl. Postulka (2016) 322 Da Daten-Broker und Dialogmarketing-Firmen teilweise auch global agieren und Investitionsrunden me-

thodisch unterschiedlich durchgeführt werden, ist es nur begrenzt möglich, die konkreten Investitionen mit

einer Gesamtsumme zu beziffern. 323 Vgl. Singer (2012) 324 Vgl. Levine (2013) 325 Vgl. Moore (2016)

Page 97: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

94

ten-Broker und Vermarkter von Kundenprofilen können sie konkrete Zielgruppen präzise eingren-

zen und adressieren. Auf dem deutschen Markt sind rd. 1.000 Anbieter im Bereich des Adress- und

Datenhandels aktiv326.

Eine Reihe von Unternehmen (wie bspw. Acxiom Deutschland, AZ Direct oder Schober Direct Media)

aggregiert Daten über Cashback-Karten, Online-Gewinnspielteilnahmen, Online-Anmeldungen auf

E-Commerce-Plattformen, digitale Webseiten-Tracker oder soziale Netzwerke wie Facebook, Y-

ouTube oder Instagram. Diese Daten werden dann von den Unternehmen als Intermediäre an Big-

Data-Dienstleister zur weiteren Nutzung vermarktet. Der deutsche Markt für Adress- und perso-

nenbezogene Verbraucherdaten wird von einigen wenigen Anbietern wie der Schufa, AZ Direct (Ar-

vato Bertelsmann) sowie der Deutschen Post dominiert (vgl. Tab. 6). Dialogmarketing-Spezialisten

wie AZ Direct sorgen auch dafür, dass sich technische Innovationen wie z.B. die programmatische

Aussteuerung von Online-Werbung (Programmatic Advertising, vgl. Kap.5.1.1) oder die automati-

sierte Werbebuchung (Real-Time-Bidding, vgl. Kap. 6.4) im Markt des Daten- und Adresshandels

weiter etablieren und in den kommenden Jahren branchenweit durchsetzen werden.

Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016

DATENVERMIETUNG ADRESSPFLEGE DATEN-

QUALIFIZIERUNG

VERKNÜPFUNG

OFFLINE-/ONLINE-

DATEN

RISIKO-

INFORMATIONEN

Deutsche Post

Direkt

Deutsche Post

Direkt

Deutsche Post

Direkt

AZ Direkt Schufa Holding

AZ Direct Deutsche Post

Adress

AZ Direkt Acxiom

Deutschland

infoscore

Consumer Data

Acxiom AZ Direkt Acxiom Creditreform

Boniversum

Schober Direct

Media

Acxiom Schober Direct

Media

Bürgel

Wirtschafts-

informationen

SAZ Services SAZ Services SAZ Services

Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)

Neben dem Verkauf von Daten und Datenvermietung zählt die Datenqualifizierung zu den wich-

tigsten Service-Leistungen der Big-Data-Händler. Auch hier besteht die stärkste Nachfrage auf Sei-

ten der werbetreibenden Unternehmen, die in erster Linie ihre Online-Marketing-Maßnahmen effi-

zienter und präziser gestalten wollen. Bei der Datenqualifizierung werden die bestehenden Kun-

dendaten von Unternehmen durch die aggregierten Datenbestände der Adress- und Datenhändler

weiter veredelt. Dabei werden die vorhandenen Kundendaten mit weiteren kontextuellen (Verhal-

tens-) Informationen ergänzt. Auf Grundlage der angereicherten Daten führen die Adress- und Big-

Data-Händler darüber hinaus Kundensegmentierungen oder Kundenwertanalysen durch327. Wäh-

rend im Bereich des Vertriebs in Medienunternehmen die Adressvermietung hauptsächlich für die

326 Vgl. Neuhaus (2012) 327 Vgl. AZ Direct (o. D.)

Page 98: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

95

Neukundenakquise zum Einsatz kommt, zielt die Datenqualifizierung zunächst auf die Verbesse-

rung der Vertriebsprozesse für bestehende Kunden.

Durch die Big-Data-gestützte Kundensegmentierung und -analyse können individuelle und ziel-

gruppenspezifische Marketing-Maßnahmen durchgeführt werden, die letztlich die Response-Raten

erhöhen und eine wirtschaftlichere Kampagne ermöglichen sollen.328 Die Segmentierung und Ana-

lyse von Kundendaten können jedoch auch wertvolle Informationen über das weitere Kundenpo-

tential erbringen. So können auf Basis der bestehenden Kunden ähnliche Kundengruppen identifi-

ziert und angesprochen werden329. Als Beispiel kann die Personalisierungsplattform "Dynamic

Yield" angeführt werden, die es Unternehmen ermöglicht, neue Kundenprofile aus Big-Data-Daten-

sets zu filtern und Kampagnen nutzergerecht über alle Kanäle zu personalisieren. Durch eine mit

Hilfe von maschinellem Lernen optimierte Kundensegmentierung können in Echtzeit Produktemp-

fehlungen gegeben und verhaltensgerechte Nachrichten versendet werden, um dadurch Umsätze

und Konversionen zu steigern.

Um eine andere Form der Datengewinnung für datengetriebene Online-Kampagnen handelt es sich

bei der Verknüpfung von Online- und Offline-Datensets. Die Budgetverschiebungen der werbetrei-

benden Unternehmen hin zur Online-Werbung haben im Offline-Dialogmarketing (z.B. bei Wer-

bung in Postwurfsendungen, Beilagen, Prospekte etc.) zu einer sinkenden Nachfrage geführt330. Die

traditionellen Adress- und Datenhändler reagieren, indem sie ihre Kompetenzen aus dem klassi-

schen Dialogmarketing auch in den Onlinemedien-Markt übertragen und bspw. ihre mikrogeogra-

fischen Datenbanken über Kooperationspartner auch für die Online-Werbung bereitstellen. Das

zentrale Produktangebot ist hierbei die Verknüpfung der Offline- und Online-Daten, das sog.

Customer-Relationship-Management Data-Onboarding (kurz CRM Data-Onboarding).

Beim CRM-Data-Onboarding werden die Kundendaten der Unternehmen durch die Adress- und

Datenhändler über ein maschinelles Matching-Verfahren auch online nutzbar gemacht. Hierzu ko-

operieren diese mit all jenen Portalen und Netzwerken, die wiederum personenbezogene Daten

aggregieren, z.B. soziale Netzwerke, Online-Shops, Publisher, Online-Marktplätze, Mail-Anbieter o-

der Data-Management-Plattformen.

Die Adress- und Datenhändler führen zunächst einen Abgleich der (Offline-)Kundendaten eines

Unternehmens mit den Nutzerdaten der Online-Kooperationspartner durch und identifizieren die

Schnittmenge beider Datenbestände. Vor dem Matching-Prozess können die CRM Data-Onboar-

ding-Daten wiederum durch die mikrogeografischen Datenbanken der Adress- und Datenhändler

mit zusätzlichen Informationen angereichert oder spezielle Kundengruppen gebildet werden (vgl.

Abb. 30). So ist es möglich, dass ein Unternehmen eigene Kunden mittels personenbezogener On-

line-Nutzungsdaten gezielt über verschiedene Onlinekanäle ansprechen kann. Durch Kundenstruk-

turanalysen lassen sich weiterhin sog. statistische Zwillinge oder Lookalikes bilden, also Zielgrup-

pen, die den eigenen Kundengruppen in Hinblick auf Konsumeigenschaften, Produktaffinitäten o-

der anderen Merkmalen gleichen. Somit können durch das CRM Data-Onboarding neben den ei-

genen Kunden auch gezielt Neukunden mit Online-Kampagnen angesprochen werden.

328 Vgl. Acxiom (o. D.) 329 Vgl. Schober Direct Media (o. D.) 330 Vgl. Deutsche Post Dialog Marketing Monitor 2010-2016

Page 99: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

96

Abb. 30: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene

Quelle: Vgl. microm Micromarketing-Systeme und Consult GmbH (2015)

In Unternehmen kann dieser mehrstufige Prozess mittlerweile durch KI-gestützte Bot-Plattformen

fast komplett automatisiert werden. Bspw. existiert mit Maia eine Bot-Plattform, die als virtueller

Assistent in Unternehmensabläufe integriert werden kann. Der Chatbot hat die Aufgabe, mit Hilfe

einer Mustererkennung Vertriebsmitarbeiter dabei zu unterstützen, große Datenmengen für das

CRM Data-Onboarding aus den jeweiligen Unternehmens-CRM-Systemen zu analysieren. Unter

Verwendung von natürlicher Sprachverarbeitung werden die gewonnenen Erkenntnisse in hand-

lungsorientierte Empfehlungen umgewandelt und dem Kunden vorgeschlagen.

Im Geschäft mit digitalen Medienabonnements und im E-Commerce zählen Risikoinformationen

wie Bonitätsauskünfte oder Score-Werte zu wichtigen Instrumentarien, um Zahlungsarten wie das

Bezahlen auf Rechnung anbieten zu können. Auskunfteien aggregieren Daten über das Zahlungs-

verhalten und die Kreditfähigkeit von Konsumenten und stellen diese Daten in Form von Bonitäts-

auskünften nachfragenden Unternehmen zur Verfügung. Ein berechtigtes Interesse besteht bspw.

bei einer Vertragsbeziehung mit dem Risiko eines Zahlungsausfalls. Entsprechend werden Bonitäts-

auskünfte vor allem von Banken und Kreditinstituten im Rahmen einer Kreditvergabe angefragt.

Neben den klassischen Produkten wie Bonitätsauskunft und Scoring, die zu den umsatzstärksten

Dienstleistungen zählen, bieten sog. Auskunfteien verstärkt auch weitere Big-Data-basierte Risiko-

management-Tools an. So werden zur Betrugsprävention im E-Commerce bspw. Geräte-, Identitäts-

oder Kontonummern-Checks angeboten331. Von den zehn umsatzstärksten Anbietern personenbe-

zogener Verbraucherdaten in Deutschland sind die Schufa Holding, infoscore Consumer Data, Cre-

ditreform Boniversum und Bürgel Wirtschaftsinformationen (vgl. Tab. 7) in diesem Geschäftsbereich

tätig.

331 Vgl. SCHUFA Holding AG (o. D.) und Creditreform Boniversum (o. D.)

Page 100: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

97

Tab. 7: Relevante Datenbestände im Geschäftsbereich Risikoinformationen der untersuchten Adress-

und Datenhändler in Deutschland

ANBIETER VOLUMEN PERSONENDATEN VOLUMEN EINZELDATEN

BZW. DATENSÄTZE

Schufa Holding 66,4 Mio. Personen 797 Mio. Einzeldaten

infoscore Consumer Data >7,8 Mio. Personen 40 Mio. Einzeldaten

Creditreform Boniversum 61 Mio. Personen 79 Mio. Datensätze

Bürgel Wirtschaftsinformationen 39 Mio. Personen Keine Angaben

Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)

Die Übermittlung der Daten erfolgt bei geringen Anfragemengen i.d.R. über einen Kunden-Login

in ein Online-Portal, sodass die Daten über den Browser eingesehen und lokal gespeichert werden

können. Daneben bieten die Auskunfteien vor allem für Online-Anbieter und hohe Abfragemengen

die Bonitätsprüfung über eine Schnittstelle (bspw. XML-Anbindung) und integrierte Systemlösun-

gen in Echtzeit an. Denn der Erfolg des E-Commerce und der steigenden Online-Kreditnachfrage

lässt eine deutliche Tendenz zum automatisierten Abruf von Bonitäts- und Scoring-Informationen

in Echtzeit feststellen.

Die Bonitätsbewertung durch Big Data ist ein fester Bestandteil der Analyseprozesse von Auskunf-

teien geworden. Hierbei können die nachfragenden Online-Plattformen, Medienunternehmen oder

Kreditinstitute mittels einer Datenbank-Schnittstelle zu den Auskunfteien die Kunden-Bonitätsprü-

fung in die eigenen Systeme integrieren. Das deutsche Start-up "Kreditech" aggregiert bspw. bis zu

20.000 Datenpunkte über seine Nutzer, die von soziodemografischen Informationen über das Surf-

verhalten in sozialen Netzwerken bis zu installierten Schriftarten auf dem PC des Nutzers und der

Dauer der Ausfüllung eines Kreditantrages auf Webseiten von Kreditechs Tochterunternehmen

"Kredito24", "Zaimo" und "Flexinero" reichen332.

Durch die Anwendung von Deep-Learning-Methoden zur Profilbildung filtert das Unternehmen aus

der Masse aller Datenpunkte Aussagen und Merkmale, auf deren Grundlage Kreditech automatisiert

und in Echtzeit eine Bonitätsauskunft erstellt. Auf Basis des ermittelten Scorings erfolgt auf den

Tochterseiten des Unternehmens im Anschluss (bei positivem Ergebnis) ebenfalls die Kreditvergabe

in Echtzeit an den Endkunden333. Auf dem deutschen Markt ist das Unternehmen aufgrund daten-

schutzrechtlicher Bedenken derzeit jedoch (noch) nicht aktiv334.

5.3. 3 ZUSAMMENFASSUNG UND AUSBLICK

Insgesamt wird der Markt für Datengewinnung und Handel mit Daten in Deutschland dominiert

von einigen wenigen Marktteilnehmern. Den größten Umsatz im Handel mit personenbezogenen

Daten erzielten 2014 auf dem deutschen Markt die Unternehmen AZ Direct, Deutsche Post Adress,

332 Vgl. Seibel (2015) 333 Vgl. ebd. 334 BvD-News (2015), S. 22ff.

Page 101: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

98

Deutsche Post Direkt, Acxiom Deutschland, Schober Direct Media und SAZ Services sowie die Aus-

kunfteien Schufa, Infoscore Consumer Data, Creditreform Boniversum und Bürgel. Die zehn größten

Unternehmen erzielten 2014 einen Gesamtumsatz von rund 450 Mio. Euro.

Die Anbieter agieren mit ihren Geschäftsmodellen auf unterschiedlichen Teilmärkten: Im Online-

Marketing vereinnahmen sie insgesamt einen Marktanteil von rund 65 Prozent, im Bereich der Ri-

sikoinformationen erreichen sie einen Anteil von 95 Prozent. Der Markt für personenbezogene Ver-

braucherdaten wird in beiden Teilmärkten in Deutschland durch nur wenige Anbieter beherrscht.

Die drei größten Anbieter Schufa, AZ Direct und Deutsche Post Adress decken mit den eigenen

Datenbeständen den deutschen Markt für den Handel mit personenbezogenen Verbraucherdaten

umfassend ab. So ist die Schufa im Besitz von 797 Mio. Einzeldaten zu 66,4 Mio. Personen, AZ Direct

verfügt über 600 Merkmale zu 70 Mio. Konsumenten, die Deutsche Post Adress hat Informationen

über 11,5 Mio. Umzüge, 7 Mio. Verstorbene und 9,5 Mio. unzustellbare Adressen335.

Vor dem Hintergrund des Voranschreitens der Digitalisierung und der zunehmenden Verlagerung

zahlreicher Geschäftsbereiche in das Internet kann erwartet werden, dass besonders die Umsatzvo-

lumina des Handels mit Big-Data-Datensets und der Risikoinformationen stark ansteigen werden.

Erste Indizien dafür liefern die stark wachsenden Branchen von Dienstleistungen wie Bonitätsbe-

wertungen und die in den vorangehenden Kapiteln beschriebenen automatisierten Online-Marke-

ting-Plattformen, die Programmatic Advertising sowie Predictive Analytics anbieten. Zentral für

beide Sektoren ist, dass Big Data nicht nur der hauptsächliche technologische Treiber ist, sondern

auch die zentrale Form der Datengewinnung für Akquise und Vertrieb beschreibt.

Generell erwarten Analysten, dass in den kommenden Jahren sowohl Datenhändler mit Fokus auf

Big-Data-basiertem Online-Marketing, als auch Anbieter digitaler Bonitätsauskünfte weiterhin kon-

stant wachsen werden. In den vergangenen Jahren ist das Marktvolumen im Bereich des klassischen

Offline-Datenhandels deutlich gesunken. Dies führte zu einem Verdrängungswettbewerb und ins-

gesamt zu einer Marktkonsolidierung und Erhöhung der Marktkonzentration. Ursächlich dafür war

einerseits die Novellierung des BDSG (2009), die zu einem geringeren Adressbestand im Markt

führte und einen Preiswettbewerb auslöste, zum anderen erfolgte bei den Werbetreibenden eine

zunehmende Verschiebung der Werbebudgets vom klassischen Postmarketing hin zu transaktio-

nellem Online-Marketing und weiter zum Big-Data-basiertem Online-Marketing.

Der Markt für Risikoinformationen verzeichnete hingegen ein stabiles Wachstum. Allein der Bran-

chenführer Schufa konnte seinen Umsatz von 2010 bis 2015 um rund 38 Mio. Euro steigern. Zu

dieser positiven Marktentwicklung trägt vor allem die steigende Nachfrage aus der Onlinemedien-

branche und dem E-Commerce bei. Von diesem Trend profitieren die Auskunfteien, die den Online-

Händlern im Zuge der Bestellungen (Rechnungskauf) entsprechende Risikoinformationen zur Boni-

tät der Konsumenten bereitstellen.

335 Eigenangaben der Unternehmen 2016/2017

Page 102: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

99

6 AUSWIRKUNGEN VON BIG DATA AUF

ONLINEMEDIEN: BEISPIELE UND CASE STUDIES

Im Rahmen der Analysen des B2C- und B2B-Marktes in den vorhergehenden Kapiteln wurden be-

reits vielfach Big-Data-Anwendungen erläutert, um das Potential neuer Technologien praxisnah zu

veranschaulichen. In diesem Kapitel soll das Bild der diversen Anwendungsmöglichkeiten vervoll-

ständigt werden. Nachfolgend werden weitere Einsatzmöglichkeiten Künstlicher Intelligenz be-

schrieben, welche den Markt der Onlinemedien nachhaltig beeinflussen können.

6.1 CASE STUDY: K I IM JO URNALISMUS

Der Einsatz von Künstlicher Intelligenz im Journalismus hat das Potential Probleme zu lösen, die

von Menschen nur schwer zu bewältigen sind. Das Unternehmen Liquid Newsroom hat z. B. mit

dem "LNR Concept Mapper" (vgl. Abb. 31) ein Tool entwickelt mit dem es möglich ist, Nachrichten

und ganze Konversationsverläufe nicht nur auf bestimmte Stichworte hin zu untersuchen, sondern

gleich ganze Themenkomplexe und zusammenhängende Meinungscluster zu identifizieren. Damit

kann der Verlauf bestimmter politischer Themendiskussionen in der öffentlichen Meinungsbildung

besser nachvollzogen werden. Indem bestimmte Stichwörter aus Nachrichtenmeldungen und

Tweets in eine semantische Kontextanalyse einbezogen werden, kann ein bestimmter Themenkom-

plex visualisiert werden. Über kontextuelle Marker und Schnittmengen von Wörtern in anderen Dis-

kussionen können mehrere unterschiedliche Diskussionsströme zum selben Gegenstand parallel

verfolgt werden.

Abb. 31: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse

Quelle: Vgl. LiquidNewsroom.ai (2017)

Die Ergebnisse können verwendet werden, um zu verstehen, ob es eine Lücke zwischen den in öf-

fentlich sichtbaren Konversationen diskutierten Themen und der aktuellen Medienberichterstattung

gibt, wie etwa vor und nach Wahlen. Damit wird es möglich, alle (öffentlich verfügbaren) Positionen

eines politischen Diskurses zu kartieren und eventuelle Verzerrungen der digitalen Meinungsbil-

dung festzustellen.

Page 103: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

100

6.2 CASE STUDY: K I -FACTCHECKING

Zu einem weiteren Anwendungsgebiet von Big Data im Rahmen der digitalen Meinungsbildung ist

das "Factchecking" geworden. Denn parallel zu der Entwicklung von sozialen Netzwerken zu den

relevantesten Massenmedien ist auch der Grad an inner- sowie außenpolitischer Desinformation in

den Onlinemedien stark angestiegen. Gerade außenpolitische Akteure haben ein hohes Interesse

daran, staatliche Propaganda an für sie empfängliche Zielgruppen im Ausland zu verbreiten, um

etwa Unmut über das politische Establishment zu schüren oder sogar gezielt Einfluss auf die öffent-

liche Meinungsbildung auszuüben. In diesem Zusammenhang können die russischen Wahlkampf-

manipulationen in den USA zu den Themen Gesundheitsversorgung oder Immigration angeführt

werden, die über Facebook und Instagram rund 146 Mio. Menschen erreicht haben336. Aus diesem

Grund existieren heute bereits zahlreiche Factcheck-Websites wie fullfact.com, factcheck.org oder

politifact.com, deren Funktion es ist, Falschaussagen bestimmter Medien oder Publikationen zu

überprüfen und gegebenenfalls deren Authentizität zu hinterfragen. Bisher ist diese Aufgabe vor

allem manuell (und oft auf freiwilliger Basis) von Journalisten bewältigt worden.

Mit dem KI-gestützten Webtool "Décodex" (vgl. Abb. 39) hat jedoch die französische Tageszeitung

"Le Monde" ein medienumspannendes Instrument entwickelt, das mit Hilfe einer Browsererweite-

rung und eines mobilen Facebook-Messenger-Bots automatisch die Authentizität von Websites

überprüft und diese in einer Farbskala darstellt. Darüber hinaus ist es Nutzern auch möglich, kon-

krete Medien und Websites online verifizieren zu lassen. Diese Abfrage ist datenbankgestützt und

bedient sich des Le Monde-eigenen Verzeichnisses von Medien, Artikeln und Webseiten, die ent-

sprechend von Le Monde-Journalisten als vertrauenswürdig oder unauthentisch klassifiziert wur-

den.

Abb. 32: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde

Quelle: Vgl. Les Décodeurs (2018)

Einen anderen Ansatz hat das britische Unternehmen Factmata gewählt, das ebenfalls Nachrichten

und Postings auf ihre Authentizität überprüft. Durch den Einsatz von maschinellem Lernen trainiert

das Unternehmen seine Algorithmen, Nachrichten auf ihren Wahrheitsgehalt und auf Fakten hin zu

336 Vgl. Keegan (2016)

Page 104: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

101

überprüfen. Zugleich bietet das Unternehmen Werbungtreibenden einen Bewertungsindex an, da-

mit diese es vermeiden, auf Fake-News-Websites ihre Werbung zu platzieren. Das Unternehmen

bedient sich dabei internationaler statistischer Datenbanken wie Freebase, Eurostat oder der World

Bank Database. Durch diesen Zugriff ist es der Factmata KI möglich, Aussagen wie “The UK is not a

prime suspect; greenhouse gas emissions have fallen by 6.2% this year alone”, “The United States

cares about its energy sector— this administration has invested $4.5bn this year alone”, oder “Our

aid work in Somalia is paying dividends - only 0.2% of the population is severely malnourished”337

auf die Korrektheit der jeweiligen Angaben hin zu überprüfen.

6.3 CASE STUDY: CONTENT BLOCKCHAIN

Mit Hilfe neuer Technologien und Automatisierungslösungen wird bereits jetzt eine zunehmende

Anzahl digitaler Inhalte produziert. Durch die Weiterentwicklung der vollautomatisierten Erstellung

von Inhalten kann weiterhin ein starker Anstieg der Produktionsleistung erwartet werden. Dadurch

stellen sich auch neue Anforderungen hinsichtlich zunehmender Verwaltungsaufgaben. Deren Pro-

zesse sollen zukünftig mit Hilfe neuer Verfahren ebenfalls zum Teil automatisiert erfolgen. Derartige

digitale Lösungen finden sich aktuell bspw. im Rahmen des Content Blockchain Projects. Dafür wird

an drei aufeinanderfolgenden Prozessen gearbeitet, die das einfache Identifizieren von Inhalten

(Bilder, Videos) und deren unkomplizierten Handel ermöglichen sollen.

Der entscheidende erste Schritt ist dabei das eindeutige Kennzeichnen der Dateien, wofür ein stan-

dardisierter Code entwickelt wird – der International Standard Content Code (ISCC). Anders als be-

reits bestehende Identifier wie bspw. ISBN (International Standard Book Number), ISSN (Internati-

onal Standard Serial Number) oder ISCR (International Standard Recording Code) ist der ISCC von

Einzelpersonen kostenlos algorithmisch erstellbar. Die Identifikationsnummer wird dabei generisch

auf Grundlage des Inhalts selbst sowie anderer Metadaten kreiert.

Weiterhin sollen Lizenzierungsvorgänge vereinfacht werden, sodass auch Nutzer ohne Fachwissen

ihre Inhalte unkompliziert und schnell lizenzieren können338. Mit Smart Licenses bzw. Smart

Contracts werden komplexe Gesetze und Vorgaben in praktisch anwendbare Lizenzierungsprofile

umgewandelt, was den Verkauf an Handelspartner und Endnutzer enorm erleichtert. Verschiedene

Module beschreiben dabei unterschiedliche Anwendungsfälle – etwa Vervielfältigung oder Veröf-

fentlichung – und können individuell zusammengesetzt werden. Zusammen mit anderen Modalitä-

ten wie bspw. Preis oder Laufzeit entstehen sog. Smart Licenses339.

Schließlich werden der Code sowie die Lizenzbedingungen auf einer Blockchain eingetragen und

der Öffentlichkeit zur Verfügung gestellt. Maschinenlesbare Blockchains sichern weltweit die tat-

sächliche Existenz von Inhalten oder Transaktionen ab und bieten dabei den Vorteil, nahezu fäl-

schungssicher zu sein340. Ermöglicht wird dies über die virtuelle Infrastruktur des Blockchain-Sys-

tems. Sämtliche Blockchain-Aktionen werden statt an einem zentralen Knotenpunkt dezentral auf

allen Rechnern gespeichert, die mit dem Blockchain-Netz verbunden sind341.

337 Vgl. Beispiele aus Ghulati, D. (2016) 338 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 339 Vgl. Content Blockchain (2018b) 340 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 341 Vgl. Contentpepper (2017)

Page 105: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

102

Durch diese Verfahrensweise wird der Handel mit digitalen Inhalten stark gefördert, da zeitintensive

Verhandlungen mit verschiedenen Interessenparteien entfallen. Zudem stehen Informationen über

Metadaten und Lizenzierungen zuverlässig tagesaktuell und weltweit zur Verfügung. Eine derartige

dezentrale Infrastruktur für digitale Daten wird von verschiedenen Plattformen als Open-Source-

Software zur Verfügung gestellt, bspw. auch von "Po.et"342 und "Decent". Ein funktionsfähiger Pro-

totyp des Content Blockchain Projects ist für März 2018 geplant343, aktuell steht bereits eine erste

Testversion zur Verfügung, mit welcher verschiedene Funktionalitäten geprüft werden (vgl. Abb.

33). Die Decent-Entwickler kündigten für das Jahr 2018 ebenfalls das Erreichen weiterer wichtiger

Meilensteine an, die die Funktionsweisen der Plattform vervollständigen sollen344.

Abb. 33: Menüansicht der Content Blockchain Testversion

Quelle: Vgl. Content Blockchain (2018c)

Neben der Nutzung derartiger Plattformen als Urheber-Register und Handelsplatz ist ein besonde-

rer Vorteil auch die Möglichkeit dynamischer Bezahlmodelle. Aktuell stehen viele Medienhäuser vor

dem Problem der Refinanzierung digitaler Angebote, da Finanzierungsstrategien wie Abonnements

oder die Paywall bisher nur bedingt von Kunden akzeptiert werden. Die Monetarisierung über

Micropayments, mit denen einzelne Artikel oder Videos erworben werden können, ist aufgrund

hoher Transaktionskosten bisher kaum rentabel. Mit Hilfe digitaler Zahlungssysteme wie Bitcoin,

Ethereum oder Litecoin werden aufgrund der dezentralen Blockchain-Struktur Kleinstzahlungen in

hoher Anzahl bei geringem Kostenaufwand möglich345.

342 Vgl. Po.et (2018) 343 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 344 Vgl. Decent (2018) 345 Vgl. Contentpepper (2017)

Page 106: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

103

6.4 CASE STUDY: VON PR OGRAMMATI C ZU PREDICT IVE

ADVER TIS ING

Der Trend der Budgetverschiebung in Medienhäusern vom Offline-Marketing hin zum Big-Data-

gestütztem Online-Targeting wird technisch getrieben durch die neuen "Programmatic Adverti-

sing"-Plattformen. Beim Programmatic Advertising werden automatisiert sehr zielgruppenspezifi-

sche (und damit hochwertige) Nutzersegmente auf Basis der First-Party-Daten von Publishern mit

Hilfe von Big-Data-Analysen erstellt. Über Auktionsplattformen auf der Nachfrageseite (auch "De-

mand Side"-Plattformen) werden diese Segmentprofile angefragt und über Anbieterseiten-Platt-

formen (auch "Supply Side"-Plattformen) vermarktet – entweder über Festpreise oder über Auktio-

nen in Echtzeit, die in der Werbebranche als "Real-Time-Bidding"-Plattformen bezeichnet werden

(vgl. dazu Abb. 34).

Solche Werbeplatzierungen für sehr spezifische Zielgruppen konnten in der Vergangenheit nur

über direkte (aufwändige) Verhandlungen mit Premium-Publishern und spezialisierten Werbenetz-

werken realisiert werden. Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die

First-Party-Daten des Publishers in unterschiedlichem Umfang mit Third-Party-Daten zum Browser-

verlauf des Nutzers kombiniert, die Werbenetzwerke über Tracking-Cookies generieren.

Abb. 34: Übersicht über die Struktur des Programmatic-Buying-Ökosystems

Quelle: Vgl. IAB Spain (2014)

Darüber hinaus ermöglichen über soziale Netzwerke (wie etwa Facebook) erhobene, kontextuelle

Nutzerdaten zunehmend psychometrische Analysen, die weitere neue Formen des Targetings er-

lauben. Ein aktueller Trend ist hier das sog. Predictive Behavioral Targeting: Mit dieser Technik wird

es Werbetreibenden mit Hilfe von KNN und Deep-Learning-Methoden ermöglicht, aus selektiven

Nutzerbefragungen, Nutzerdaten und externen Datenquellen statistische Prognosen zu Verhaltens-

mustern der Nutzer zu erstellen (vgl. dazu Abb. 35). Im Zuge der Personalisierung der ausgespielten

Page 107: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

104

Werbung wird es möglich, durch Predictive Advertising und selbstlernende Algorithmen Nutzerver-

halten auch ohne durch Drittanbieter angereicherte Datenprofile oder Nutzerbefragungen vorher-

zusagen. Durch die allgemeine Verunsicherung der Nutzer zu Privatsphäreneinstellungen und den

wachsenden Trend zum Opt-Out aus den Datenaggregationsprozessen von Marketing- und Ana-

lytics-Firmen wie Acxiom, Oracle oder RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen

immer schwieriger. Die Auswertung von Tracking-Cookies erlaubt dagegen die Vorhersage von

Nutzerverhalten allein anhand ihrer Suchverläufe – ohne die Integration von weiteren kontextuellen

Persönlichkeitsdaten wie Alter, Geschlecht oder der geografischen Position. Aus der Bildung von

Profilen, bestehend allein aus Suchwörtern und Big-Data-gestützten Auswertungsalgorithmen,

können Online-Plattformen wie z.B. Microsoft so die Wahrscheinlichkeiten für anstehende Kaufent-

scheidungen approximieren. Anstatt große Datensets zum Offline- und Online-Verhalten spezifi-

scher Nutzergruppen und -segmente zu erwerben, können Werbungtreibende stattdessen ihre

Kampagnen mit Hilfe der zukünftig nachgefragten Suchwörter optimieren und dabei vergleichbare

Resultate erzielen, indem sie abhängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost-

per-Lead Preise anpassen.

Verbrauchern werden dabei Eigenschaften zugeordnet, die als Grundlage für eine auf Verbraucher-

interessen orientierte Aussteuerung von Werbung dienen. Der wesentliche Vorteil dieses Verfah-

rens besteht darin, dass auch solche Produktinteressen eines Internetnutzers identifiziert werden

können, die sich nicht unmittelbar aus den vorliegenden Verhaltensdaten ableiten lassen. Daraus

ergibt sich im Vergleich zum Behavioral Targeting eine größere Anzahl an Zielpersonen und somit

eine höhere Kampagnenwirksamkeit.

Abb. 35: Datenquellen im Werbenetzwerk von Facebook, Stand 2016

Quelle: Goldmedia Analyse (2017) nach: Angwin (2016)

Im Zuge der Personalisierung der ausgespielten Werbung wird es möglich, durch Predictive Adver-

tising und selbstlernende Algorithmen Nutzerverhalten auch ohne durch Drittanbieter angerei-

cherte Datenprofile oder Nutzerbefragungen vorherzusagen. Durch die allgemeine Verunsicherung

der Nutzer zu Privatsphäreneinstellungen und den wachsenden Trend zum Opt-Out (vgl. Kap. 5.3.1)

aus den Datenaggregationsprozessen von Marketing- und Analytics-Firmen wie Acxiom, Oracle o-

der RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen immer schwieriger. Die Auswertung

von Tracking-Cookies erlaubt dagegen die Vorhersage von Nutzerverhalten allein anhand ihrer

Page 108: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

105

Suchverläufe – ohne die Integration von weiteren kontextuellen Persönlichkeitsdaten wie Alter, Ge-

schlecht oder der geografischen Position. Aus der Bildung von Profilen, bestehend allein aus Such-

wörtern und Big-Data-gestützten Auswertungsalgorithmen, können Online-Plattformen wie z.B.

Microsoft so die Wahrscheinlichkeiten für anstehende Kaufentscheidungen approximieren346.

Anstatt große Datensets zum Offline- und Online-Verhalten spezifischer Nutzergruppen und -seg-

mente zu erwerben, können Werbetreibende stattdessen ihre Kampagnen mit Hilfe der zukünftig

nachgefragten Suchwörter optimieren und dabei vergleichbare Resultate erzielen, indem sie ab-

hängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost-per-Lead Preise anpassen.

346 Bilenko & Richardson (2011), S. 418ff.

Page 109: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

106

6.5 FÖRDER IN IT IATIVE N :

GOOGLE DIGITAL NEWS IN IT IAT IVE

Neben zahlreichen anderen Non-Profit Förderinitiativen wie z.B. "OpenAI"347 oder politischen För-

derinitiativen348, rufen vermehrt auch Technikkonzerne KI-Förderfonds ins Leben. Die "Digital News

Initiative" (kurz DNI) von Google hat bis 2018 rund 450 Projekte in 29 Ländern Europas gefördert,

die zu einem erheblichen Ausmaß auf Big-Data-Ansätze abstellen349. So entstehen personalisierte

Newsfeeds in sozialen Medien oder personalisierte Ergebnisansichten in Suchmaschinen sowie al-

gorithmisch optimierte Nachrichtenangebote bis hin zu vollständig automatisch generierten Pres-

seberichten350, deren Hintergründe und Entstehungsformen oftmals wenig bekannt sind. Der För-

derprozess wurde bisher im Rahmen von vier Förderrunden zwischen den Jahren 2016 und 2017

durchgeführt. Das Ziel der Initiative ist es nach eigener Aussage, Forschungs- und Entwicklungs-

prozesse in den europäischen Nachrichtenredaktionen voranzutreiben und Innovationsimpulse in

neue journalistische Instrumente umzusetzen.

Abb. 36: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent

Quelle: Google DNI Innovation Fund (2017), S. 18

Bereits im Jahr 2016 wurden 252 Projekte mit einem Fördervolumen in Höhe von 51 Mio. Euro

finanziert. In den ersten zwei Förderrunden belegten dabei die Big-Data-relevanten Innovations-

projekte in den Bereichen "Analytics/Research" (16 Projekte), "Data Journalism" (15 Projekte) und

"AI/Bots/Machine Learning" (14 Projekte) die Top 5 der am stärksten geförderten Projektkategorien

347 Vgl. OpenAI (2018) 348 Vgl. Lucas (2018) 349 Vgl. Google DNI Projects (2018) 350 Vgl. Retresco (2018) und AX Semantix (2017)

Page 110: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

107

(vgl. dazu Abb. 36). In Deutschland wurden insgesamt 59 Projekte mit einer Summe in Höhe von

rund 15 Mio. Euro unterstützt. Nachfolgend wird je Größenkategorie ein aus Deutschland stam-

mendes Projekt vorgestellt:

6.5. 1 FAZ9

Im Zuge der DNI-Förderung entwickelte z.B. die Frankfurter Allgemeine Zeitung in der Kategorie

"Large Project" mit "FAZ9" einen Big-Data-basierten Personalisierungsalgorithmus für seine Leser,

der in der mobilen FAZ-App zum Einsatz kommt. Durch das Entwickeln und Testen von drei unter-

schiedlichen Varianten des Algorithmus konnten die FAZ-Entwickler mit der erfolgreichsten Version

das Nutzer-Engagement und die Lesezeit um 36 Prozent verlängern. Dabei zeichnet die App das

Nutzerverhalten sowie seine Interaktionen auf und transformiert diese Handlungspräferenzen in

mehrere Indikatoren. Mit Hilfe von maschinellem Lernen und der gesammelten Indikatoren wird im

nächsten Schritt der jeweilige Nachrichtenfeed eines Nutzers trainiert. So kann die FAZ einen hohen

Grad an Affirmation des Nutzers gegenüber seinem Nachrichtenfeed erreichen351.

6.5. 2 ACT2ACCESS

Mit "Act2Access" entwickelt das deutsche IT-News Online-Portal Golem.de im Rahmen einer "Me-

dium Project"-Förderung ein alternatives Modell zur Refinanzierung von journalistischen Online-

Angeboten. Im Gegensatz zu herkömmlichen Paywalls, bei denen Nutzer gegen eine Zahlung Zu-

gang zu exklusiven Premiuminhalten bekommen, arbeiten die Entwickler von Golem.de an einer

API-Schnittstelle, über die Unternehmen den Golem.de-Lesern Aufgaben anbieten können. Werden

diese gelöst, erhalten die Nutzer Zugang zu den Premiuminhalten. Dabei handelt es sich bei den

Aufgaben laut Entwickler um "spielerische Aufgaben" im Big-Data-Umfeld, bei denen möglichst

viele Nutzer dezentral und in einem sehr kleinen Umfang Daten verarbeiten oder KI-Algorithmen

trainieren müssen. Somit haben auf der einen Seite Nutzer keinerlei monetäre Ausgaben und Un-

ternehmen können Rechenleistung über verteilte Dateisysteme auslagern352.

6.5. 3 JOURNALISM F IRST

"Journalism First" bietet als "Prototype Project" des Res Publica Verlags das Konzept einer unab-

hängigen Echtzeit-Auktionsplattform, die den journalistischen Long-Tail bedient. Damit sind klei-

nere Verlage und Publisher gemeint, die nicht unbedingt reichweitenstark sind im Vergleich zu

etablierten Online-Publikationen. Durch ihre aggregierte Anzahl erreichen sie in der Summe den-

noch werberelevante Zielgruppen und vor allem Nischengruppen, die nicht unbedingt durch reich-

weitenstarke Publikationen bedient werden. Kleinere Publisher können durch "Journalism First" un-

abhängig von Werbeagenturen agieren, die normalerweise die Werbeplanung und Werbekunden-

akquise übernehmen. Die Belegung des angebotenen Werbeinventars wird durch Algorithmen

übernommen, und Zielgruppen werden durch maschinelle Mustererkennung über mehrere Publi-

kationen simultan angeboten. So können Verleger die Auslastung ihres Inventars in Echtzeit nach-

verfolgen und Preise selbst automatisiert anpassen353.

351 Vgl. Google DNI 1 (2018) 352 Vgl. Google DNI 2 (2018) 353 Vgl. Google DNI 3 (2018)

Page 111: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

108

7 HANDLUNGSEMPFEHLUNGEN

FÜR DIE POLITIK & FAZIT

Das vorliegende Gutachten zeigt systematisch auf, dass der deutsche Markt für Onlinemedien durch

den zunehmenden Einsatz Big-Data-basierter Anwendungen wie Sprachassistenten, Chatbots,

Social-Bots und weiteren Automatisierungsprozessen einen Transformationsprozess durchläuft.

Durch die Integration Künstlicher Intelligenz und der massenhaften Verarbeitung von Daten ent-

stehen neue Kommunikationskanäle, Schlüsselressourcen und Schlüsselaktivitäten, die neue Orga-

nisationsstrukturen sowohl im Journalismus als auch in der Medienwirtschaft hervorrufen. Hierbei

wird der Kommunikationsfluss zwischen Politik, Journalisten und Medienrezipienten mit deutlichen

Effekten auf die öffentliche Meinungsbildung neu miteinander verwoben. Einen besonderen Ein-

fluss auf die ökonomische Entwicklung hat hierbei die zunehmende Prozessautomatisierung, die

sich in Zukunft noch stärker durchsetzen wird. Ob die automatisierte Erstellung oder Distribution

von Inhalten, Online-Marketing oder Targeting, Unternehmensorganisation oder -optimierung: Alle

für die Wertschöpfung relevanten Prozesse werden durch Big Data, KI und Algorithmen verändert.

7.1 HANDLUNGSEMPFEHLUNGE N FÜR DIE POLIT IK

Mit dem wachsenden Einfluss von Big Data auf die Medienbranche stellen sich aus Sicht der Medi-

enpolitik neue Fragen. Künstliche Intelligenz und selbstlernende Algorithmen bergen auf der einen

Seite zwar ökonomisches Optimierungspotenzial, auf der anderen Seite sollte der Einsatz dieser

Technologien im Kontext der kritischen, medialen Infrastrukturen, die sie betreffen, nicht völlig au-

ßer Acht gelassen werden. Datensets und artifizielle kognitive Modelle werden im Rahmen auto-

matisierter Prozesse zu wertvollen und zugleich kritischen Ressourcen, wenn sie zum Zwecke der

Entscheidungsfindung und Analyse in meinungsbildenden Medien eingesetzt werden.

In einem organisationalen Kontext ist die Auslagerung von KI und datenanalytischen Ressourcen

zwar sinnvoll, jedoch bedeutet dies in den meisten Fällen die Abtretung der Datensouveränität an

einige wenige Privatunternehmen im Ausland354. Zusätzlich zur geopolitischen Verantwortung für

persönliche Nutzerdaten und Unternehmensdaten, deren Speicherung anwendungsbezogen im

Wesentlichen in den U.S.A. und China erfolgt355, steht nicht nur Deutschland vor der kulturellen

Herausforderung des Erhalts der publizistischen Vielfalt und zugleich der Meinungsvielfalt.

7.1. 1 S ICHER UNG DER PUBLIZ IST ISCHEN VIELFALT

Um die publizistische Vielfalt in Deutschland zu wahren, bietet es sich an, den Grad an Automati-

sierung von Medieninhalten in der Medienwirtschaft zu beobachten. Eine zunehmende Auslage-

rung der Anfertigung von standardisierten Artikeln ohne redaktionelle Anreicherung an einige we-

nige Firmen könnte potentiell die Konzentrationsvorgänge im publizistischen Markt ungünstig be-

schleunigen. Hier wäre zukünftig ein Kennzeichnungsgebot vorstellbar, mit dem zumindest Quali-

tätsmedien kenntlich machen, ob und in welchem Grad Inhalte automatisiert erstellt wurden.

354 Vgl. Papon (2017) 355 Vgl. Armbruster (2017)

Page 112: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

109

7.1. 2 WAHRUNG DER MEINUNGS VIELFALT

Vorrausetzung für die Erhaltung von Meinungsvielfalt ist eine geistig-publizistische Konkurrenz von

Meinungen in der Öffentlichkeit. Die Beeinflussung durch autonome, KI-basierte Akteure wie Social-

Bots oder algorithmisches Gatekeeping stellt dieses Konzept auf den Prüfstand356. Unternehmen

dürfen zwar zwecks Umsatzoptimierung auf Automatisierungsvorgänge setzen und soziale Netz-

werke die freie Meinungsäußerung nicht unterdrücken. Auf der anderen Seite sollte die Meinungs-

vielfalt auch nicht von Gruppen zur Durchsetzung ihrer Partikularinteressen manipuliert werden

können.

Hierbei stellen die Nutzungsbedingungen der Social-Media-Plattformen wie Twitter oder Facebook

eine Herausforderung dar, da diese bislang keinerlei Einschränkungen für den (gewerblichen) Ein-

satz von Text-Bots vorsehen. Mit der Löschung von falschen Konten vor der Bundestagswahl, der

Bewertung der Seriosität von Nachrichtenquellen sowie der Beauftragung eines Recherchebüros

zur Verifizierung von Nachrichtenmeldungen ergreift zumindest Facebook jedoch bereits erste

Schritte zum Erhalt der Meinungsvielfalt357. Darauf aufsetzend könnte ein Dialog mit den größten

Informationsintermediären in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter358)

begonnen werden, in wieweit eine Kennzeichnung von autonomen Agenten/Social-Bots eingeführt

werden kann.

Darüber hinaus könnten öffentlich-rechtliche Onlinemedien und private Qualitätsmedien als Kor-

rektiv oder Trusted-Party-Medien/Unternehmen eine stärkere Rolle zur Eindämmung bot-basierter

Problematiken ausüben. Zudem existiert bereits eine Reihe privatwirtschaftlich geförderter Korrek-

tiv-Initiativen wie Google Fact Check, Correctiv, FlipFeed, Read Across the Aisles, Escape your

bubble, Filterbubblan, The Buzzard, Bot or Not etc., deren Erkenntnisse jedoch bislang in der Öf-

fentlichkeit wenig Verbreitung finden359.

7.1. 3 R ICHTLIN IEN ZUR DATE NSOUVERÄN ITÄT

Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur Da-

tenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschutzes an-

geregt werden. Ein solches Zertifikat könnte dem Endnutzer/Kunden signalisieren, dass eine Platt-

form, die personenbezogene Daten speichert, die Vorgaben der europäischen Datenschutzgrund-

verordnung sowie die in Deutschland geltenden Datenschutzrichtlinien über die gesamte Wert-

schöpfungskette hinweg einhält. Dementsprechend müsste die Einhaltung der Vorgaben sowie die

technische Absicherung der Daten (Verschlüsselung) auch bei allen kooperierenden Partnern (Start-

ups, Firmen im außereuropäischen Ausland) überprüft werden360.

Eine weite Möglichkeit der Stärkung der persönlichen Datensouveränität liegt in der Erweiterung

der heute bereits notwendigen Einwilligung zum Datenschutz und zur Datenverarbeitung auf jedes

neue Interface (wie z.B. PVA), das mit dem Nutzerkonto eines Online-Dienstes verbunden wird.

Konkrete Beispiele sind hier die Sprachassistenten sowie die damit verbundenen Geräte von

356 Vgl. Freedom House (2017) 357 Vgl. Wieduwilt (2017) und Facebook (2017) 358 Lischka & Stöcker (2017), S. 13 und S. 15 359 Vgl. Facebook (2017) 360 Vgl. Lenzen (2018)

Page 113: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

110

Google, Apple und Amazon. Nur so kann man den Nutzern aktiv zu verstehen geben, dass sie sich

mit der Verarbeitung auch der über die Spracheingabe oder Videoaufzeichnung übermittelten per-

sonenbezogenen Daten einverstanden erklären.

7.1. 4 ALGOR ITHMEN - UND K I -AUDITS

Da Vorgänge in KNN und darauf aufbauend Algorithmen und KI-Prozesse nicht hinreichend genug

beschrieben werden können und Unternehmen diese Grundlagen nicht publizieren, empfiehlt es

sich für jedes stark datengetriebene Unternehmen, Strategien und Guidelines für den Umgang mit

algorithmenbasierten oder KI-assistierten Dienstleistungen nachzudenken.

Der BITKOM hat bspw. eine Stufenskala für die Klassifizierung von KI veröffentlicht, die sich am Grad

der Automatisierung von Entscheidungen orientiert361. Die höchste Stufe bedeutet dabei komplett

autonomes Entscheiden und die geringste Stufe signalisiert komplett menschliches Entscheiden.

Dazwischen liegen vier Stufen, aufsteigend mit immer mehr Autonomiezugewinn. Ein ähnlicher

Klassifizierungsansatz könnte ebenfalls für die Erstellung von automatisierten Texten und Analysen

überprüft werden. Der Einsatz von komplett automatisierten Big-Data-basierten Dienstleistungen

könnte ab den höchsten Stufen einer solchen Skala (bei denen Entscheidungen an digitale KI-As-

sistenten delegiert werden) nur genehmigt werden, wenn die entsprechenden KI-Prozesse, Trai-

ningsdatensätze und Modelle durch einen KI-Audit auf systematischen Bias sowie technische Fehler

überprüft wurden. Dazu existieren bereits KI-Prüfverfahren wie die "Layer-wise Relevance Propaga-

tion"-Methode362 oder das Displacement-Verfahren363. Solche KI-Audits sollten dabei nicht nur auf

einer rein technischen Ebene ablaufen, sondern auch Perspektiven der Sozialforschung, Rechtswis-

senschaft, Ethik und im Medienbereich vor allem der Kommunikationswissenschaft berücksichtigen.

Für Medienunternehmen gilt dies nicht nur für die automatisierte Erstellung von Inhalten sondern

u.a. auch für die weitere Verarbeitung von Kunden- und Nutzerdaten zur Steigerung von Werbeer-

lösen oder transaktionsbasierten Umsätzen.

7.1. 5 PVA -PLATTFORMREGULIERUN G

Die Landesmedienanstalten haben, abgeleitet aus dem Rundfunkstaatsvertrag, die Aufgabe, den

diskriminierungsfreien Zugang von Inhalteanbietern auf Medienplattformen sicherzustellen. Im

Rahmen dieser als Plattformregulierung bezeichneten Kontrolle wird überprüft, ob Anbieter von

Inhalten und Diensten zu gleichberechtigten Konditionen auf Plattformen wie Elektronischen Pro-

grammführern (EPGs), App-/Widget-Plattformen von Smart-TVs oder auch VoD-Plattformen ver-

treten sind. Diese Prüfung bezieht sich dabei sowohl auf den Zugang zur Plattform als auch auf die

Auffindbarkeit der Inhalte364.

Personal-Voice-Assistant-Plattformen wie Amazon Echo oder Google Home stehen derzeit noch

nicht im Fokus dieser Regulierung. Dabei werden gerade diese Plattformen zukünftig eine wichtige

Rolle bei der Auswahl von Medieninhalten spielen. Sofern diese Plattformen die Auswahl der Inhalte

auf wenige große Mediendienste (wie z.B. Spotify, Google Play und Amazon Music) einschränken

361 Holtel (2017), S. 14ff. 362 Vgl. Beuth (2017), Binder et al. (2016), S. 1f. und Shrikumar et al. (2017), S.1f. 363 Bojarski et al. (2017), S. 6 und Alvarez-Melis et al. (2017), S. 2f. 364 Die Medienanstalten (2018)

Page 114: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

111

oder die zusätzliche Implementierung von Diensten erschweren, drohen etablierten Mediendiens-

tanbietern (z.B. Hörfunkprogrammanbietern) hier Wettbewerbsnachteile. Im Zuge der Plattformre-

gulierung können Probleme vielfach auch im Dialog geklärt werden, bevor es zu wettbewerbsrecht-

lichen Auseinandersetzungen kommt.

7.1. 6 ZUSAMMENFASSUNG DER

HANDLUNGSEMPFEHLUNGE N

Zusammenfassend lässt sich für die Politik ein hoher Grad an potenziellem Handlungsbedarf in

Bezug auf Big Data und KI-gestützten Algorithmen im Markt der Onlinemedien feststellen. Zahlrei-

che Institutionen sowie die Politik sehen ein klares Defizit in der Kennzeichnung von KI-basierten

Anwendungen wie PVA oder Chat- sowie Social-Bots365.

Die Einhaltung europäischer und nationaler Datenschutzvorgaben wird mit zunehmender Einbin-

dung internationaler Dienstleister und junger Start-ups, die Nutzerdaten der Medienunternehmen

verarbeiten, zu einer Herausforderung, die neue Compliance-Strukturen erfordert. In beiden Berei-

chen sind jedoch vor allem die Medienunternehmen selbst gefordert, Standards zu entwickeln und

deren Einhaltung zu prüfen, um das Vertrauen der Nutzer in Inhalte und die Sicherheit ihrer Daten

nicht zu verspielen.

Zur Sicherstellung eines fairen Wettbewerbs der Dienste auf neuen KI-basierten Plattformen (v.a.

PVA) müssen bestehende Instrumente der Plattformregulierung auf den Big-Data-Markt übertra-

gen und ggf. weiterentwickelt werden.

7.2 FAZ IT UND AUSBL ICK

Der deutsche Markt für Onlinemedien steht im Angesicht der Verbreitung von Innovationen um Big

Data und Künstlicher Intelligenz vor einem spannenden Paradigmenwechsel. Die Anzahl von ver-

fügbaren Daten wächst durch die Digitalisierung aller Lebensbereiche extrem stark an. Durch die

starke Penetration von Mobilen Endgeräten und die quasi ubiquitäre Anbindung ans Internet ge-

langen die meisten Datensets online. Bis 2025 erwarten Analysten einen Anstieg auf 180 Zettabytes

an für Unternehmen verfügbaren Daten (von rd. 10 Zettabytes in 2015). Stärkster Treiber sind dabei

vernetzte Mobilgeräte, Wearables, Haushaltsgegenstände und Fahrzeuge, die bis 2025 ein Volumen

von 80 Mrd. Einheiten erreichen sollten. Durch die massenhafte Aggregation und Auswertung die-

ser Daten wird es Medienunternehmen möglich, die Herstellung ihrer Inhalte in einem bisher un-

gekannten Maßstab zu automatisieren, inhaltlich mit Datenanalysen aufzuwerten und sie in neue

informationsjournalistische Formate einfließen zu lassen. Werbungtreibende profitieren bei der Im-

plementierung von Big Data in Marketingprozesse nicht nur von der erhöhten Präzision bei der

Analyse, Individualisierung und Ansprache der Zielgruppen, sondern auch von neuen Distributions-

kanälen wie PVA, Chatbots und Programmatic Advertising. Insgesamt wird bis 2020 erwartet, dass

das Umsatzvolumen von Big-Data-Lösungen in Deutschland eine Größe von rd. 3,75 Mrd. Euro er-

reicht. 61 Prozent dieses Umsatzes sollen vor allem durch Dienstleistungen erwirtschaftet werden.

365 US Senat, Bundesregierung, TAB, Heiko Maas etc.

Page 115: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

112

Es ist zu erwarten, dass vor allem die innerbetriebliche Optimierung von Prozessen die Medienbran-

che nachhaltig verändern wird. Im Rahmen der Marktanalyse zeichnet sich ab, dass durch die neuen

Big-Data- und KI-Schlüsselressourcen sowie Schlüsselaktivitäten (Online-)Medien sich im Prozess

einer organisationalen Transformation vom geschlossenen Content-Produzenten zum dezentralen,

KI-assistierten Content-Intermediären befinden. Natürlich findet die Erstellung von Inhalten wie

Texten, Videos, Musik oder 3D-Ressourcen noch innerhalb von räumlich abgegrenzten Redaktio-

nen, Tonstudios oder Entwicklerräumen statt. Doch diese Prozesse erfahren nicht nur eine sich im-

mer deutlicher zuspitzende Desintermediation bei der Ausspielung der Inhalte in Form von z.B.

Facebook Instant Articles oder Googles News Plattform, sondern auch der Prozess der Erstellung

wird, wie in Kapitel 5 aufgezeigt, systematisch dezentralisiert und kann automatisiert durch (von

Drittanbietern zugekaufte) algorithmische Dienstleistungen ausgeführt werden. A priori ist diese

Entwicklung nicht als problematisch einzustufen, da diese Prozesse zum Zwecke der Produktopti-

mierung und Gewinnmaximierung in Unternehmen implementiert werden können, um Arbeitneh-

mer zu entlasten und ihnen repetitive Abläufe zu ersparen. Laut Prognosen besteht in Deutschland

ein Automatisierungspotential von rd. 46 Prozent der Prozesse über alle Industrien hinweg.

Perspektivisch wird die Ausbildung dieser neuen Strukturen in der Medienbranche erst dann wirk-

lich kritisch, wenn die öffentliche Meinungsbildung und die publizistische Vielfalt potentiell von

automatisierten Entscheidungen beeinflusst werden können, die nicht systematisch nachvollziehbar

sind. Die Vorgehensweise von proprietären Algorithmen und vor allem von komplexen Anordnun-

gen von KNN, wie etwa dem Deep Learning, unterliegen keiner Aufsicht und sind anfällig für Ver-

zerrungen durch ihre Trainingsdaten. Unwillentlich können auf diesem Wege systematische Fehler

und diskriminierende Tendenzen auf die Resultate der Analysen übertragen werden.

Auch algorithmische Auswahl- und Empfehlungsprozesse, die zu einem festen Bestandteil im Markt

für der Onlinemedien avanciert sind, stehen unter dem Verdacht, Filter Blasen zu bilden und die

öffentliche Meinung zu beeinflussen. Im Falle dieser algorithmischen Entscheidungsfindung handelt

es sich bei den meisten ADM-Prozessen um die Methode des Supervised Learning, bei der der

Dateninput aus den Handlungen von Menschen stammt. Diese Methode wird bei Anbietern wie

Netflix, Spotify oder Amazon für analytische Inhaltsfindung benutzt, um Assoziationsregeln zu for-

mulieren, aus denen Korrelationen berechnet werden, welche Produkte oder Medien einem Nutzer

empfohlen werden. Dies bedeutet im Umkehrschluss, dass die Künstliche Intelligenz weder auto-

nom handeln, noch von Drittgruppen aktiv beeinflusst werden kann.

Aufgrund der hohen Marktakzeptanz von ADM-Prozessen unter Nutzern der jeweiligen Dienste

und der starken Marktpenetration von populären Onlinemedien-Plattformen und sozialen Netz-

werken werden Algorithmen sich immer stärker in allen Bereichen der Medienbranche ausbreiten.

Besonders in der Werbeindustrie ist zu erwarten, dass Algorithmen die Werbeplanung, -buchung

und -kreation stärker automatisieren werden. Durch die Optimierung von Preisgebungsverfahren

und Präzisierung der Kundenprofile durch Big-Data-Analysen prognostiziert der Branchenverband

BVDW, dass der Nettowerbeumsatz im Programmatic Advertising 2017 rd. zwei Mrd. Euro erreicht,

indem er das dritte Jahr in Folge stärker wächst als die Jahre davor. Es zeichnet sich ab, dass neben

der Automatisierung traditioneller Werbeauktionsverfahren vor allem Personalisierung für Wer-

bungtreibende in naher Zukunft der zentrale Umsatztreiber sein wird. Mit Hilfe von IoT-Sensordaten

und Big-Data-gestützter Mustererkennung wird es möglich, den situativen Kontext eines jeden

Werbekunden zu analysieren, seine Interessen auf Basis seiner Echtzeit-Interaktionen zu bestimmen

und abhängig von seiner geografischen Lage Werbung auf Basis seiner eruierten Bedürfnisse adap-

tiert auszuspielen.

Page 116: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

113

Weniger erfolgsversprechend erscheint die zukünftige Integration von standardisierten Chatbot-

Plattformen in den Marketing-Mix. Als autonome Agenten im Zuge des Customer-Relationship-

Managements werden Chatbots schon länger erfolgreich eingesetzt, um Kunden simple Fragen zu

beantworten oder diese an Service-Mitarbeiter weiterzuleiten. Doch im Einsatz als Konversations-

kanal für den Vertrieb von Waren oder Dienstleistungen an Privatpersonen zeichnet sich ab, dass

Chatbots nicht die an sie gerichteten Anforderungen in Bezug auf automatisierte Kundenkommu-

nikation erfüllen können. 2016 gab bei mehreren separaten Befragungen fast jeder zweite Nutzer

an, Chatbots ungern zu nutzen. So gaben rd. 71 Prozent aller deutschen Internetznutzer ab 18 Jah-

ren an, dass sie Chatbots nicht nutzen möchten, und 46 Prozent wussten nicht, was Chatbots über-

haupt sind. Zentrale Kritikpunkte sind dabei das abrupte Abbrechen der Konversation mit einem

Bot, wenn dieser die textuelle oder sprachliche Eingabe nicht versteht, sowie Sicherheitsbedenken.

Denn durch den Einsatz von Social Bots (einer spezifischen Variante von Chatbots) für die gezielte

Manipulation von Meinungen in sozialen Netzwerken während politischer Großereignisse haben

Bot-Plattformen enorm an Vertrauen eingebüßt. Potentiell erfolgreicher gestaltet sich die Integra-

tion von Chatbots in B2B-Prozesse in Form von virtuellen Assistenten und Agenten, die sehr simple

Aufgaben in sehr großem Umfang und auf Befehl ausführen können.

Der Markteinfluss von fortgeschrittenen Bot-Plattformen wie Personal Voice Assistants entwickelt

sich dagegen deutlich positiver. Die Mehrheit der deutschen PVA-Nutzer empfindet die ständige

Verfügbarkeit und die bequeme Steuerung per Sprache als sehr nützlich. Aufgrund des enormen

Ressourceneinsatzes von Seiten der Technologiekonzerne brechen die Konversationen mit PVA

durch den Einsatz von NLP-Methoden nicht so einfach ab wie mit Chatbots und bieten damit ein

zufriedenstellendes Erlebnis. Hinter den hohen Entwicklungskosten steht jedoch die Kalkulation,

dass PVA nicht nur als persönliche Assistenten gebraucht werden, sondern als Lead-Up-Channels

zu einer neuen Form von Akquise- und Vertriebs-Kanal werden. Während des Betriebs sind die

beiden in Deutschland erhältlichen Personal Voice Assistants Amazon Alexa und Google Home Mini

stets mit dem Internet verbunden und leiten dienstleistungs- und produktbezogene Anfragen der

Nutzer an die Onlinemedien- und E-Commerce-Angebote ihrer Hersteller weiter. Die Integration

dieser kommerziellen Komponente und die Tatsache, dass nur in den seltensten Fällen mehrere

PVA in einem Haushalt parallel verwendet werden, spiegeln die Marktverhältnisse im mobilen App-

Markt wider, in dem der Apple App Store und der Google Play Store bisher konkurrenzlos einen

marktbeherrschenden Duopol bilden.

Vor dem Hintergrund dieser Ergebnisse und Handlungsempfehlungen lässt sich zusammenfassen,

dass Big Data als technologisches Paradigma dabei ist, viele Medienmärkte einem deutlichen Struk-

turwandel zu unterwerfen. Obwohl nicht alle Technologien und Methoden, die im Kontext von Big

Data eingesetzt werden, eine klare Marktreife erreicht haben, wird deutlich, dass in naher Zukunft

vor allem Künstliche Intelligenz und Natural Language Processing in der Wertschöpfungskette einer

Mehrheit von deutschen Medienunternehmen Einsatz finden werden. Das ökonomische Umsatz-

potential der Automatisierung von standardisierten Aufgaben wie informationsjournalistischer Tex-

terstellung über die Kreation automatisierter Werbung bis hin zu autonomen Vertriebskanälen ist

zu lukrativ, als dass Unternehmen es wegen Datensicherheitsbedenken oder technologischer

Schwächen vernachlässigen würden. Die flexible Skalierung der Big-Data-Infrastruktur macht dabei

großflächige Analyseprozesse für viele Unternehmen ökonomisch plausibel und sogar notwendig,

wenn es darum geht, Wachstumsimpulse effizient umzusetzen.

Auffällig erscheint jedoch, dass Big Data vor allem auf der Seite von Unternehmen stärkere Adap-

tation erfährt als im Privatkundensegment. Das Investment in Big Data und KI-Start-ups betrug

Page 117: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

114

alleine im Jahr 2016 rd. fünf Mrd. US-Dollar (und damit fast doppelt so viel wie im Vorjahr). Als

Gründe für diese Entwicklung lässt sich die ökonomische Effizienz von Problemlösungs- und Mus-

tererkennungsvorgängen anführen. Privatkunden stehen dagegen nicht unter einem wirtschaftli-

chen Druck, neue Technologien adaptieren zu müssen, und reagieren demnach sensibler auf Tech-

nologien, die nicht komplett ausgereift sind. Doch trotz der niedrigen Nutzerakzeptanz und wider

alle arbeitsethischen Bedenken zeichnet sich ab, dass der deutsche Onlinemedien-Markt im Zuge

der fortschreitenden Digitalisierung Big-Data-Prozesse noch stärker in organisationale Strukturen

integrieren wird. Das Disruptionspotential dieser Technologie gestaltet sich zwar nicht so stark wie

einst das des Internets, doch die digitale Medienlandschaft wird komplett ohne die Big-Data-Tech-

nologien nicht auskommen können und sich kontinuierlich verändern müssen.

Page 118: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

115

8 LITERATUR UND QUELLEN

Abiteboul, S./ Hull, R. [1986]: „Restructuring hierarchical database objects", in: „Theoretical Computer Science", Vol.

62(1-2)

Absatzwirtschaft [2015]: „Werbebudgets verlagern sich in Richtung Programmatic – zulasten des TV", Absatzwirt-

schaft, online: www.absatzwirtschaft.de/werbebudgets-verlagern-sich-in-richtung-programmatic-zulas-ten-des-

tv-55745/ letzter Zugriff: 26.02.2018

Acxiom Deutschland GmbH [o. D.]: „Analytisches CRM/Customer Insights“, Acxiom Deutschland GmbH, online:

www.acxiom.de/analytisches-crmcustomer-insights/ letzter Zugriff: 27.02.2018

Adar, E./ Gearig, C./ Balasubramanian, A./ Hullman, J. [2017]: „PersaLog: Personalization of News Article Content“, in:

„Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems“, New York: ACM, S. 3188-

3200

Ahlers, Birgit [2016]: "Was ist ein Sales funnel?", Vertriebszeitung, online: https://vertriebszeitung.de/ist-ein-ver-

triebsfunnel/ letzter Zugriff: 20.02.2018

Aiello, L. M./ Deplano, M./ Schifanella, R./ Ruffo, G. [2012]: „People are Strange when you're a Stranger: Impact and

Influence of Bots on Social Networks“, in: „Proceedings of the Sixth International AAAI Conference on Weblogs

and Social Media“, S.10-17

AirPR [2018], online: https://airpr.com/ letzter Zugriff: 23.01.2018

Akst, D. [2013]: „Automation Anxiety“, online: http://archive.wilsonquarterly.com/sites/default/files/articles/Auto-

mationAnxiety.pdf letzter Zugriff: 17.11.2017

Albrecht, R. [2017]: „Algorithmen und Big Data fühlen nicht", Bilanz - Das deutsche Wirtschaftsmagazin, online:

https://www.welt.de/wirtschaft/bilanz/article164880307/Algorithmen-und-Big-Data-fuehlen-nicht.html letzter

Zugriff: 12.02.2018

Alda [2018]: „Alda. Alda is a text-based programming language for music composition”, online: https://alda.io/ letzter

Zugriff: 10.01.2018

AlgStrOeff [2018]: „Algorithmischer Strukturwandel der Öffentlichkeit. Chancen und Risiken der Informations- und

Kommunikationstechnologien für die Entwicklung der politischen Informationskompetenz“, online:

https://www.algstroeff.de/ Letzter Zugriff: 05.01.2018

Alpine.AI [2017]: „The 2017 Voice Report by Alpine (fka VoiceLabs)", nach: CIRP, KPCB und InfoScout (2017), online:

https://alpine.ai/2017/01/15/the-2017-voice-report-by-alpine/ letzter Zugriff: 16.02.2018

Altmeppen, K.-D. [1996]: „Medien und Ökonomie – Medienökonomie“, in: Altmeppen, K.-D. (Hrsg.): „Ökonomie der

Medien und des Mediensystems. Grundlagen, Ergebnisse und Perspektiven medienökonomischer Forschung“,

Opladen: Westdeutscher Verlag, S. 9-24

Alvarez-Melis, D./ Jaakkola, T.S. [2017]: „A causal framework for explaining the predictions of black-box sequence-to-

sequence models", MIT, online: http://people.csail.mit.edu/tommi/papers/AlvJaa_EMNLP2017.pdf letzter

Zugriff: 20.02.2018

Amazon Mechanical Turk [2018], online: https://www.mturk.com/ letzter Zugriff: 26.02.2018

Amini, L. [2016]: „Making ‘Cognitive Music’ with IBM Watson”, online:

https://www.ibm.com/blogs/think/2016/10/watson-music/ letzter Zugriff: 10.01.2018

Anders, G. [2017]: „Alexa, Understand Me”, online: https://www.technologyreview.com/s/608571/alexa-understand-

me/ letzter Zugriff: 17.11.2017

Angwin, J. [2016]: „Facebook Doesn’t Tell Users Everything It Really Knows About Them“, ProPublica, online:

www.propublica.org/article/facebook-doesnt-tell-users-everything-it-re- ally-knows-about-them letzter Zugriff:

20.02.2018

Armbruster, A. [2017]: „Künstliche Intelligenz: Ein Wettlauf wie im Kalten Krieg", Frankfurter Allgemeine Zeitung, on-

line: http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/kuenstliche-intelligenz-wer-gewinnt-den-

wettlauf-usa-oder-china-15284415.html letzter Zugriff: 20.02.2018

Arnold, K. [2009]: „Qualitätsjournalismus. Die Zeitung und ihr Publikum“, Konstanz: UVK

Page 119: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

116

Aron, J. [2011]: „Software ticks people into thinking it is human“, online: https://www.newscientist.com/arti-

cle/dn20865-software-tricks-people-into-thinking-it-is-human/ letzter Zugriff: 16.11.2017

Artech Technologies AG [2018]: „VCA - Die intelligente Videoanalyse. MULTIEYE VCA Videoanalyse“, online:

https://www.artec.de/de/produkte/multieye/vca-die-intelligente-videoanalyse.html letzter Zugriff: 10.01.2018

Atkins, C./ de Uster, M./ Mahdavian, M./ Yee, L. [2016]: „Unlocking the power of data in sales”, online:

https://www.mckinsey.it/file/6741/download?token=QeV5tdc7 letzter Zugriff: 05.01.2018

Auerbach, D. [2015]: „The Programs That Become the Programmers“, online: http://www.slate.com/articles/technol-

ogy/bitwise/2015/09/pedro_domingos_master_algorithm_how_machine_learning_is_reshaping_how_we.html

letzter Zugriff: 17.11.2017

Austin, D. [2017]: „How Amazon’s Alexa hooks you“, online: https://venturebeat.com/2017/06/27/how-amazons-

alexa-hooks-you/ letzter Zugriff: 17.11.2017

Avid Sibelius First [2018]: „Musik-Komposition beginnt hier“, online: http://www.avid.com/de/sibelius-first letzter

Zugriff: 10.01.2018

AX Semantics [2017]: „AX Semantics Inputraster in drei Sprachen und Beispielartikel", online: https://www.ax-seman-

tics.com/de/nlg-cloud.html letzter Zugriff: 15.11.2017

AZ Direct GmbH [o. D.]: „Adressqualifizierung – erfahren, was Kunden bewegt“, AZ Direct GgmbH, online: www.az-

direct.com/site/information-services/daten-lizen- zen/az-dias-profildaten/ letzter Zugriff: 27.02.2018

Bachman, C. W. [1973]: „The programmer as navigator.", in: „Communications of the ACM," Vol. 16(11)

Bakker, P. [2012]: „Aggregation, Content Farms and Huffinization, The rise of low-pay and nopay journalism“, in:

„Journalism Practice“, Vol. 6: 5-6, S. 627-737

Ball, J. [2014]: „The Upshot, Vox and FiveThirtyEight: data journalism's golden age, or TMI?", The Guardian, online:

https://www.theguardian.com/commentisfree/2014/apr/22/upshot-vox-fivethirtyeight-data-journalism-

golden-age letzter Zugriff: 27.02.2018

Ballein, M. [2017]: „Spotify im Test: Der Platzhirsch im Musik-Streaming-Markt. Was die Musik-Flatrate aktuell zu bie-

ten hat“, online: https://www.netzwelt.de/spotify/testbericht.html#empfehlungssystem-soziale-netzwerke letz-

ter Zugriff: 05.01.2018

Baoding, L. [2009]: „Theory and Practice of Uncertain Programming", Springer-Verlag Berlin Heidelberg, 2. Aufl.

BARC [2015]: „Big Data Use Cases: Getting Real On Data Monetization", BARC GmbH Umfrage, online:

https://www.sas.com/content/dam/SAS/bp_de/doc/studie/ba-st-barc-bigdata-use-cases-de-2359583.pdf letz-

ter Zugriff: 12.02.2018

Barzilai-Nahon, K./ Neumann, S. [2005]: „Gatekeeping in Networks: A Meta-Theoretical Framework For Exploring In-

formation Control“, in: „Journal of Association of Information Systems Sponsored Theory Development Work-

shop in ICIS“, Las Vegas, S. 1-29, online: https://pdfs.seman-

ticscholar.org/c577/2b3a9dd0f4a5e780b580d8c0e2c8ba6bf841.pdf letzter Zugriff: 16.11.2017

Basharin, G. P./ Langville, A. N./ Naumov, V. A. [2004]: „The life and work of A.A. Markov", in: "Linear Algebra and its

Applications", Vol. 386

Basheer, I. A./ Hajmeer, M. [2000]: „Artificial neural networks: fundamentals, computing, design, and application", in:

„Journal of microbiological methods", Vol. 43(1)

Bateman, J./ Zock, M. [2003]: "Natural language generation.”, in: The Oxford Handbook of Computational Linguistics,

S. 5f.

Batista, N.C./ Melício. R./ Mendes, V.M.F. [2016]: „Services enabler architecture for smart grid and smart living ser-

vices providers under industry 4.0", in: „Energy and Buildings", Vol. 141

BDZV (2016): „EU-Datenschutz: Presseverleger sehen Mängel in neuer Verordnung", BDZV, online:

http://www.bdzv.de/nachrichten-und-service/presse/pressemitteilungen/artikel/detail/eu_datenschutz_pres-

severleger_sehen_maengel_in_neuer_verordnung/ letzter Zugriff: 13.04.2018

Bell, E. [2016]: „As publishers lose control, are newspaper websites a dead parrot?“, online: http://www.theguard-

ian.com/media/2016/feb/21/publishers-adblocking-advertising-mobile letzter Zugriff: 17.11.2017

Berkel, B. [2006]: „Konflikt als Motor europäischer Öffentlichkeit: eine Inhaltsanalyse von Tageszeitungen in Deutsch-

land, Frankreich, Großbritannien und Österreich“, Wiesbaden: VS Verlag für Sozialwissenschaften

Page 120: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

117

Bessi, A./ Ferrara, E. [2016]: „Social bots distort the 2016 U.S. Presidential election online discussion“, in: First Mon-

day, 21(11) online: from http://firstmonday.org/ojs/index.php/fm/arti-cle/view/7090/5653 letzter Zugriff:

16.11.2017

Beuth, P. [2017a]: „Algorithmen. Maas schlägt digitales Antidiskriminierungsgesetz vor“, online:

http://www.zeit.de/digital/internet/2017-07/heiko-maas-algorithmen-regulierung-antidiskriminierungsge-

setz/komplettansicht letzter Zugriff: 05.01.2018

Beuth, P. [2017b]: „Die rätselhafte Gedankenwelt eines Computers", Zeit Online, online: http://www.zeit.de/digi-

tal/internet/2017-03/kuenstliche-intelligenz-black-box-transparenz-fraunhofer-hhi-darpa Letzter Zugriff:

20.02.2018

BfDI [o. D.]: „Adresshandel und unerwünschte Werbung", BfDI Informationsbroschüre

Bhaskar, M. [2017]: „Curation“, London: Piatkus Books

Bilenko, M./ Richardson, M. [2011]: „Predictive client-side profiles for personalized advertising.", in: „Proceedings of

the 17th ACM SIGKDD international conference on knowledge discovery and data mining ACM”

Binder, A./ Montavon, G./ Bach, S./ Müller, K.-R./ Samek, W. [2016]: „Layer-wise Relevance Propagation for Neural

Networks with Local Renormalization Layers", in: „ICANN 2016: Artificial Neural Networks and Machine Learning

– ICANN 2016", S. 63-71, arXiv:1604.00825v1

Bishop, C. M. [1995]: „Neural Networks for Pattern Recognition”, Oxford: Clarendon Press

Bishop, C. M. [2006]: „Pattern recognition and machine learning“, New York: Springer

BITKOM [2013]: „Demokratie 3.0. Die Bedeutung des Internets für politische Meinungsbildung und Partizipation von

Bürgern - Ergebnisse einer repräsentativen Befragung von Wahlberechtigten in Deutschland“, online:

https://www.bitkom.org/noindex/Publikationen/2013/Studien/Studie-Demokratie-3-0/BITKOM-Studie-Demo-

kratie-30.pdf letzter Zugriff: 16.11.2017

BITKOM [2016a]: „Für welche Bereiche könnten Sie sich den Einsatz von Chatbots vorstellen?", in: Statista.de, online:

https://de.statista.com/statistik/daten/studie/660267/umfrage/umfrage-zu-einsatzmoeglichkeiten-von-chat-

bots-in-deutschland/ letzter Zugriff: 23.01.2018

BITKOM [2016b]: „Warum wollen Sie keine Chatbots nutzen?", n = 1.005, Deutsche Onlinenutzer ab 14 Jahren, Sta-

tista.de, online: https://de.statista.com/statistik/daten/studie/660281/umfrage/umfrage-zu-gruenden-gegen-

die-nutzung-von-chatbots-in-deutschland/ letzter Zugriff: 23.01.2018

Boden, C./ Fischer, J./ Herbig, K./ Liebe, J./ Sinning, H. [2006]: „Chatbots als Instrument der Planungskommunikation-

Chancen, Anforderungen und Perspektiven“, in: „GI Jahrestagung“, Vol. 93, S. 433-442

Bojarski, M./ Yeres, P./ Choromanaska, A./ Choromanski, K./ Firner, B./ Jackel, L./ Muller, U. [2017]: „Explaining How a

Deep Neural Network Trained with End-to-End Learning Steers a Car", arXiv:1704.07911v1

Bollier, D./ Firestone, C. M. [2010]: „The promise and peril of big data", Washington, DC: Aspen Institute, Communica-

tions and Society Program

Bond, A.H./ Gasser, L. (Hrsg.) [2014]: „Readings in distributed artificial intelligence" Morgan Kaufmann

Borth, D./ Ulges, A./ Schulze, C./ Breuel, T. [2009]: Keyframe Extraktion für Video-Annotation und Video-Zusammen-

fassung. Informatik-Spektrum, Vol (32(1), S. 50-53, doi: 10.1007/s00287-008-0264-y

Botteri, P. [2008]: „Measuring sales and marketing effectiveness of SaaS companies: The CAC Ratio", Accel Partners,

online: http://cracking-the-code.blogspot.de/2008/03/measuring-sales-and-marketing.html letzter Zugriff:

23.01.2018

Boutin, P. [2017]: „Why Most Chatbots Fail - Forrester report lists three big mistakes", Chatbot Magazine, online:

https://chatbotsmagazine.com/why-most-chatbots-fail-1c085b74d6ad letzter Zugriff: 26.02.2018

Boxell, L./Gentzkow, M./Shapiro, J. [2017]: „Greater Internet use is not associated with faster growth in political po-

larization among US demographic groups. Proceedings of the National Academy of Sciences of the United States

of America”, Vol. 114 (40), S. 10612-10617

Brosey, M./ Shneiderman, B. [1978]: „Two experimental comparisons of relational and hierarchical database models",

in: „International Journal of Man-Machine Studies", Vol. 10(6)

Brühl, J. [2017]: „Können Parteien mit personalisierter Werbung die Wahl manipulieren?“, on-line: http://www.sued-

deutsche.de/digital/wahlkampf-in-sozialen-medien-koennen-parteien-mit-personalisierter-werbung-die-wahl-

manipulieren-1.3581781 letzter Zugriff: 16.11.2017

Page 121: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

118

Brühl, J./ Brunner, K./ Ebitsch, S. [2017]: „Der Facebook-Faktor. Wie das soziale Netzwerk die Wahl beeinflusst“, on-

line: http://gfx.sueddeutsche.de/apps/e502288/www/ letzter Zugriff: 16.11.2017

Brunner, K./ Ebitsch, S. [2017]: „Was links und rechts verbindet - und trennt“, online: http://www.sueddeut-

sche.de/digital/der-facebook-faktor-was-links-und-rechts-verbindet-und-trennt-1.3474020 letzter Zugriff:

16.11.2017

Bucher, T. [2017]: „,Machines don’t have instincts’: Articulating the computational in journalism“, in: „New Media &

Society“, Vol. 19(6), S. 918-933

Bundesagentur für Arbeit [o. D.]: „Typisch Ich - What’sMeBot“, online: http://dasbringtmichweiter.de/ty-

pischich/whatsmebot/ letzter Zugriff: 16.11.2017

Bundesministerium für Justiz und Verbraucherschutz [2017]: „Verbesserung der Rechtsdurch-setzung in sozialen Netz-

werken“, online: http://www.bmjv.de/SharedDocs/Artikel/DE/2017/04052017_NetzDG.html letzter Zugriff:

17.11.2017

Burgess, J./ Bruns, A. [2015]: „Easy Data, Hard Data: The Politics and Pragmatics of Twitter Research After the Compu-

tational Turn“, in: Langlois, G. (Hrsg.), Redden, J., & Elmer, G., „Compromised Data. From Social Media to Big

Data“, New York: Bloomsbury Academic

Business Insider [2016]: „Chatbot revenue is on the upswing", Business Insider Intelligence, nach: McKinsey (2016),

online: http://www.businessinsider.com/chatbot-revenue-is-on-the-upswing-2017-3 letzter Zugriff: 15.11.2017

Buxton, Madeline [2018]: „Writing For Alexa Becomes More Complicated In The #MeToo Era", Refinery29, online:

http://www.refinery29.com/2017/12/184496/amazo-alexa-personality-me-too-era letzter Zugriff: 20.02.2018

BvD-News [2015]: „Das große Erwachen. Was ist von so genannten Social-Scoring-Unternehmen zu halten", in: „BvD-

News", Vol. 1/2015

BVDW [2015]: „Browsercookies und alternative Tracking-Technologien", BVDW White Paper

BVDW [2012]: „Whitepaper Webanalyse und Datenschutz", BVDW White Paper, online:

https://www.adzine.de/2012/07/whitepaper-zu-datenschutz-und-webanalyse-web-analytics/ letzter Zugriff:

19.01.2018

Cain Miller, C. [2015]: „When Algorithms Discriminate“, The New York Times, online: https://www.ny-

times.com/2015/07/10/upshot/when-algorithms-discriminate.html?_r=0 letzter Zugriff: 16.11.2017

Calin, M./ Dellarocas, C./ Palme, E./ Sutanto, J. [2013]: „Attention allocation in information rich environments: The

case of news aggregators“, in: „Boston University School of Management Research Paper Series“, Vol. 2013 (4)

Carlson, M. [2015]: „The robotic reporter: Automated journalism and the redefinition of labor, compositional forms,

and journalistic authority“, in: „Digital Journalism“, Vol. 3(3), 416-431

Castendyk, O./ Müller-Lietzkow, J. [2017]: „Abschlussbericht zur Studie: Die Computer- und Videospielindustrie in

Deutschland. Daten – Fakten – Analysen“, online: http://docs.dpaq.de/13008-abschlussbericht_games-stu-

die_v1.0_2017-11-28.pdf letzter Zugriff: 10.01.2018

CB Insights [2016]: „The 2016 AI Recap: Startups See Record High In Deals And Funding“, CB Insights Report, online:

https://www.cbinsights.com/research/artificial-intelligence-startup-funding/ letzter Zugriff: 27.02.2018

CDU [2017]: „Der CDU ChatBot“, online: http://fb.com/msg/csu letzter Zugriff: 16.11.2017

Cellan-Jones, R. [2017]: „Google DeepMind: AI becomes more alien", BBC News, online:

http://www.bbc.com/news/technology-41668701 letzter Zugriff: 19.01.2018

chatbot.fail [2018]: „Why Chatbots fail“, online: https://chatbot.fail/, letzter Zugriff: 23.01.2018

Chen, G. M./ Chock, T. M./ Gozigian, H./ Rogers, R./ Sen, A./ Schweisberger, V. N./ Steinhardt, J./ Wang, Yi [2011]:

„Personalizing news websites attracts young readers“, News-paper Research Journal, Vol. 32(4), 22-38

Chen, J./Stallaert, J. [2014]: „An economic analysis of online advertising using behavioral targeting”, in: „MIS Quar-

terly”, Vol. 38 (2), S. 429-A7

Chen, P. P. S. [1976]: „The entity-relationship model - toward a unified view of data", in: „ACM Transactions on Data-

base Systems (TODS)", Vol. 1(1)

Chowdhury, G. [2003]: „Natural language processing“, in: „Annual Review of Information Science and Technology“,

Vol. 37

Chu, C. T./ Kim, S. K./ Lin, Y. A./ Yu, Y./ Bradski, G./ Olukotun, K./ Ng, A. Y. [2007]: „Map-reduce for machine learning

on multicore", in: „Advances in neural information processing systems", S. 281-288

Page 122: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

119

Chung, H./ Park, J./ Lee, S. [2017]: „Digital forensic approaches for Amazon Alexa ecosystem“, in: „Digital Investiga-

tion“, Volume 22, S. 15-25, online: http://www.sciencedirect.com/science/article/pii/S1742287617301974 letz-

ter Zugriff: 17.11.2017

Clematide, S./ Sennrich, R. [2008]: „Einführung in die Computerlinguistik“, Institut für Computerlinguistik der Universi-

tät Zürich (Hrsg.), online: https://files.ifi.uzh.ch/cl/siclemat/lehre/hs08/ecl1/script/script.pdf letzter Zugriff:

17.11.2017

Clerwall, C. [2014]: „Enter the Robot Journalist. Users’ perceptions of automated content”, In: „Journalism Practice”,

Vol. 8(5), S. 519-531, doi: 10.1080/17512786.2014.883116

Codd, E. F. [1979]: „Extending the database relational model to capture more meaning", in: „ACM Transactions on

Database Systems (TODS)", Vol. 4(4), 397ff.

Colhoun, D. [2015]: „Is the news behaving more like advertising?“, online: https://www.cjr.org/analysis/news_behav-

ing_more_like_advertising.php letzter Zugriff: 17.11.2017

Collective Intelligence [2018]: „What is Collective[i]?", Collectivei.com, online: https://www.collectivei.com/what-is-

collectivei/ letzter Zugriff: 26.02.2018

Collins, K./ Buchanan, L. (2018): „How Facebook Lets Brands and Politicians Target You", New York Times, online:

https://www.nytimes.com/interactive/2018/04/11/technology/facebook-sells-ads-life-details.html?smid=fb-

nytimes&smtyp=cur letzter Zugriff: 13.04.2018

Constine, J. [2014]: „Datalogix Raises $45 Million Series C To Pipe Offline Purchase Data To Facebook And Twitter“,

Techcrunch, online: https://techcrunch.com/2014/05/28/offline-purchase-data/ letzter Zugriff: 27.02.2018

Content Blockchain [2018a]: „Building Blocks for the Content Community”, online: https://content-blockchain.org/

letzter Zugriff: 02.02.2017

Content Blockchain [2018b]: „Purpose and benefits of the rights profiles from the Content Blockchain Project”, online:

https://content-blockchain.org/newsarchive/2017/09/28/further-development-of-rights-profiles/ letzter

Zugriff: 02.02.2017

Content Blockchain [2018c]: „Launch of Content Blockchain Testnet”, online: https://content-blockchain.org/newsar-

chive/2017/11/12/content-blockchain-goes-multichain/ letzter Zugriff: 02.02.2017

Contentpepper [2017]: „Welches Potenzial hat die Blockchain Technologie für digitale Content-Distribution?“ Online:

https://www.contentmanager.de/cms/contentpepper/welches-potenzial-hat-die-blockchain-technologie-fuer-

digitale-content-distribution/ letzter Zugriff: 02.02.2017

Cordova, D. I./ Lepper, M. R. [1996]: „Intrinsic motivation and the process of learning: Beneficial effects of contextual-

ization, personalization, and choice“, in: „Journal of educational psychology“, Vol. 88(4), S. 715-730

Cornfield, M. [2004]: „Politics Moves Online: Campaigning and the Internet“, New York: The Century Foundation Press

Creditreform Gruppe [o. D.]: „Modulare und wirtschaftliche Bonitätsprodukte“, online: www.boniversum.de/loesun-

gen/produkte/ letzter Zugriff: 27.02.2018

Crowdalyzer [2018]: „Crowdalyzer - Ihr digitaler Reporter für Geschichten aus den sozialen Medien“, online:

https://www.crowdalyzer.com/ letzter Zugriff: 05.01.2018

Cruz, N. [2017]: „Geovanny Antonio Mendez-Gomez, 24“, online: http://homicide.latimes.com/post/geovanny-an-

tonio-mendez-gomez/ letzter Zugriff: 10.01.2018

Dachwitz, I. [2017]: „Wahlkampf in der Grauzone: Die Parteien, das Microtargeting und die Transparenz“, online:

https://netzpolitik.org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/

letzter Zugriff: 16.11.2017

Dambeck, H. [2014]: „Manipulierte Timeline. Facebook kann auf Gefühle seiner Nutzer einwirken“, online:

http://www.spiegel.de/netzwelt/web/facebook-steuert-ueber-manipulierte-timeline-emotionen-seiner-nutzer-

a-973132.html letzter Zugriff: 05.01.2018

Dataiku [2018]: „DDS-Online-Plattform", Daitaku.com, online: https://www.dataiku.com letzter Zugriff: 205.01.2018

Datta, A./ Tschantz, M. C./ Datta, A. [2015]: „Automated Experiments on Ad Privacy Settings“, in: „Proceedings on Pri-

vacy Enhancing Technologies 2015“, (1), S. 65. DOI: 10.1515/popets-2015-0007 letzter Zugriff: 16.11.2017

Davis, C. A./ Varol, O./ Ferrara, E./ Flammini, A./ Menczer, F. [2016]: „BotOrNot: A System to Evaluate Social Bots“, in:

„Proceedings of the 25th International Conference Companion on World Wide Web“, S. 273-274

De Mauro, A./ Greco, M./ Grimaldi, M. [2015]: „What is big data? A consensual definition and a review of key research

topics", in: „AIP conference proceedings", Vol. 1644, No. 1, S. 97-104

Page 123: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

120

Dean, J./ Ghemawat, S. [2008]: „MapReduce: simplified data processing on large clusters", in: „Communications of

the ACM", Vol. 51(1)

Decent [2018]: „Where will Decent Take us in 2018?” Online: https://decent.ch/en/where-will-decent-take-us-in-

2018ij/ letzter Zugriff: 02.02.2017

Deloitte [2016]: „Industrielles Internet der Dinge und die Rolle von Telekommunikationsunternehmen. Hype oder ver-

netzte Revolution?“ Online: https://www2.deloitte.com/content/dam/Deloitte/de/Documents/technology-me-

dia-telecommunications/Deloitte_TMT_Industrielles%20Internet%20der%20Dinge.pdf letzter Zugriff:

10.01.2018

Dengel, A. (Hrsg.) [2012]: „Semantische Technologien: Grundlagen – Konzepte – Anwendungen“, Spektrum Akademi-

scher Verlag Heidelberg

Der Tagesspiegel [2016]: „Datenschutzbeauftragte warnt vor Amazon Echo“, online: http://www.pressepor-

tal.de/pm/2790/3468862 letzter Zugriff: 17.11.2017

Desouza, K./ Krishnamurthy, R. [2017]: „Chatbots move public sector toward artificial intelligence“, online:

https://www.brookings.edu/blog/techtank/2017/06/02/chatbots-move-public-sector-towards-artificial-intelli-

gence/ letzter Zugriff: 16.11.2017

Deutsche Post AG [2010-2016]: „Dialogmarketing Deutschland 2010-2018“, Dialog Marketing Monitor Studie 22-28.

Bonn: Deutsche Post

Deutscher Bundestag [2015]: „Gesetz über die politischen Parteien (Parteiengesetz)“, online: https://www.bundes-

tag.de/blob/189336/c8a22a376ea9165443a477101f2352dd/pg_pdf-data.pdf letzter Zugriff: 16.11.2017

Deutscher Bundestag [2017a]: „Service: Virtualer Adler“, online: https://adler.bundestag.de/nmIQ/frage.jsp letzter

Zugriff: 16.11.2017

Deutscher Bundestag [2017b]: „Wirkung von ‚Social Bots‘ ist unter Sachverständigen strittig“, online:

https://www.bundestag.de/dokumente/textarchiv/2017/kw04-pa-bildung-forschung-social-bots/488818 letzter

Zugriff: 16.11.2017

DeVito, M. [2017]: „From Editors to Algorithms“, in: „Digital Journalism“, Vol. 5(6), S. 753-773

Dey, N./ Ashour, A./ Nguyen, G. [2016]: „Deep Learning for Multimedia Content Analysis”. In: Mining Multimedia Doc-

uments

Diakopoulos, N. [2014]: „Algorithmic Accountability: On the Investigation of Black Boxes“, online:

https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investiga-

tion_of_black_boxes.php letzter Zugriff: 16.11.2017

Diakopoulos, N. [2015]: „Algorithmic Accountability: Journalistic investigation of computational power structures“, in:

„Digital Journalism“, Vol. 3(3), S. 398-415

Dick, M. [2016]: „Astroturfing in online comment: An investigation“, in: „Ethical Space: The International Journal of

Communication Ethics“, Vol. 13 (1), S. 32-38

Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit [2017]: „Datenschutz kompakt: Digitale

Sprachassistenten“, online: https://www.bfdi.bund.de/DE/Home/Kurzmeldungen/DSkompakt_Sprachassisten-

ten.html letzter Zugriff: 09.11.2017

Die Medienanstalten [2018]: „Plattformregulierung”, online: https://www.die-medienanstalten.de/themen/platt-

formregulierung/ Letzter Zugriff: 26.02.2018

Diffferent Strategieagentur [2015]: „The Programmatic Giant. Einige Chancen sind zu groß, um sie zu verheimlichen“,

online: https://a.storyblok.com/f/39919/248ffe02d2/diffferent-whitepaper-the-programmatic-giant.pdf letzter

Zugriff: 10.01.2018

Dijcks, J.P. ]2012]: „Oracle: Big data for the enterprise“, Oracle White Paper, online: http://www.oracle.com/us/prod-

ucts/database/big-data-for-enterprise-519135.pdf letzter Zugriff: 02.11.2017

Dobusch, L. [2015]: „Projekt ‚aula‘ sucht Schulen, die mit Liquid Democracy experimentieren wollen“, online:

https://netzpolitik.org/2015/projekt-aula-sucht-schulen-die-mit-liquid-democracy-experimentieren-wollen/

letzter Zugriff: 05.01.2018

Dobusch, L. [2017]: „Die Organisation der Digitalität: Zwischen grenzenloser Offenheit und offener Exklusion“, online:

https://netzpolitik.org/2017/die-organisation-der-digitalitaet-zwischen-grenzenloser-offenheit-und-offener-

exklusion/ letzter Zugriff: 05.01.2018

Dörr, K. N. [2016]: „Mapping the field of Algorithmic Journalism“, in: „Digital Journalism“, Vol.4(6), S. 700-722

Page 124: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

121

Dörr, K. N./ Hollnbuchner, K. [2016]: „Ethical Challenges of Algorithmic Journalism“, in: „Digital Journalism“, Vol. 5(4),

S. 404-419

Dörr, K. N./ Köberer, N./ Haim, M. [2017]: „Normative Qualitätsansprüche an algorithmischen Journalismus“, in: Fili-

povic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Diskurs?“, Baden-Baden: Nomos Verlagsgesellschaft

mbH & Co. KG, S. 121-134)

dpa [2017]: „Facebook. Algorithmen sollen selbstständig ,Fake News‘ erkennen“, online: http://www.handels-

blatt.com/technik/it-internet/facebook-algorithmen-sollen-selbststaendig-fake-news-erkennen/20143916.html

letzter Zugriff: 05.01.2018

DS-GVO [2017]: „Datenschutz-Grundverordnung DSGVO", online: https://dsgvo-gesetz.de/ letzter Zugriff: 20.02.2018

Duhigg, C. [2012]: How Companies Learn Your Secrets, online: http://www.nytimes.com/2012/02/19/magazine/shop-

ping-habits.html?pagewanted=1&_r=1&hp letzter Zugriff: 05.01.2018

Easwara Moorthy, A./ Vu, K.-P. L. [2015]: „Privacy Concerns for Use of Voice Activated Personal Assistant in the Public

Space“, in: „International Journal of Human–Computer Interaction“, Vol. 31(4), S. 307-335

Ecke, O. [2016]: „Wie häufig und wofür werden Intermediäre genutzt? Die quantitative Perspektive der Zusatzbefra-

gung in der MedienGewichtungsStudie“, online: https://www.die-medienanstalten.de/fileadmin/user_up-

load/Veranstaltungen/2016/2016_11_30_Intermediaere_und_Meinungsbildung/TNS_Intermediaere_und_Mei-

nungsbildung_Praesi_Web_Mappe.pdf letzter Zugriff: 05.01.2018

Eddy, S. R. [1998]: „Profile hidden Markov models.", in: „Bioinformatics", England: Oxford, Vol. 14(9)

Eder, K. [2000]: „Zur Transformation nationalstaatlicher Öffentlichkeit in Europa. Von der Sprachgemeinschaft zur

issuespezifischen Kommunikationsgemeinschaft“, in: „Berliner Journal für Soziologie“, Vol. 10, S. 167-184

Ekin, A./ Tekalp, A./ Mehrotra, R. [2003]: “Automatic Soccer Video Analysis and Summarization”. in “IEEE Transactions

on Image Processing”, Vol. 12(7), S. 796-807, doi: 10.1109/TIP.2003.812758

eMarketer [2017]: „Alexa, Say What?! Voice-Enabled Speaker Usage to Grow Nearly 130% This Year", eMarketer Re-

search, online: https://www.emarketer.com/Article/Alexa-Say-What-Voice-Enabled-Speaker-Usage-Grow-

Nearly-130-This-Year/1015812 letzter Zugriff: 19.02.2018

EMR - Europäisches Institut für Medienrecht [2018]: Synopse zu den geplanten Änderungen landesrechtlicher Rege-

lungen zur Umsetzung des 21. RÄndStV und der DS-GVO. Ein Beitrag des Instituts für Europäisches Medienrecht

aus Anlass der aktuellen Gesetzgebungsverfahren in den Landesparlamenten. Saarbrücken. Unter: http://emr-

sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsvertrages-und-der-datenschutz-grundverord-

nung-der-eu/ , Letzter Zugriff: 16.04.2018

Entwickler.de [2009]: „Lucene – Ein Suchindex in der Praxis", online: https://entwickler.de/online/lucene-ein-suchin-

dex-in-der-praxis-129799.html letzter Zugriff: 18.01.2018

Erwin, T./ Heidlkamp, P./ Pols, A. [2016]: „Mit Daten Werte Schaffen 2016", KMPG/BITKOM Research Studie, S. 5

Eyal, N. [2014]: „Hooked: Wie Sie Produkte erschaffen, die süchtig machen“, München: Redline Verlag

Facebook [2015]: „Mehr Kontrolle über den News Feed“, online: https://de.newsroom.fb.com/news/2015/07/mehr-

kontrolle-uber-den-news-feed/ Letzter Zugriff: 05.01.2018

Facebook [2017a]: „Facebook bedankt sich bei 2 Milliarden monatlich aktiven Menschen“, online: https://de.news-

room.fb.com/news/2017/06/facebook-bedankt-sich-bei-2-milliarden-monatlich-aktiven-menschen/ Letzter Zu-

griff: 05.01.2018

Facebook [2017b]: „Umgang mit Falschmeldungen", Facebook newsroom, online: https://de.news-

room.fb.com/news/2017/01/umgang-mit-falschmeldungen/ letzter Zugriff: 20.02.2018

Fanta, A. [2017]: „Putting Europe’s Robots on the Map: Automated journalism in news agencies“, Reuters Institute

Fellowship Paper, Oxford, UK, online: http://reutersinstitute.politics.ox.ac.uk/our-research/putting-europes-

robots-mapautomated-journalism-news-agencies letzter Zugriff: 17.11.2017

Ferdinand, J.-P./ Jetzke, T. [2017]: „Voice Computing – allgegenwärtige Spracherkennung“, Büro für Technikfolgen-

Abschätzung beim Deutschen Bundestag, online: http://www.tab-beim-bundestag.de/de/pdf/publikatio-

nen/themenprofile/Themenkurzprofil-015.pdf letzter Zugriff: 09.11.2017

Ferrara, E./ Varol, O./ Davis, C./ Menczer, F./ Flammini, A. [2017]: „The rise of social bots“, in: „Communications of the

ACM“, Vol. 59 (7), S.96-104

Fiegermann, S. [2018]: „Facebook to shut down M, its personal assistant", CNN Money, online:

http://money.cnn.com/2018/01/08/technology/facebook-m-shuts-down/index.html letzter Zugriff: 23.01.2018

Page 125: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

122

Fingas, J. [2017]: „Apple's AI acquisition could help Siri make sense of your data“, online: https://en-

gadget.com/2017/05/13 letzter Zugriff: 17.11.2017

Finger, L. [2015]: „Do Evil - The Business Of Social Media Bots“, in: Forbes Magazine, online:

https://www.forbes.com/sites/lutzfinger/2015/02/17/do-evil-the-business-of-social-media-

bots/#77e65d19fb58 letzter Zugriff: 16.11.2017

Fitschen & Maaß Consulting [2017]: „Chatbots und Social bots", Report für die Developer Week, Neue Mediengesell-

schaft Ulm

Fletcher, R./ Nielsen, R. K. [2016]: „Is social media use associated with more or less diverse news use?“, Reuters Insti-

tute of Journalism, online: https://rasmuskleisnielsen.net/2016/11/25/is-social-media-use-associated-with-

more-or-less-diverse-news-use/ letzter Zugriff: 16.11.2017

Fluid.AI [2018], „All that works for you”, online: http://fluid.ai/index.php letzter Zugriff: 26.02.2018

Forelle, M./ Howard, P./ Monroy-Hernández, A./ Savage, S. [2015]: „Political Bots and the Manipulation of Public

Opinion in Venezuela“, in: „SSRN Electronic Journal“, online: https://pa-pers.ssrn.com/sol3/papers.cfm?ab-

stract_id=2635800 letzter Zugriff: 16.11.2017

Frank, B.H. [2017]: „Google Brain chief: Deep learning takes at least 100,000 examples", Venturebeat, online:

https://venturebeat.com/2017/10/23/google-brain-chief-says-100000-examples-is-enough-data-for-deep-

learning/ letzter Zugriff: 19.01.2018

Freedom House [2017]: „Freedom on the Net 2017 - Manipulating Social Media to Undermine Democracy", Freedom

House, online: https://freedomhouse.org/report/freedom-net/freedom-net-2017 letzter Zugriff: 20.02.2018

Fröhlich, C. [2016]: Empfehlung des Algorithmus. Netflix weiß, was ich gucken will? Von wegen! Online:

https://www.stern.de/digital/online/netflix--der-algorithmus-ist-einfach-nicht-clever-genug-7072324.html letz-

ter Zugriff: 05.01.2018

Fuchs, M. [2016]: „Roboter manipulieren den Wahlkampf“, MDR.de, online: http://www.mdr.de/nachrichten/poli-

tik/inland/social-bots-twitter-afd-spd-100.html letzter Zugriff: 16.11.2017

Fuchs, M. [2017]: „Bundestagswahl: Chatbots und Tinder sind die neuen Wahlhelfer“, online: https://www.nzz.ch/in-

ternational/chatbots-und-tinder-sind-die-neuen-wahlhelfer-ld.1317126 letzter Zugriff: 16.11.2017

Gada, M. [2017]: “Introducing Video Indexer, a cloud service to unlock insights from your videos”, online: https://az-

ure.microsoft.com/de-de/blog/introducing-video-indexer-a-cloud-service-to-unlock-insights-from-your-videos/

letzter Zugriff: 10.01.2018

Gagvani, N. [2008]: “Introduction to video analytics”, online: https://www.eetimes.com/docu-

ment.asp?doc_id=1273834 letzter Zugriff: 10.01.2018

Gales, M./ Young, S. [2008]: „The application of hidden Markov models in speech recognition", in: „Foundations and

trends in signal processing", Vol. 1(3)

Gartner [2015]: “Newsroom. Gartner Says 6.4 Billion Connected ,Things’ Will Be in Use in 2016, Up 30 Percent From

2015”, Online: https://www.gartner.com/newsroom/id/3165317 letzter Zugriff: 10.01.2018

Gartner [2016a]: „Gartner says Digital Assistants will serve as the primary interface to the Connected Home“, online:

https://www.gartner.com/newsroom/id/3352117 letzter Zugriff: 17.11.2017

Gartner [2016b]: „Gartner says by 2019, 20 percent of user interactions with smartphones will take place via VPAs“,

online: https://www.gartner.com/newsroom/id/3551217 letzter Zugriff: 17.11.2017

Gartner Inc. Customer 360 Summit [2011]: „CRM Strategies and Technologies to Understand, Grow and Manage Cus-

tomer Experiences“, Gartner Inc., online: https://www.gartner.com/imagesrv/summits/docs/na/customer-

360/C360_2011_brochure_FINAL.pdf letzter Zugriff: 20.02.2018

Geminn, Christian L. [2016]: „Das Smart Home als Herausforderung für das Datenschutz-recht“, in: „Datenschutz und

Datensicherheit“, Vol. 40(9), S. 575-580

Gerhards, J. [2002]: „Das Öffentlichkeitsdefizit der EU im Horizont normativer Öffentlichkeits-theorien“, in: Kaelble,

H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öffentlichkeiten und Identitäten im 20. Jahrhundert“,

Frankfurt/New York: Campus Verlag, S.135-158

GfK [2017]: „Three-quarters of US consumers have used voice commands to operate digital devices“, online:

http://www.gfk.com/en-us/insights/press-release/three-quarters-of-usconsumers-have-used-voice-commands-

to-operate-digital-devices-gfk/ letzter Zugriff: 17.11.2017

Page 126: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

123

Ghemawat, S./ Gobioff, H./ Leung, S.-T. [2003]: „The Google File System", Google Research Publication, in: 19th ACM

Symposium on Operating Systems Principles, online: https://static.googleusercontent.com/media/re-

search.google.com/de//archive/gfs-sosp2003.pdf letzter Zugriff: 18.01.2018

Ghulati, D. [2016]: „Introducing Factmata — Artificial intelligence for political fact-checking", Medium, online:

https://medium.com/factmata/introducing-factmata-artificial-intelligence-for-political-fact-checking-db8ac-

dbf4cf1 letzter Zugriff: 08.01.2018

Gillner, S. [2017]: „BVDW-Prognose. Anteil von Programmatic Advertising in Deutschland wächst auf 45 Prozent“, on-

line: https://www.internetworld.de/onlinemarketing/programmatic-advertising/anteil-programmatic-adverti-

sing-in-deutschland-waechst-45-prozent-1222832.html Letzter Zugriff: 05.01.2018

Goldberg, D./Nichols, D./Oki, B./Terry, D. [1992]: „Using collaborative filtering to weave an information tapestry”, in:

„Communications of the ACM”, Vol. 35(12) 35, S. 61-70, doi: 10.1145/138859.138867

Goldsborough, R. [2017]: „Understanding Facebook's News Feed”, in: „Teacher Librarian”, Vol. 44, S. 61

Gomez-Uribe, C./Hunt, N. [2016]: „The Netflix Recommender System: Algorithms, Business Value, and Innovation”, in:

„ACM Transactions on Management Information Systems”, Vol.6(4), S. 1-19, doi: 10.1145/2843948

Gondorf, L./ Bott, G. [2017]: „Kann diese Big-Data-Agentur Wahlen beeinflussen?“, online: https://www.marco-

nomy.de/live/articles/591772/ letzter Zugriff: 16.11.2017

Gonzalez, R. J. [2017]: „Hacking the citizenry? Personality profiling, „big data“ and the election of Donald Trump“, in:

„Anthropology Today“, Vol. 33(3)

Goode, L. [2016]: „Amazons smartphone flop was the best thing that happened to Alexa“, online: https://www.thev-

erge.com/2016/3/3/11157394/amazon-alexa-fire-phone-failure-echosuccess-smart-home letzter Zugriff:

17.11.2017

Goodfellow, I./ Bengio, Y./ Courville, A. [2016]: „Deep Learning“, MIT press, S. 327-339

Goodman, E. [2016]: „Editors vs. algorithms: Who do you want choosing your news?“, Reu-ters Institute of Journal-

ism, online: http://reutersinstitute.politics.ox.ac.uk/risj-review/editors-vs-algorithms-who-do-you-want-choos-

ing-your-news letzter Zugriff: 16.11.2017

Google DNI Innovation Fund [2017]: „DNI Fund Annual Report 2016/2017", Google DNI, online: https://digitalnewsi-

nitiative.com/dni-fund/innovation-fund-report-2016-2017/ letzter Zugriff: 17.11.2017

Google DNI Projects [2018]: „DNI Funded Projects“, Google DNI, online: https://digitalnewsinitiative.com/dni-pro-

jects/ letzter Zugriff: 17.11.2017

Google DNI 1 [2018]: „FAZ9”, Google DNI, online: https://digitalnewsinitiative.com/news/case-study-personalising-

mobile-news/ letzter Zugriff: 26.02.2018

Google DNI 2 [2018]: „Act2Acess”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/playwall-new-

way-pay-journalism-round-4/ letzter Zugriff: 26.02.2018

Google DNI 3 [2018]: „Journalism First”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/journal-

ism-first/ letzter Zugriff: 26.02.2018

Google Trends [2018]: „Vergleich des Suchvolumens nach Datenbankmanagementsystemen "MySQL", "Apache Ha-

doop", "MongoDB", "PostgreSQL", "Apache Hive", online: https://trends.google.de/trends/ex-

plore?q=%2Fm%2F04y3k,%2Fm%2F0fdjtq,MongoDB,%2Fm%2F05ynw,%2Fm%2F0g55vt5 letzter Zugriff:

18.01.2018

Graefe, A. [2016]: „Guide to Automated Journalism”. Columbia Journalism School. Tow Center for Digital Journalism,

online: https://academiccommons.columbia.edu/catalog/ac:s4mw6m907n letzter Zugriff: 10.01.2018

Graefe, A./ Haim, M./ Haarmann, B./ Brosius, H.-B. [2016]: „Readers´ perception of computergenerated news: Credi-

bility, expertise, and readability“, in: „Journalism“, SAGE, S. 1-16, online:

https://doi.org/10.1177/1464884916641269 letzter Zugriff: 17.11.2017

Graff, B. [2016]: „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“, online: http://www.sueddeut-

sche.de/digital/microsoft-programm-tay-rassistischer-chat-roboter-mit-falschen-werten-bombardiert-

1.2928421 letzter Zugriff: 16.11.2017

Grassegger, H./ Krogerus, M. [2016]: „Ich habe nur gezeigt, dass es die Bombe gibt“, in: Das Magazin, online:

https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ letzter Zugriff:

16.11.2017

Page 127: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

124

Guérin, E./ Digne, J./ Galin, E./ Peytavie, A./ Wolf, C./ Benes, B./ Martinez, B. [2017]: „Interactive Example-Based Ter-

rain Authoring with Conditional Generative Adversarial Networks”, in: „ACM Transactions on Graphics”, Vol. 36,

S. 1-13, doi: 10.1145/3130800.3130804

Guo, Y./Wang, M./Li, X. [2017]: „An Interactive Personalized Recommendation System Using the Hybrid Algorithm

Model”, in: „Symmetry”, Vol. 9(10), S. 1-17, doi: 10.3390/sym9100216

Gutierrez, D. [2016]: „The Games Industry’s Journey Into Deep-Data”, online: https://in-

sidebigdata.com/2016/11/18/the-games-industrys-journey-into-deep-data/ letzter Zugriff: 10.01.2018.

H2O.AI [2018], online: https://www.h2o.ai/ letzter Zugriff: 26.02.2018

Haack, W./ Severance, M./ Wallace, M./ Wohlwend, J. [2017]: „Security Analysis of the Amazon Echo“, online:

https://courses.csail.mit.edu/6.857/2017/project/8.pdf letzter Zugriff: 17.11.2017

Habermas, J. [1990]: „Strukturwandel der Öffentlichkeit“, Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft

Hahn, O./ Hohlfeld, R./ Knieper, T. [2015]: „Einführung: Digitale Öffentlichkeit – Digitale Öffentlichkeiten“, in: Hahn,

O./ Hohlfeld, R./ Knieper, T. (Hrsg.): „Digitale Öffentlichkeit(en)“, Köln: Herbert von Halem Verlag, S. 11-18

Haim, M./ Graefe, A. [2017]: „Automated News: Better than expected?“, in: „Digital Journalism“, Vol. 5(8), S. 1044-

1059

Haim, M./ Graefe, A./ Brosius, H.-B. [2017]: „Burst of the Filter Bubble? Effects of personalization on the diversity of

Google News“, in: „Digital Journalism“, S. 1-14

Halevy, A./ Norvig, P./ Pereira, F. [2009]: „The unreasonable effectiveness of data.", in: „IEEE Intelligent Systems", Vol.

24(2)

Handelsblatt (2018): „So informiert Facebook die Nutzer nach dem Datenskandal", Handelsblatt, online:

http://www.handelsblatt.com/unternehmen/it-medien/cambridge-analytica-so-informiert-facebook-die-nut-

zer-nach-dem-datenskandal/21160608.html letzter Zugriff: 13.04.2018

Hank, R./ Meck, G. (2016): „Roboter in der Wirtschaft: Millionen Jobs fallen weg", FAZ Online, online:

http://www.faz.net/aktuell/wirtschaft/weltwirtschaftsforum/roboter-in-der-wirtschaft-millionen-jobs-fallen-

weg-14018180.html letzter Zugriff: 12.02.2018

Hardt, M. [2014]: „How big data is unfair“, online: https://medium.com/@mrtz/how-big-data-is-unfair-9aa544d739de

letzter Zugriff: 16.11.2017

Hastie, T./ Tibshirani, R./ Friedman, J. (Hrsg.) [2009]: „Overview of supervised learning“, in: „The elements of statisti-

cal learning“, New York: Springer

Haufe Online Redaktion (2017): „Kritik am geplanten Datenschutzrecht reißt nicht ab", Haufe Online, online:

https://www.haufe.de/compliance/recht-politik/kritik-am-geplanten-neuen-datenschutzrecht-reisst-nicht-

ab_230132_397048.html letzter Zugriff: 13.04.2018

HDE [2018]: „Umsatz durch E-Commerce (B2C) in Deutschland in den Jahren 1999 bis 2016 sowie eine Prognose für

2017 (in Milliarden Euro)“, online: https://de.statista.com/statistik/daten/studie/3979/umfrage/e-commerce-

umsatz-in-deutschland-seit-1999/ letzter Zugriff: 05.01.2018

Hecht-Nielsen, R. [1988]: „Theory of the backpropagation neural network", in: „Neural Networks", Vol. 1 (Supple-

ment-1)

Hegelich, S. [2016]: „Social-Bots: Invasion der Meinungs-Roboter“, online: https://www.mebis.bayern.de/infopor-

tal/empfehlung/social-bots-invasion-der-mei-nungs-roboter/ letzter Zugriff: 16.11.2017

Hegelich, S./ Janetzko, D. [2016]: „Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian So-

cial Botnet“, in: „Proceedings of the Tenth International AAAI Conference on Web and Social Media (ICWSM

2016)“, S. 579-582

Heinrich-Böll-Stiftung [2017]: „Filter Bubble – Echokammer – Fake News“, online:

https://www.boell.de/de/2017/02/08/filter-bubbleechokammer-fake-news letzter Zugriff: 17.11.2017

Hempel, J. [2017]: „Eli Pariser predicted the Future. Now he can't escape It”, online:

https://www.wired.com/2017/05/eli-pariser-predicted-the-future-now-he-cant-escape-it/ letzter Zugriff:

05.01.2018

Herrman, J. [2016]: „As Online Video Surges, Publishers Turn to Automation”, online: https://www.ny-

times.com/2016/07/11/business/media/as-online-video-surges-publishers-turn-to-automation.html letzter

Zugriff: 10.01.2018

Page 128: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

125

Holland, M. [2014]: „Quakebot schreibt erste Meldung zum Erdbeben in Los Angeles“, online:

https://www.heise.de/newsticker/meldung/Quakebot-schreibt-erste-Meldung-zum-Erdbeben-in-Los-Angeles-

2149156.html letzter Zugriff: 10.01.2018

Holland, M. [2017]: „US-Wahlmanipulation: Werbeanzeigen russischer Trolle veröffentlicht", Heise Online, online:

https://www.heise.de/newsticker/meldung/US-Wahlmanipulation-Werbeanzeigen-russischer-Trolle-veroeffent-

licht-3877245.html?hg=1&hgi=10&hgf=false letzter Zugriff: 23.01.2018

Holtel, S. [2017]: „Künstliche Intelligenz verstehen als Automation des Entscheidens - Leitfaden", im Auftrag der BIT-

KOM, online: https://www.bitkom.org/noindex/Publikationen/2017/Leitfaden/Bitkom-Leitfaden-KI-verstehen-

als-Automation-des-Entscheidens-2-Mai-2017.pdf letzter Zugriff: 20.02.2018

Hoofd, I. [2015]: „Data Mining Research and the Disintegration of Society: The ‚Project X‘ Haren Riots“, in: Langlois, G.

(Hrsg.) / Redden, J./ Elmer, G.: „Compromised Data. From Social Media to Big Data“, New York: Bloomsbury Aca-

demic

Horn, D. [2016]: „So nutzt ihr Facebook ohne Algorithmus“, online: https://blog.wdr.de/digitalistan/facebook-ohne-

algorithmus/ letzter Zugriff: 05.01.2018

Howard, P. N./ Kollanyi, B. [2016]: „Bots, #Strongerin, and #Brexit: Computational Propagan-da During the UK-EU Ref-

erendum“, in: „SSRN Electronic Journal“, online: https://ssrn.com/ab-stract=2798311 letzter Zugriff: 16.11.2017

Hurtz, S. [2017]: „Auch AfD-Anhänger liken ‚Mainstream-Medien‘“, online: http://www.sueddeutsche.de/digital/face-

book-auch-afd-anhaenger-liken-mainstream-medien-1.3481913, zuletzt aktualisiert am 03.05.2017 letzter Zu-

griff: 16.11.2017

IAB Spain [2014]: „Programmatic Buying Ecosystems“, IAB, online: https://www.addiliate.com/real-time-bidding/ letz-

ter Zugriff: 06.02.2018

IDC [2012]: „Big Business dank Big Data? Neue Wege des Datenhandlings und der Datenanalyse in Deutschland 2012",

n=130, IDC Research, online: http://idc.de/de/ueber-idc/press-center/56528-idc-studie-big-data-in-deutsch-

land-2012-unternehmen-stehen-noch-ganz-am-anfang letzter Zugriff: 22.01.2018

IFRA World Publishing Expo/ DCX Digital Content Expo [2017]: „Medien & Automatisierung. Künstliche Intelligenz und

Roboterjournalismus erobern Content-Markt“, Pressemitteilung IFRA und DCX 2017, Nr. 10, Frankfurt am Main,

4. Oktober 2017, online: http://www.ifra-expo.com/fileadmin/user_upload/IFRA-DCX_2017_PM10_Pressemit-

teilung_KI.pdf letzter Zugriff: 10.01.2018

Inhoffen, L. [2017]: „Zweifel an digitalen Assistenten: Skeptiker überzeugen“, online: https://y-

ougov.de/news/2017/05/18/zweifel-digitalen-assistenten-skeptikeruberzeugen/ letzter Zugriff: 17.11.2017

Intel Peer Research [2012]: „Big Data Analytics - Intel’s IT Manager Survey on How Organizations Are Using Big Data“,

Intel IT Center Report, S. 5, online: https://www.intel.com/content/dam/www/public/us/en/documents/re-

ports/data-insights-peer-research-report.pdf, letzter Zugriff: 02.11.2017

iRights.Lab [2018]: „Startschuss für das Content Blockchain Project“, online: https://irights-lab.de/startschuss-fuer-

das-content-blockchain-project/ letzter Zugriff: 02.02.2017

Jacobsson Purewal, J. [2016]: „The difference between Google Now and Google Assistant“, online:

https://www.cnet.com/how-to/the-difference-between-google-now-and-google-assistant/ letzter Zugriff:

17.11.2017

Jaderberg, M./ Simonyan, K./ Vedaldi, A. /Zisserman, A. [2014]: „Synthetic Data and Artificial Neural Networks for

Natural Scene Text Recognition”, University of Oxford, online: arXiv:1406.2227v4 letzter Zugriff: 05.04.2018

Jannasch, S. [2016]: „Digitaler Journalismus. Sie sind jung und brauchen das Geld“, online: http://www.sueddeut-

sche.de/medien/digitaler-journalismus-sie-sind-jung-und-brauchen-das-geld-1.3213397 letzter Zugriff:

05.01.2018

Jarren, O. [1998]: „Medien, Mediensystem und politische Öffentlichkeit im Wandel“, in: Sarcinelli, U. (Hrsg.): „Politik-

vermittlung und Demokratie in der Mediengesellschaft“, Schriftenreihe der Bundeszentrale für politische Bil-

dung, Bonn, Vol. 352, VS Verlag für Sozialwissenschaften, S. 74-94

Johnsen, C./ Newett, E. [2015]: „From Idea to Execution: Spotify's Discover Weekly. Or: 5 Lessons In Building Recom-

mendations Products at Scale”, online: https://www.slideshare.net/MrChrisJohnson/from-idea-to-execution-

spotifys-discover-weekly/1 letzter Zugriff: 10.01.2018

Johnson, D. W. [2016]: „Campaigning in the Twenty-First Century. Activism, Big Data, and Dark Money“ New York:

Routledge

Page 129: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

126

Jung, J./ Niemeyer, S. [2017]: „Künstliche Intelligenz im Tourismus“, online: http://labor.neusta-etourism.de/ebook/e-

book-chatbots-neusta.pdf (S. 3-51), letzter Zugriff: 16.11.2017

Jung, J./ Song, H./ Kim, Y./ Im, H./ Oh, S. [2017]: „Intrusion of software robots into journalism: The public's and jour-

nalists' perceptions of news written by algorithms and human journalists“, in: „Computers in Human Behavior“,

Vol. 71, S. 291-298

Jungherr, A. [2017]: „Datengestützte Verfahren im Wahlkampf“, online: https://www.researchgate.net/publica-

tion/314260837_Datengestutzte_Verfahren_im_Wahlkampf letzter Zugriff: 16.11.2017

Jüngling, T. [2013a]: „Der Siegeszug von Big Data", Die WELT, online: https://www.welt.de/print/die_welt/wirt-

schaft/article114129164/Der-Siegeszug-von-Big-Data.html letzter Zugriff: 22.01.2018

Jüngling, T. [2013b]: „Was Datenbroker alles über uns wissen", Die WELT, online: https://www.welt.de/wirt-

schaft/webwelt/article117098272/Was-die-Datenbroker-alles-ueber-uns-wissen.html letzter Zugriff: 26.02.2018

Jüngling, T. [2015]: „Die unheimliche Manipulation durch Robot-Herden“, Die WELT, online:

https://www.welt.de/wirtschaft/webwelt/article149665357/Die-unheimliche-Manipulation-durch-Robot-Her-

den.html letzter Zugriff: 16.11.2017

Jürgens, P./ Jungherr, A. [2011]: „Wahlkampf vom Sofa aus: Twitter im Bundestagswahl-kampf 2009“, in: Schweitzer,

E. J./ Albrecht, S. (Hrsg.): „Das Internet im Wahlkampf. Analysen zur Bundestagswahl 2009“, Wiesbaden: VS Ver-

lag, S. 201-225

Jürgens, P./ Jungherr, A. [2015]: „The Use of Twitter during the 2009 German National Election“, in: „German Poli-

tics“, Vol. 24(4), S. 469-490, online: http://dx.doi.org/10.1080/09644008.2015.1116522 letzter Zugriff:

16.11.2017

Jürgens, P./ Jungherr, A./ Schoen, H. [2011]: „Small Worlds with a Difference: New Gatekeepers and the Filtering of

Political Information on Twitter“, in: „Proceedings of the 3rd International Web Science Conference“, S. 1-5

Just, N./ Latzer, M. [2016]: „Governance by algorithms. Reality construction by algorithmic se-lection on the Internet“,

in: „Media, Culture & Society“, Vol. 39 (2), S. 238-258, online: DOI: 10.1177/0163443716643157 letzter Zugriff:

16.11.2017

Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. [2002]: „Zur Entwicklung transnationaler Öffentlichkeiten und Identitäten

im 20. Jahrhundert. Eine Einleitung“, in: Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öf-

fentlichkeiten und Identitäten im 20. Jahrhundert“, Frankfurt/New York: Campus Verlag, S. 7-33

Kafsack, H. (2015): „Neue EU-Datenschutzregeln - Im Tausch gegen Daten", Frankfurter Allgemeine Zeitung, online:

http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-taugt-die-eu-datenschutz-verordnung-

13972055.html letzter Zugriff: 13.04.2018

Kaggle [2018]: „Kaggle Datasets", Kaggle.com, online: https://www.kaggle.com/datasets letzter Zugriff: 27.02.2018

Kay, M./ Matuszek, C./ Munson, S. [2015]: „Who's a CEO? Google image results can shift gender biases“, University of

Washington, online: https://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php letzter Zugriff:

16.11.2017

Käfer, A. (2017): „Kritik an neuer EU-Norm - Datenschutz wird europaweit verschärft", Stuttgarter Zeitung, online:

https://www.stuttgarter-zeitung.de/inhalt.kritik-an-neuer-eu-norm-datenschutz-wird-europaweit-ver-

schaerft.c1e267a2-7214-4406-8811-3ed40a2f002b.html letzter Zugriff: 13.04.2018

Keegan, J. [2016]: „Blue Feed, Red Feed - See Liberal Facebook and Conservative Facebook, Side by Side", Wall Street

Journal Analyse, online: http://graphics.wsj.com/blue-feed-red-feed/#methodology letzter Zugriff: 08.01.2018,

nach: Bakshy, E./ Messing, S./ Adamic, L. [2015]: „Replication Data for: Exposure to Ideologically Diverse News

and Opinion on Facebook”, http://dx.doi.org/10.7910/DVN/LDJ7MS, Harvard Dataverse, V2

Keller, G./ Schlieter, K. [2017]: „Microtargeting im Bundestagswahlkampf. Nah am Wähler und anfällig für Manipula-

tion“, online: http://www.berliner-zeitung.de/28137412 letzter Zugriff: 16.11.2017

Keyling, T. [2017]: „Kollektives Gatekeeping. Die Herstellung von Publizität in Social Media“, Wiesbaden: Springer VS

Kiefer, K. L. [1998]: „Die ökonomischen Zwangsjacken der Kultur. Wirtschaftliche Bedingungen der Kulturproduktion

und -distribution durch Massenmedien“, in: Saxer, U. (Hrsg.): „Medien-Kulturkommunikation“, Publizistik Son-

derheft 2, Opladen/Wiesbaden: Westdeutscher Verlag, S. 97-114

Kind, S./ Bovenschulte, M./ Ehrenberg-Silies, S./ Jetzke, T./ Weide, S. [2017]: „Social Bots“, TAB, online:

https://www.tab-beim-bundestag.de/de/aktuelles/20161219/Social%20Bots_Thesenpapier.pdf letzter Zugriff:

16.11.2017

Page 130: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

127

Kinsella, B. [2017]: „There are Now 20,000 Amazon Alexa Skills in the U.S.", VoiceBot.ai, online: https://www.voice-

bot.ai/2017/09/03/now-20000-amazon-alexa-skills-u-s/ letzter Zugriff: 26.02.2018

Klotz, A. [2017]: „Wie Sprachassistenten das Einkaufen verändern“, in: „Digital Publishing Report“, Vol. 8, S. 12-16,

online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter Zugriff: 17.11.2017

Kocks, J.N. [2016]: „Political Media Relations Online as an Elite Phenomenon“, Wiesbaden: Springer VS

Kohler, D./ Jurafsky, D. (Machine Learning TV) [20.01.2017]: „Template Models: Hidden Markov Models – Stanford

University", YouTube, Zeit: 05:52-06:52, online: https://www.youtube.com/watch?v=mNSQ-prhgsw, letzter Zu-

griff: 11.01.2018

Köhler, E. [2017]: „Siri, Cortana, Alexa: Warum sind Sprachassistenten Frauen?“, online: http://www.n-joy.de/Siri-

Cortana-Alexa-Warum-Sprachassistenten-Frauen-sind,sprachassistenten100.html letzter Zugriff: 17.11.2017

Kollanyi, B./ Howard, P./ Woolley, S. C. [2016]: „Bots and Automation over Twitter during the U.S. Election (COMPROP

DATA MEMO No. 2016/4)“, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2016/11/Data-

Memo-US-Election.pdf letzter Zugriff: 16.11.2017

Kollmann, T. [2015]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/personali-

sierung.html letzter Zugriff: 10.11.2017

Kollmann, T. [2017a]: „Definition – Collaborative Filtering“, online: http://wirtschaftslexikon.gabler.de/Definition/col-

laborative-filtering.html letzter Zugriff: 17.11.2017

Kollmann, T. [2017b]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/persona-

lisierung.html letzter Zugriff: 17.11.2017

Kraft, T./Gamer, M./Laessing, M./Zweig K. [2017]: „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-

Suchen zur Bundestagswahl 2017“, online: https://www.die-medienanstalten.de/fileadmin/user_up-

load/die_medienanstalten/Service/Pressemitteilungen/Anlage_PM_15-2017_Forschungsprojekt_Daten-

spende_Zwischenbericht.pdf letzter Zugriff: 05.01.2018

Kramer, A./Guillory, J./Hancock, J. [2014]: „Experimental evidence of massive-scale emotional contagion through so-

cial networks”, in: „Proceedings of the National Academy of Sciences of the United States of America”, Vol. 111

(24), S. 8788-8790, doi: 10.1073/pnas.1412583111

Kramliczek, P. [2017]: „Parteien und fragwürdige Follower“; online: http://www.br.de/nachrichten/faktencheck/twit-

ter-wahlkampf-analyse-der-parteien-100.html letzter Zugriff: 16.11.2017

Kreil, M. [2017]: „ Social Bots, Fake News und Filterblasen”. Chaos Communication Congress (CCC), Leipzig, online:

https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen#t=101 letzter Zugriff: 05.01.2018.

Krempl, S. (2017): „'Missing Link': Manipulation, Meinungsfreiheit und Propaganda bei Facebook & Co.", Heise Online,

online: https://www.heise.de/newsticker/meldung/Missing-Link-Manipulation-Meinungsfreiheit-und-Propa-

ganda-bei-Facebook-Co-3861634.html letzter Zugriff: 12.02.2018

Królikowski, A./ Loebel, J.-M. [2017]: „Fake-News – Können Algorithmen Menschen manipulieren?“, in: „Informatik

Spektrum“, Vol. 40 (4), S. 367-370, online: DOI: 10.1007/s00287-017-1060-3 letzter Zugriff: 16.11.2017

Künzler, M. [2013]: „Mediensystem Schweiz“, Konstanz: UVK

Künzler, M. [2016]: „Befreien Digitalisierung und Automatisierung den Journalismus aus der Zwangsjacke der Kultu-

rökonomie?“, in: Jarren, O./ Steininger, C. (Hrsg.): „Journalismus jenseits von Markt und Staat“, Baden-Baden:

Nomos Verlagsgesellschaft mbH & Co. KG, S. 219-226

Lanz, M. [2017]: „Algorithmen produzieren wertlose Bits & Bytes“, online: https://www.wuv.de/digital/algorith-

men_produzieren_wertlose_bits_bytes letzter Zugriff: 10.01.2018

Lapides, P./ Chokshi, A./ Carpendale, S./ Greenberg, S. [2015]: „News Feed: What's in it for Me?“, in: „Proceedings of

the 33rd Annual ACM Conference on Human Factors in Computing Systems“, New York: ACM, S. 163-172

Latzer, M./ Hollnbuchner, K./ Just, N./ Saurwein, F. [2014]: „The economics of algorithmic Se-lection on the Internet“,

in: Bauer, J. M./ Latzer, M. (Hrsg.): „Handbook on the Economics of the Internet“, Cheltenham: Edward Elgar

Publishing, S. 395-425

Lauerer, C./ Steindl, N./ Hanitzsch, T./ Dingerkus, F./ Wyss, V./ Lohmann, M. I./ Seethaler, J. [2017]: „Alarmierende

Verhältnisse oder viel Lärm um Nichts? Ökonomischer Druck auf Journalisten in Medienunternehmen in

Deutschland, Österreich und der Schweiz“, in: Filipovic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Dis-

kurs?“, Baden-Baden: Nomos Verlagsgesellschaft mbH & Co. KG, S. 199-218

Page 131: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

128

Lazcorreta, E./Botella, F./Fernández-Caballero, A. [2008]: „Towards personalized recommendation by two-step modi-

fied Apriori data mining algorithm”, in: „Expert Systems with Applications”, Vol. 35, S. 1422-1429, doi:

10.1016/j.eswa.2007.08.048

Lecompte, C. [2015]: „Automation in the Newsroom. How algorithms are helping reporters expand coverage, engage

audiences, and respond to breaking news. “, in: „Nieman Reports“, S. 32-45, online: http://niemanre-

ports.org/articles/automation-in-the-newsroom/ letzter Zugriff: 16.11.2017

LeCun, Y./ Bengio, Y./ Hinton, G. [2015]: „Deep Learning", in: „Nature", Vol. 521(7553)

Lederer, R. [2017]: „Sprachassistenten und Datenschutz. Sprachassistenten – Techniklust oder Datenschutzfrust?“

online: https://www.dsinblog.de/2017/06/21/sprachassistenten-techniklust-oder-datenschutzfrust/ letzter Zu-

griff: 17.11.2017

Lee, P. [2016]: „Learning from Tay’s introduction", Official Microsoft Blog Beitrag von Peter Lee, Corporate Vice Presi-

dent, Micsoroft AI & Research, online: https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduc-

tion/ letzter Zugriff: 23.01.2018 über: Novet, J. (2016): „Microsoft exec apologizes for Tay chatbot’s racist

tweets, says users ‘exploited a vulnerability’", Venture Beat, online: https://venturebeat.com/2016/03/25/mi-

crosoft-exec-apologizes-for-tay-chatbots-racist-tweets-says-users-exploited-a-vulnerability/ letzter Zugriff:

23.01.2018

Leitner, M. [2017]: „Wenn Roboter Journalismus machen“, online: https://futurezone.at/digital-life/wenn-roboter-

journalismus-machen/271.239.810 letzter Zugriff: 10.01.2018

Lenz, J. [2017]: „Chatbots sind besser als ihr Ruf“, online: https://www.wuv.de/digital/chatbots_sind_bes-

ser_als_ihr_ruf letzter Zugriff: 16.11.2017

Lenzen, M [2018]: „,Angriff der Algorithmen': Mitgefangen, mitgehangen", Frankfurter Allgemeine Zeitung, online:

http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/lesenswert-angriff-der-algorithmen-von-

cathy-o-neil-15375371.html letzter Zugriff: 20.02.2018

Les Décodeurs [2018]: „Décodex“, Le Monde, online: http://www.lemonde.fr/verification/ letzter Zugriff: 08.01.2018

Levine, Y. [2013]: „What Surveillance Valley knows about you“, Pando, online: https://pando.com/2013/12/22/a-

peek-into-surveillance-valley/ letzter Zugriff: 27.02.2018

Lewin, K. [1947]: „Frontiers in Group Dynamics. II. Channels of Group Life; Social Planning and Action Research“, in:

„Human Relations“, Vol. 1 (2), S. 143-153, online: DOI: 10.1177/0018726747 letzter Zugriff: 16.11.2017

Li, F.-F. [2017]: „Announcing Google Cloud Video Intelligence API, and more Cloud Machine Learning updates”, online:

https://cloud.google.com/blog/big-data/2017/03/announcing-google-cloud-video-intelligence-api-and-more-

cloud-machine-learning-updates letzter Zugriff: 10.01.2018

Liang, T. P./ Lai, H. J./ Ku, Y. C. [2006]: „Personalized content recommendation and user satisfaction: Theoretical syn-

thesis and empirical findings“, in: „Journal of Management In-formation Systems“, Vol. 23(3), S. 45-70

Liddy, E. D. [2001]: „Natural Language Processing“, in: „Encyclopedia of Library and Information Science“, 2nd Ed. NY.

Marcel Decker

Lilienthal, V./ Weichert, S./ Reineck, D./ Sehl, A./ Worm, S. [2015]: „Digitaler Journalismus: Dynamisierung, Technisie-

rung, Dialogisierung“, in: „Media Perspektiven”. S. 30-40

Linden, C. G. [2017]: „Decades of Automation in the Newsroom: Why are there still so many jobs in journalism?“, in:

„Digital Journalism“, Vol. 5(2), S. 123-140

Linden, G./Smith, B./York, J. [2003]: „Amazon.com Recommendations. Item-to-Item Collaborative Filtering”, in: „IEEE

Internet Computing”, Vol. 7(1), S. 76-80, doi: 10.1109/MIC.2003.1167344

Linkurious [2018a]: „Find hidden Insights In Your Data”, online: https://linkurio.us/ letzter Zugriff: 10.01.2018

Linkurious [2018b]: „Visualize and Explore Your Data In Minutes. Find Hidden Insights In your Graph data”, online:

https://linkurio.us/product/ letzter Zugriff: 10.01.2018

LiquidNewsroom.ai [2017]: „LNR Concept Mapper now funded by Google DNI”, LiquidNewsroom.ai, online:

https://liquidnewsroom.com/topic/ai-in-journalism, letzter Zugriff: 08.01.2018

Liquid Notes [2018]: „Liquid Notes. Music Intelligence“, online: http://www.re-compose.de/liquid-notes-music-soft-

ware.html letzter Zugriff: 10.01.2018

Page 132: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

129

Lischka, K./ Stöcker, C. [2017]: „Digitale Öffentlichkeit - Wie algorithmische Prozesse den gesellschaftlichen Diskurs

beeinflussen", Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stif-

tung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf letzter Zugriff:

20.02.2018

Lischka, K./Klingel, A. [2017]: „Wenn Maschinen Menschen bewerten. Internationale Fallbeispiele für Prozesse algo-

rithmischer Entscheidungsfindung“. Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: http://www.ber-

telsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf letzter Zu-

griff: 05.01.2018

Litzel, N. [2017]: „Was ist MapReduce?", Big Data Insider, online: https://www.bigdata-insider.de/was-ist-mapreduce-

a-624936/ letzter Zugriff: 17.01.2018

Lobe, A. [2017]: „Prosa als Programm“, online: http://www.faz.net/aktuell/feuilleton/medien/roboterjournalismus-

prosa-alsprogramm-14873449.html letzter Zugriff: 17.11.2017

Lobigs, F. [2016]: „Finanzierung des Journalismus – von langsamen und schnellen Disruptionen“, in: Meier, K./ Neu-

berger, C. (Hrsg.): „Journalismusforschung. Stand und Perspektiven“, 2.Auflage, Baden-Baden: Nomos Verlags-

gesellschaft mbH & Co. KG, S. 69-138

Los Angeles Times - The Homicide Report [2018a]: „A Story for every Victim”, online: http://homicide.latimes.com/

letzter Zugriff: 10.01.2018

Lucas, L. [2018]: „China takes the crown in AI funding", Financial Times, online: https://www.ft.com/con-

tent/1f58b248-1642-11e8-9376-4a6390addb44 letzter Zugriff: 23.02.2017

Luger, E./ Sellen, A. [2016]: „,Like Having a Really bad PA‘: The Gulf between User Expectation and Experience of Con-

versational Agents“, in: „Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems“, S.

5286-5297

Lusk, C. [28.02.2016]: „Now to personalize the flow of information“, online: http://projects.nyujournalism.org/new-

sliteracy2016/topics/personalization/ letzter Zugriff: 17.11.2017

Maas, H. [2015]: „Internet-Charta. Unsere digitalen Grundrechte“, online: http://www.zeit.de/2015/50/internet-

charta-grundrechte-datensicherheit letzter Zugriff: 05.01.2018

Mack, H. [2016]: „Melody Chatbot“, online: http://www.mobihealthnews.com/tag/melody-chatbot letzter Zugriff:

16.11.2017

Mahnke, M. [2015]: „Der Algorithmus, bei dem man mit muss? Ein Perspektivwechsel“, in: „Communicatio Socialis“,

Vol. 48(1), S. 34-45

Maireder, A./ Weeks, B. E./ Zúniga, H. G. de/ Schlögl, S. [2017]: „Big Data and Political Social Networks: Introducing

Audience Diversity and Communication Connector Bridging Measures in Social Network Theory“, in: „Social Sci-

ence Computer Review“, Vol. 35 (1), S. 126-141, online: DOI: 10.1177/0894439315617262 letzter Zugriff:

16.11.2017

Mallat, N. / Virpi, K. T./ Wittkowski, K. [2017]: „Voice Activated Personal Assistants – Consumer Use Contexts and Us-

age Behavior“, online: https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1548&context=amcis2017 letzter

Zugriff: 17.11.2017

Manning, C. D./ Schütze, H. [2000]: „Foundations of Statistical Natural Language Processing", Cambridge Massachu-

setts: MIT Press

Marchick, A. [2017]: „The 2017 Voice Report - Executive Summary“, online: http://voicelabs.co/2017/01/15/the-2017-

voice-report/ letzter Zugriff: 09.11.2017

Marcinkowski, F. [1993]: „Publizistik als autopoietisches System: Politik und Massenmedien. Eine systemtheoretische

Analyse“, Opladen: Westdeutscher Verlag

Margolis, M./ Resnick, D. [2000]: „Politics as Usual: The Cyberspace ‚Revolution‘“, SAGE

Marketing und Kommunikation [2017]: „Marktumfrage - Die größten Vorteile und Probleme von Chatbots im Marke-

ting“, online: https://www.m-k.ch/chatbots-im-marketing-chancen-und-probleme/ letzter Zugriff: 16.11.2017

Markoff, J. [2016]: „Automated Pro-Trump Bots Overwhelmed Pro-Clinton Messages, Reseachers Say“, online:

https://www.nytimes.com/2016/11/18/technology/automated-pro-trump-bots-overwhelmed-pro-clinton-mes-

sages-researchers-say.html letzter Zugriff: 16.11.2017

Markwall, N. [2017]: „Alexa, ich möchte eine Puppenstube“, online: https://www.tagesschau.de/schlusslicht/alexa-

puppenhaus-101.html letzter Zugriff: 17.11.2017

Page 133: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

130

Matthews, K. [2017]: „15 Tools You Can Use to Beta Test Your Chatbot“, online: https://chatbotsmagazine.com/15-

tools-you-can-use-to-beta-test-your-chatbot-5a0723c7f4b2 letzter Zugriff: 16.11.2017

Matzat, L. [2011]: „Datenjournalismus. Bundeszentrale für politische Bildung“, online: http://www.bpb.de/gesell-

schaft/medien/opendata/64069/datenjournalismus?p=all letzter Zugriff: 17.11.2017

Mayer, A. [2013]: „Digital first. Und dann...? Die zentralen Herausforderungen für Deutschlands Medienhäuser“, in:

Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): CJournalismus in der digitalen Moderne“, Wiesbaden:

Springer VS, S.141-146

Mayer-Schönberger, V./ Mayer-Schönberger, C. [2013]: „Big Data: die Revolution, die unser Leben verändern wird",

Redline Wirtschaft

McChesney, R. W./ Nichols, J. [2010]: „The Death and Life of American Journalism. The Media Revolution That Will

Begin the World Again“, Philadelphia: Nation Books

McDonald, K. [2017]: „Neural Nets for Generating Music”, Medium, online: https://medium.com/artists-and-machine-

intelligence/neural-nets-for-generating-music-f46dffac21c0 letzter Zugriff: 26.02.2018

McKelvey, F./ Dubois, E. [2017]: „Computational Propaganda in Canada: The Use of Political Bots“, in: Woolley, S./

Howard, P. N. (Hrsg.) „UK: Project on Computational Propaganda“, Working Paper No. 2017.6, Oxford, UK: S. 1-

32, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Comprop-Canada.pdf letzter

Zugriff: 16.11.2017

McKinsey & Company Inc. [2017]: „Smartening up with Artificial Intelligence (AI) - What’s in it for Germany and its

Industrial Sector?", McKinsey.de, online: https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf, letz-

ter Zugriff: 27.02.2018

Meibauer, J. [2007]: „Einführung in die germanistische Linguistik", 2. Aufl.

Meier, A. W./ Jarren, O. [2001]: „Ökonomisierung und Kommerzialisierung von Medien und Mediensystem. Einlei-

tende Bemerkungen zu einer (notwendigen) Debatte“, in: „M&K Medien & Kommunikationswissenschaft“, Vol.

49(2), S. 145-158

Meier, C. [2017]: „Knackt künstliche Intelligenz die Magie der Sprache?“ Online: https://www.welt.de/kultur/ar-

ticle164449418/Knackt-kuenstliche-Intelligenz-die-Magie-der-Sprache.html letzter Zugriff: 10.01.2018

Meineck, S. [2017]: „Twitter-Datenanalyse. ,Wir hatten eine falsche Vorstellung von der Filterblase‘“, online:

http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filter-

blase-a-1185406.html letzter Zugriff: 05.01.2018

Mendez, R. C. [2017]: „Digitale Sprachassistenten. Amazon Echo – Das nächste heiße ‚Markeding‘ im Marketing?“, in:

„Digital Publishing Report“, Vol. 8, online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter

Zugriff: 09.11.2017

Messias, J./ Schmidt, L./ Oliveira, R./ Benevenuto, F. [2013]: „You followed my bot! Transfor-ming robots into influen-

tial users in Twitter“, in: „First Monday“, Vol. 18 (7), from http://firstmonday.org/ojs/index.php/fm/arti-

cle/view/4217/3700 letzter Zugriff: 16.11.2017

Metaxas, P. T./ Mustafaraj, E. [2012]: „Science and society. Social media and the elections“, in: „Science Magazine“,

New York, N.Y., 338(6106), S. 472-473

Metaxas, P. T./ Mustafaraj, E./ Gayo-Avello, D. [2011]: „How (Not) to Predict Elections“, in: „In Proceedings of the

2011 IEEE Third International Conference on Privacy, Security, Risk and Trust (PASSAT) and the 2011 IEEE Third

International Conference on Social Computing (Social-Com)“, S. 165-171

Mezzofiore, G [2017]: „,South Park' is triggering people's Amazon Alexas and it's seriously NSFW“, online:

http://mashable.com/2017/09/14/south-park-alexa-googlehome-nsfw-cartman/#HTNJK3rsmiq7 letzter Zugriff:

17.11.2017

microm Micromarketing-Systeme und Consult GmbH [2015]: „microm Datenhanbuch 2015“, online:

http://www.microm-online.de/fileadmin/me- dia/document/Handbuch_Daten_2015_DE.pdf letzter Zugriff:

27.02.2018

Microsoft [2017], http://www.msxiaoice.com/ über: Locker, T. (2015): "Mit diesem herzlosen Chatbot trösten Millio-

nen Chinesen ihren Liebeskummer", Motherboard, online: https://motherboard.vice.com/de/article/jpgzny/die-

ser-chatbot-troestet-millionen-chinesen-ueber-gebrochene-herzen-hinweg-123, letzter Zugriff: 23.01.2018

Page 134: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

131

Microsoft News Center [2013]: „The Big Bang: How the Big Data Explosion Is Changing the World“, online:

https://news.microsoft.com/2013/02/11/the-big-bang-how-the-big-data-explosion-is-changing-the-world/ letz-

ter Zugriff: 17.11.2017

Mielke, K. [2016]: „Conversational Interfaces: Where Are We Today? Where Are We Heading?“, online:

https://www.smashingmagazine.com/2016/07/conversationalinterfaces-where-are-we-today-where-are-we-

heading/ letzter Zugriff: 17.11.2017

Mikolov, T./ Chen, K./ Corrado, G./ Dean, J. [2013]: „Efficient estimation of word representations in vector space",

online: arXiv preprint arXiv:1301.3781 letzter Zugriff: 12.01.2018

Mikolov, T./ Kopecky, J./ Burget, l./ Glembek, O./ Cernocky, J. [2009]: „Neural network based language models for

higly inflective languages", in: „Proc. ICASSP 2009"

Milanesi, C. [2016]: „Voice Assistant Anyone? Yes please, but not in public!“, online: http://creativestrate-

gies.com/voice-assistant-anyone-yes-please-but-not-inpublic/ letzter Zugriff: 17.11.2017

Mitsuku Bot [2018]: „Homepage des Mitsuku-Bots", online: http://www.mitsuku.com/ letzter Zugriff: 26.02.2017

Moore, S. [2016]: „How to choose a Data Broker”, Gartner Research Inc., online: https://www.gartner.com/smarter-

withgartner/how-to-choose-a-data-broker/ letzter Zugriff: 27.02.2018

Morisy, M. [2016]: „How PayPal Boosts Security with Artificial Intelligence", MIT Technology Review, online:

https://www.technologyreview.com/s/545631/how-paypal-boosts-security-with-artificial-intelligence/ letzter

Zugriff: 26.02.2018

Morozov, E. [2013]: „Smarte neue Welt: Digitale Technik und die Freiheit des Menschen“, München: Blessing Verlag -

Verlagsgruppe Random House

Moscovici, S./Zavalloni, M. [1969]: „The Group as a Polarizer of Attitudes”, in: „Journal of Personality and Social Psy-

chology”, Vol. 12(2), S. 125-135

Moyhinan, T. [2016]: „Alexa and Google Home record what you say. But what happens to that Data?“, online:

https://www.wired.com/2016/12/alexa-and-google-record-your-voice/ letzter Zugriff: 17.11.2017

Müller-Wirth, M./ Wefing, H. [2016]: „Journalismus: Ich“, online: http://www.zeit.de/2016/46/journalismus-face-

book-twitter-silicon-valleydemokratie-politik letzter Zugriff: 17.11.2017

Munster, Gene [2017]: „Homepod Uniquely Positioned to Win Smart Speaker“, online: http://loupven-

tures.com/homepod-uniquely-positioned-to-win-smart-speaker-market/ letzter Zugriff: 17.11.2017

Mustafaraj, E./ Finn, S./ Whitlock, C./ Metaxas, P. T. [2011]: „Vocal Minority Versus Silent Majority: Discovering the

Opionions of the Long Tail“, in: „Proceedings of the 2011 IEEE Third International Conference on Social Compu-

ting (SocialCom)“, S. 103-110

Najjar, Y. M./ Basheer, I. A/, Hajmeer, M. N. [1997]: „Computational neural networks for predictive microbiology: I.

Methodology", in: "International Journal of Food Microbiology", Vol. 34(1)

Neewitz, A. [2016]: „Movie written by algorithm turns out to be hilarious and intense”, online: https://arstech-

nica.com/gaming/2016/06/an-ai-wrote-this-movie-and-its-strangely-moving/ letzter Zugriff: 10.01.2018

Neidhardt, F. [1994]: „Öffentlichkeit, öffentliche Meinung, soziale Bewegungen“, in: Neid-hardt, F. (Hrsg.): „Öffentlich-

keit, öffentliche Meinung, soziale Bewegungen Sonderheft 34 der Kölner Zeitschrift für Soziologie und Sozialpsy-

chologie“, Opladen: Westdeutscher Verlag, S. 7-41

Neo4j [2018]: „Introducing the Neo4j Graph Platform. The #1 Platform for Connected Data”, online:

https://neo4j.com/ letzter Zugriff: 10.01.2018

Netflix [2009]: „Netflix Prize“, online: https://www.netflixprize.com/ letzter Zugriff: 05.01.2018

Neuhaus, C. [2012]: „So funktioniert das Geschäft mit den Daten“, Tagesspiegel Online, online: https://www.tages-

spiegel.de/politik/adresshandel-so-funktioniert-das-geschaeft-mit-den-daten/6857990.html letzter Zugriff:

27.02.2018

New York Times [2015]: „Quiz. Did a Human or a Computer Write This?” Online: https://www.nytimes.com/interac-

tive/2015/03/08/opinion/sunday/algorithm-human-quiz.html?_r=0 letzter Zugriff: 10.01.2018

Newman, N./ Fletcher, R./ Levy, D. A. L./ Nielsen, R. K. [2016]: „Reuters Institute Digital News Report 2016“, Reuters

Institute for the Study of Journalism, online: from http://reutersinstitute.poli-tics.ox.ac.uk/sites/default/files/re-

search/files/Digital%2520News%2520Report%25202016.pdf letzter Zugriff: 16.11.2017

Page 135: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

132

Newman, P. [2017]: „Amazon announces new Echo devices for the whole home", Business Insider Deutschland,

online: http://www.businessinsider.de/amazon-echo-devices-for-the-whole-home-2017-9 letzter Zugriff:

19.02.2018

Norkon Computing Systems [2018]: „Live Center. Show your readers that your coverage is truly live”, online:

https://www.norkon.net/LiveCenter letzter Zugriff: 10.01.2018

Novy, L. [2013]: „Vorwärts (n)immer? Normalität, Normativität und die Krise des Journalismus“, in: Kramp, L./ Novy,

L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 17-

32

Nuix [2018]: „Software that Knows Data”, online: https://www.nuix.com/ letzter Zugriff: 10.01.2018

Oberndorfer, E. [2017]: „Deep-Learning-Startup: Microsoft kauft Maluuba samt KI-Pionier Yoshua Bengio“, online:

http://t3n.de/news/deep-learning-maluuba-microsoft-785696/ letzter Zugriff: 17.11.2017

Oertel, B. [2017]: „Algorithmen in digitalen Medien und ihr Einfluss auf die Meinungsbildung“. TAB-Brief Nr. 48, S. 13,

online: https://www.tab-beim-bundestag.de/de/pdf/publikationen/tab-brief/TAB-Brief-048.pdf letzter Zugriff:

05.01.2018

Olewitz, C. [2016]: „A Japanese AI program just wrote a short novel, and it almost won a literary prize”, online:

https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize/

letzter Zugriff: 10.01.2018

OpenAI [2018]: „About OpenAI“, online: https://openai.com/about letzter Zugriff: 26.02.2018

Oracle Data Cloud [2018]: „Oracle Data as a Service(DaaS)-Lösungen", Oracle.com, online: https://www.ora-

cle.com/de/applications/customer-experience/data-cloud/solutions/data-as-a-service/index.html letzter

Zugriff: 26.02.2018

Orlowski, A. [2017]: „Facebook scales back AI flagship after chatbots hit 70% f-AI-lure rate", The Register, online:

https://www.theregister.co.uk/2017/02/22/facebook_ai_fail/ letzter Zugriff: 23.01.2018

Osterwalder, A./ Pigneur, Y. [2010]: „Business model generation: a handbook for visionaries, game chan-gers, and

challengers", John Wiley & Sons

Oswald, B. [2013]: „Vom Produkt zum Prozess“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalis-

mus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 63-79

Panetta, K. [2017]: „Top Trends in the Gartner Hype Cycle for Emerging Technologies, 2017", Gartner Inc., on-line:

https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-technolo-

gies-2017/ letzter Zugriff: 23.01.2018

Papacharissi, Z. [2010]: „The Virtual Sphere 2.0: The Internet, the Public Sphere, and beyond“, in: Chadwick, A./ How-

ard, P. N. (Hrsg.): „Routledge Handbook of Internet Po-litics“, Taylor & Francis, S. 230-245, online:

http://www.ciberdemocracia.net/victorsampedro/wp-content/uploads/2012/12/Papacharissi-The-Virtual-

Sphere-Revisited-Handbook.pdf letzter Zugriff: 16.11.2017

Papakyriakopoulos, O./ Shahrezaye, M./ Thieltges, A./ Serrano, J. C. M./ Hegelich, S. [2017]: „Social Media und

Microtargeting in Deutschland“, in: „Informatik-Spektrum“, Vol. 40 (4), S. 327-335, online: https://link.sprin-

ger.com/article/10.1007/s00287-017-1051-4 letz-ter Zugriff: 16.11.2017

Papon, K. [2017]: „Technologie schlägt Industrie: Das sind die wertvollsten Unternehmen der Welt", Frankfurter Allge-

meine Zeitung, online: http://www.faz.net/aktuell/wirtschaft/diginomics/das-sind-die-wertvollsten-unterneh-

men-der-welt-15364862.html letzter Zugriff: 20.02.2018

Pariser, E. [2011]: „The filter bubble: What the Internet is hiding from you“, London: Penguin Publishing UK

Pariser, E./ Held, U. [2012]: „Filter Bubble: wie wir im Internet entmündigt werden“, München: Hanser

Parkinson, K. et al. [2015]: „The Future of News“, online:

http://newsimg.bbc.co.uk/1/shared/bsp/hi/pdfs/29_01_15future_of_news.pdf letzter Zugriff: 10.11.2017

Patterson, L. [2007]: „Marketing and sales alignment for improved effectiveness", in: „Journal of Digital Asset Man-

agement", Vol. 3(4), online: https://doi.org/10.1057/palgrave.dam.3650089 letzter Zugriff: 23.01.2018

Pemberton Levy, H. [2016]: „Gartner Predicts a Virtual World of Exponential Change“, online: https://www.gart-

ner.com/smarterwithgartner/gartner-predicts-avirtual-world-of-exponential-change/ letzter Zugriff: 17.11.2017

Perez, S. [2017]: „Siri usage and engagement dropped since Alexa and Cortana grew“, online:

https://techcrunch.com/2017/07/11/siri-usage-and-engagement-dropped-since-last-year-as-alexa-and-cortana-

grew/ letzter Zugriff: 17.11.2017

Page 136: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

133

Petereit, D. [2016]: „Atomic Design, das Baukastensystem mit dem schicken Namen“, online:

https://t3n.de/news/atomic-design-baukastensystem-721010/ letzter Zugriff: 10.01.2018

Petereit, D. [2017]: „Conversational Interfaces: Das Interface der Zukunft erobert das Web“, online:

http://t3n.de/news/conversational-interfaces-812724 letzter Zugriff: 17.11.2017

Pfetsch, B./ Mayerhöffer, E./ Adam, S. [2013]: „Politische Kommunikation“, in: Mediensysteme im internationalen

Vergleich", Barbara Thomaß (Hrsg.), UTB GmbH, S. 59-75

Pipedrive [2018]: „Pipeline-Management", Pipedrive.com, online: https://www.pipedrive.com/de/features

205.01.2018

Po.et [2018]: „Po.et – About“, online: https://po.et/about letzter Zugriff: 02.02.2017

Porcellana, S. [2018]: „3 reasons chatbots didn’t meet industry expectations in 2017", Venture Beat, online:

https://venturebeat.com/2018/01/13/3-reasons-chatbots-didnt-meet-industry-expectations-in-2017/ letzter

Zugriff: 23.01.2018

Poria, S./ Cambria, E./ Hussain, A./ Huang, G. [2015]: „Towards an intelligent framework for multimodal affective data

analysis. Neural Networks“, Vol. 63, S. 104-116, doi: 10.1016/j.neunet.2014.10.005

Postinett, A. [2016]: „Microsoft setzt auf Bots“, online: http://www.wiwo.de/unternehmen/it/microsoft-setzt-auf-

bots-satya-nadella-ruft-das-ende-der-appsaus/13384796.html letzter Zugriff: 17.11.2017

Postulka, D. [2016]: „Datamining: Marktanalyse 3.0“, Handelsjournal, online: http://handelsjour-

nal.de/2016/01/18/unternehmen/dwolf/datamining-marktanalyse-3-0/ letzter Zugriff: 27.02.2018

Powers, E. [2017]: „My News Feed is Filtered? Awareness of news personalization among college students“, in: „Digi-

tal Journalism“, Vol. 5(10), S. 1-21

Praller, L. [2017]: „Trump-Wahl und Brexit? Cambridge Analytica nimmt alles zurück“, in: https://www.merkur.de/po-

litik/trump-wahl-und-brexit-cambridge-analytica-nimmt-alles-zurueck-7054644.html letzter Zugriff: 16.11.2017

Prescher, D./ Lutter, T. [2016]: „Digitale Sprachassistenten als intelligente Haushaltshelfer“, online: https://www.bit-

kom.org/Presse/Presseinformation/Digitale-Sprachassistenten-als-intelligente-Haushaltshelfer.html letzter Zu-

griff: 17.11.2017

Press, G. [2016]: „IoT Mid-Year Update From IDC And Other Research Firms", Forbes Magazine nach: IDC [2015]: "The

Content Created World 2015-2025", IDC IoT-Webcast #DR2016_GD4_VT, online:

https://www.forbes.com/sites/gilpress/2016/08/05/iot-mid-year-update-from-idc-and-other-research-

firms/#d8d75f555c59

PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft [2017]: „Digitale Assistenten - Bevölkerungsbefra-

gung“, online: https://www.pwc.de/de/consulting/management-consulting/pwc-befragung-digitale-assisten-

ten-2017.pdf letzter Zugriff: 09.11.2017

Prien, T. [2017]: Automatisierte Werbekommunikation bringt Paradigmenwechsel im Marketing, online:

https://t3n.de/news/automatisierte-werbekommunikation-888766/ letzter Zugriff: 10.01.2018

Primo, A./ Zago, G. [2015]: „Who And What Do Journalism? An actor-network perspective“, in: „Digital Journalism“,

Vol. 3(1), S. 38-52

Prinzing, M./ Rath, M./ Schicha, C./ Stapf, I. [2015]: „Neuvermessung der Medienethik. Bilanz, Themen und

Herausforderungen seit 2000“, Weinheim/Basel: Beltz Juventa

Protalinski, E. [2017]: „Google’s speech recognition technology now has a 4.9% word error rate“, online: https://ven-

turebeat.com/2017/05/17/googles-speech-recognitiontechnology-now-has-a-4-9-word-error-rate/ letzter

Zugriff: 17.11.2017

QY Research Group [2017]: „Global Algorithmic Trading Market Size, Status and Forecast 2022”, online:

https://www.wiseguyreports.com/reports/929053-global-algorithmic-trading-market-size-status-and-forecast-

2022 letzter Zugriff: 05.01.2018

Raabe, J. [2013]: „Publizität“, in: Bentele, G./ Brosius, H.-B./ Jarren, O. (Hrsg.): „Lexikon Kommunikations- und Medi-

enwissenschaft“, 2. Aufl. Wiesbaden: Springer VS

Rabiner, L. R. [1990]: „A tutorial on hidden Markov models and selected applications in speech recognition" in: „Read-

ings in speech recognition“, S. 267-296

Rabiner, L. R./ Juang, B. H. [1986]: „An Introduction to Hidden Markov Models“, in: „IEEE ASSP Magazine", Vol. 3 (1)

Radford, A./ Metz, L./ Chintala, S. [2015]: „Unsupervised representation learning with deep convolutional generative

adversarial networks“, arXiv preprint arXiv:1511.06434

Page 137: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

134

Radü, J. [2013]: „Technologie als Chance Auf welche Weise Smartphones, Tablets und die Medientechnologie der Zu-

kunft journalistische Qualität sichern helfen“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Jour-

nalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 173-183

Rahgozar, O. [2016]: „Chatbot Business Models“, Medium.com nach: CB Insights 2016 und Crunchbase Analyse 2016,

online: https://medium.com/@omeedrz/chatbot-business-models-250fed69f6aa letzter Zugriff: 15.11.2017

Ramzan, Z. [2010]: „Phishing attacks and countermeasures“, in: Stamp, M./ Stavroulakis, P. (Hrsg.): „Handbook of In-

formation and Communication Security“, Springer

Reinbold, F. [2017]: „Warum die AfD den Twitterwahlkampf dominiert“, online: http://www.spiegel.de/netz-

welt/web/afd-dominiert-den-twitter-bundestagswahlkampf-auch-dank-bots-a-1168659.html letzter Zugriff:

16.11.2017

Reinsch, M. [2016]: „Social Bots Parteien in Deutschland wollen auf technische Wahlkampf-helfer verzichten“, online:

http://www.berliner-zeitung.de/politik/social-bots-parteien-in-deutschland-wollen-auf-technische-wahlkampf-

helfer-verzichten-25278052 letzter Zugriff: 16.11.2017

Reiter, E./ Dale, R [2000]: „Building Natural Language Generation Systems“, Cambridge: Cambridge University Press

Research and Markets [2017]: „Algorithmic Trading Market 2025 Global Analysis and Forecasts”, online:

https://www.researchandmarkets.com/research/nmpkmq/global?w=4 letzter Zugriff: 05.01.2018

Retresco [2018]: „Build Better Business with AI-driven Content Automation”, Retresco, online: www.retresco.de letz-

ter Zugriff: 05.01.2018

Reuter, M. [2016]: „Fake-News, Bots und Sockenpuppen- eine Begriffsklärung“, online: https://netzpoli-

tik.org/2016/fakenews-social-bots-sockenpuppen-begriffsklaerung/ letzter Zugriff: 16.11.2017

Richter, S./ Sinning, H. [2006]: „Online gestützte Kommunikation für Stadtmanagement- Potentiale, Restriktionen und

Anforderungen“, in: Sinning, H. (Hrsg.): „Stadtmanagement – Strategien zur Modernisierung der Stadt(-Re-

gion)“, Verlag Dorothea Rohn, 2. Auflage, S. 144-163

Riedel, A. M. [2012]: „Nachrichtenfaktoren in Blogs - Journalistische Avantgarde oder Nachrichten zweiter Hand? Zur

Anwendbarkeit der Nachrichtenwert-Theorie auf die politische Blogosphäre im deutschsprachigen Raum“, Ber-

lin: epubli GmbH

Rietzschel, A. [2017]: „Wie es in Facebooks Echokammern aussieht - von links bis rechts“, on-line: http://www.sued-

deutsche.de/politik/mein-facebook-dein-facebook-wie-es-in-den-echokammern-von-links-bis-rechts-aussieht-

1.3576513 letzter Zugriff: 16.11.2017

Rohleder, B. [2015]: „Datenschutz in der digitalen Welt“, online: https://www.bitkom.org/Presse/Anhaenge-an-

PIs/2015/09-September/Bitkom-Charts-PK-Datenschutz-22092015-final.pdf letzter Zugriff: 17.11.2017

Rondinella, G. [2017]: „Ausgaben für smarte Lautsprecher verfünffachen sich bis 2021“, online: http://www.hori-

zont.net/tech/nachrichten/Gartner-Prognose-Ausgabenfuer-smarte-Lautsprecher-verfuenffachen-sich-bis-

2021-160563 letzter Zugriff: 17.11.2017

Rosenbaum, S. [2011]: „Curation nation: how to win in a world where consumers are creators“, New York: McGraw-

Hill

Rosenblatt, F. [1958]: „The Perceptron: A probabilistic model for information storage and organization in the brain",

in: „Psychological Review", Vol. 65(6)

Russell, S. J./ Norvig, P. [2010]: „Artificial Intelligence-A Modern Approach", Pearson Education, 3. Aufl.

Ruß-Mohl, S. [2009]: „Kreative Zerstörung: Niedergang und Neuerfindung des Zeitungsjournalismus in den USA“, Kon-

stanz: UVK

Russom, P. [2013]: "Managing Big Data - TDWI Best Practices Report", TDWI Research, S. 20

Salesforce [2018]: „Salesforce Einstein", Salesforce.com, online: https://www.salesforce.com/products/einstein/over-

view/ letzter Zugriff: 26.02.2018

Salzburger, S./ Simon, C./ Wagner, Y. [2017]: „So funktioniert der Facebook-Algorithmus“, online: http://www.sued-

deutsche.de/digital/erklaervideo-so-funktioniert-der-facebook-algorithmus-1.3482209 letzter Zugriff:

16.11.2017

Sauer, H. [2002]: „Relationale Datenbanken - Theorie und Praxis", Addison Wesley, 5. Aufl.

Saurwein, F. [2017]: „Verantwortung im Zeitalter der Automatisierung“, online: http://de.ejo-online.eu/digitales/ver-

antwortung-im-zeitalter-der-automatisierung letzter Zugriff: 17.11.2017

Page 138: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

135

Scatterblogs [2018a]: „Social Media Intelligence für Lagezentren und Newsrooms. Geobasiert. Ereignisgetrieben. Echt-

zeitfähig“, online: https://www.scatterblogs.com/ letzter Zugriff: 05.01.2018

Scatterblogs [2018b]: „Scatterblogs - Analytics. Anschläge in Brüssel, 2016“, online: https://www.scatter-

blogs.com/analytics/ letzter Zugriff: 05.01.2018

Scherer, K. [2017]: „Der Code macht die Musik“, online: https://www.heise.de/tr/artikel/Der-Code-macht-die-Musik-

3465494.html?seite=all letzter Zugriff: 10.01.2018

Scherrer, A. [2017]: „Warum hat Künstliche Intelligenz eine weibliche Stimme?“, online: https://evecom-

merce.com/2017/03/06/warum-hat-kuenstliche-intelligenzeine-weibliche-stimme/ letzter Zugriff: 17.11.2017

Schimank, U. [2010]: „Handeln und Strukturen: Einführung in die akteurtheoretische Soziologie“, Weinheim: Beltz

Schlicht, M. [2016]: „The Complete Beginner´s Guide To Chatbots“, online: https://chatbotsmagazine.com/the-com-

plete-beginner-s-guide-to-chatbots-8280b7b906ca letzter Zugriff: 16.11.2017

Schmidt, J.-H./ Hölig, S./ Merten, L./ Hasebrink, U. [2017]: „Nachrichtennutzung und Meinungsbildung in Zeiten sozia-

ler Medien“, in: „Informatik Spektrum“, Vol. 40 (4), S. 358-361, online: DOI: 10.1007/s00287-017-1057-y letzter

Zugriff: 16.11.2017

Schmundt, H. [2015]: „Charmante Maschinen. Siri, lass mich nicht allein“, online: http://www.spiegel.de/spiegelwis-

sen/siri-cortana-co-wie-intelligent-sind-digitalesprachassistenten-a-1041324.html letzter Zugriff: 17.11.2017

Schneider, C. [2016]: „Cognitive Enterprise - The biggest data challenges that you might not even know you have",

IBM Watson Blog Post, online: https://www.ibm.com/blogs/watson/2016/05/biggest-data-challenges-might-

not-even-know/ letzter Zugriff: 22.01.2018

Schober Direct Media GmbH & Co. KG [o. D.]: „Consumer Analytics“, Schober Direct Media GmbH & Co. KG., online:

www.schober-direct-media.de/cms/wp-content/uplo-ads/2015/06/SchoberDM_Fact-Sheet_MarketBase-Con-

sumer_Analytics_WEB.pdf letzter Zugriff: 27.02.2018

Schomaker, J. [2012]: „Einführung in die Theorie der Markov-Ketten", Universität Münster, online:

http://wwwmath.uni-muenster.de/statistik/lehre/SS12/SeminarAnwendungenWT/Vortraege/Schomaker.pdf

letzter Zugriff: 11.01.2018

Schonschek, O. [2017]: „Was Unternehmen über Chatbots wissen müssen“ online: https://www.computerwo-

che.de/a/was-unternehmen-ueber-chatbots-wissen-muessen,3329735 letzter Zugriff: 16.11.2017

SCHUFA Holding AG [o. D.]: „So funktioniert die SCHUFA“, online: www.schufa.de/de/ueber-uns/unternehmen/so-

funktioniert-schufa/ letzter Zugriff: 27.02.2018

Schulz, W. [2003]: „Politische Kommunikation“, in: Bentele, G./ Brosius, H.B./ Jarren, O. (Hrsg.): „Handbuch Öffentli-

che Kommunikation“, Opladen: Westdeutscher Verlag, S.1-31

Schulz, W./Dankert, K [2016]: „Die Macht der Informationsintermediäre. Erscheinungsformen, Strukturen und Regu-

lierungsoptionen“. Friedrich-Ebert-Stiftung (Hrsg.), online: http://library.fes.de/pdf-files/akademie/12408.pdf

letzter Zugriff: 05.01.2018

Schwab, F. [2008]: „Involvement“, in: Krämer, N. C./ Schwan, S./ Unz, D./ Suckfüll, M. (Hrsg.): „Medienpsychologie.

Schlüsselbegriffe und Konzepte“, Stuttgart: W. Kohlhammer, S. 218-223

SciKit-learn Developers [2017]: „SciKit-Learn Algorithm Cheat-Sheet", BSD License, online: http://scikit-

learn.org/stable/tutorial/machine_learning_map/index.html letzter Zugriff: 18.12.2017

Seed Scientific [2015]: „Seed Scientific Acquired by Spotify”. Joining Forces to Create New Advanced Analytics Unit,

online: http://seedscientific.com/ letzter Zugriff: 05.01.2018

Seibel, K. [2015]: „Gegen Kreditech ist die Schufa ein Schuljunge", Die WELT, Ausg. vom 17/04/2015; Kreditech [2018],

online www.kreditech.com/what-we-do/ letzter Zugriff: 26.02.2018

Sentient Technologies [2017]: „Sentient Aware Case Study: Sunglass Hut", SentientAI, online: https://www.senti-

ent.ai/wp-content/uploads/2018/01/Sentient-Aware-Case-Study-Sunglass-Hut.pdf letzter Zugriff: 29.01.2018

Shafahi, M./ Kempers, L./ Afsarmanesh, H. [2016]: „Phishing through social bots on Twitter“, in: „2016 IEEE Interna-

tional Conference on Big Data“, S. 3703-3712

Shaw, A. [2011]: „Centralized and Decentralized Gatekeeping in an Open Online Collective“, in: „Politics & Society“,

Vol. 40 (3), S. 349-388, online: DOI: 10.1177/0032329212449009 letzter Zugriff: 16.11.2017

Shirky, C. [2008]: „It’s not information overload. It’s filter failure. Web 2.0 Expo“, online: https://www.y-

outube.com/watch?v=LabqeJEOQyI letzter Zugriff: 17.11.2017

Page 139: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

136

Shoemaker, P. J./ Vos, T. P./ Reese, S. D. [2009]: „Journalists as Gatekeepers“, in: Jorgensen, K.W./ Hanitzsch, T.

(Hrsg.): „The Handbook of Journalism Studies“, New York: Rout-ledge, S. 73-87

Shrikumar, A./ Greenside, P./ Shcherbina, A.Y./ Kundaje, A. [2017]: „Not Just A Black Box: Learning Important Features

Through Propagating Activation Differences", arXiv preprint arXiv:1605.01713

Siebert, A. [2014]: „Roboterjournalismus im Jahre 2020 – Acht Thesen“, online: http://www.huffingtonpost.de/ale-

xander-siebert/roboterjournalismusim-jahre-2020---acht-thesen_b_5655061.html letzter Zugriff: 17.11.2017

Singer, J. B. [2014]: „User-generated visibility: Secondary gatekeeping in a shared media space“, in: „New Media &

Society“, Vol. 16 (1), S. 55-73, online: DOI: 10.1177/1461444813477833 letzter Zugriff: 17.11.2017

Singer, N. [2012]: „Mapping, and Sharing, the Consumer Genome“, New York Times, online: www.ny-

times.com/2012/06/17/technology/acxiom-the-quiet-giant-of-consumer-database-marketing.html letzter

Zugriff: 27.02.2018

Singh, S. [2015]: „How algorithms will drive the growth of e-commerce in the future”, online: https://econom-

ictimes.indiatimes.com/tech/internet/how-algorithms-will-drive-the-growth-of-e-commerce-in-the-future/arti-

cleshow/45801937.cms letzter Zugriff: 05.01.2018

Smith, A./ Anderson, J. [2014]: „AI, Robotics, and the Future of Jobs“, Washingon, DC: Pew Research Center, online:

http://www.fusbp.com/wpcontent/uploads/2010/07/AI-and-Robotics-Impact-on-Future-Pew-Survey.pdf letzter

Zugriff: 17.11.2017

Solanki, K. [2012]: „Responsive Web Design. Ideas, Technology and Examples. Blogbeitrag“, online: https://onex-

trapixel.com/responsive-web-design-ideas-technology-and-examples/ letzter Zugriff: 17.11.2017

Sonnad, N. [2015]: „The magic that makes Spotify’s Discover Weekly playlists so damn good”, online:

https://qz.com/571007/the-magic-that-makes-spotifys-discover-weekly-playlists-so-damn-good/ letzter Zugriff:

10.01.2018

Sovie, D./ Curran, J./ Schoelwer, M./ Björnsjö, A. [2017]: „Dynamic Digital Consumers Ever-changing Expectations and

Technology Intrigue“, online: https://www.accenture.com/us-en/insight-dynamic-consumers letzter Zugriff:

17.11.2017

Specht, D. F. [1990]: „Probabilistic neural networks", in: „Neural Networks", Vol. 3(1)

Spotify [2018]: „Spotify – Entdecken“, online: https://support.spotify.com/de/article/Discover/ letzter Zugriff:

05.01.2018

Stark, B. [2017]: „Gefangen in der Echokammer? Politische Meinungsbildung auf Facebook“, online https://www.die-

medienanstalten.de/fileadmin/user_upload/Veranstaltungen/2017/2017_03_08_Ganz_meine_Mei-

nung/Praesentation_Prof._Stark.pdf letzter Zugriff: 05.01.2018

Stelzel-Morawietz, P. [2017]: „IFTTT: So automatisieren Sie Ihren Alltag“, online: https://www.pcwelt.de/ratge-

ber/_If_this_then_that__automatisiert_das_Leben_im_Web-Online-Service_IFTTT-8295495.html letzter Zugriff:

16.11.2017

Sterling, G. [2016]: „Google says 20 percent of mobile queries are voice searches“, online: https://searchengine-

land.com/google-reveals-20-percent-queries-voice-queries-249917 letzter Zugriff: 09.11.2017

Stern, J. [2017]: „AfD verzichtet auf Meinungsroboter – oder nicht?“, online: http://faktenfinder.tagesschau.de/social-

bots-bundestag-wahl-101.html letzter Zugriff: 16.11.2017

Stewart, W.J. [1994]: „Introduction to the Numerical Solution of Markov Chains", UK: Princeton University Press

Strategy& [2017]: „The 2017 Global Innovation 1000 study“, online: https://www.strategyand.pwc.com/innova-

tion1000#GlobalKeyFindingsTabs4|VisualTabs1 letzter Zugriff: 17.11.2017

Stromer-Galley, J. [2014]: „Presidential Campaigning in the Internet Age“, New York: Oxford University Press.

Sunstein, C. [2009]: „Going to extremes: How Like Minds Unite and Divide”. Oxford u.a.: Oxford University Press.

Sweeney, L. [2013]: „Discrimination in Online Ad Delivery“, in: „Communications of the ACM“, Vol. 56 (5), S. 44-54,

online: https://cacm.acm.org/magazines/2013/5/163753-discrimination-in-online-ad-delivery/fulltext letzter

Zugriff: 17.11.2017

Sweller, J. [1988]: „Cognitive load during problem solving: Effects on learning“, in: „Cognitive Science“, Vol. 12 (2), S.

257-285

Tandoc, E. C. [2013]: „Journalism is twerking? How web analytics is changing the process of gatekeeping“, in: „New

Media & Society“, Vol. 16 (4), S. 559-575, online: DOI: 10.1177/1461444814530541 letzter Zugriff: 17.11.2017

Page 140: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

137

Tata Consultancy Services [2015]: „Internet of Things: The Complete Reimaginative Force. TCS Global Trend Study -

July 2015”, online: http://sites.tcs.com/internet-of-things/wp-content/uploads/Internet-of-Things-The-Com-

plete-Reimaginative-Force.pdf letzter Zugriff: 10.01.2018

Team, T. [2014]: „Google's Strategy Behind The $3.2 Billion Acquisition Of Nest Labs“, online:

https://www.forbes.com/sites/greatspeculations/2014/01/17/googlesstrategy-behind-the-3-2-billion-acquisi-

tion-of-nest-labs letzter Zugriff: 17.11.2017

TechNavio [2016]: „Global Algorithmic Trading Market 2016-2020“, online: https://www.technavio.com/report/glo-

bal-miscellaneous-algorithmic-trading-market letzter Zugriff: 05.01.2018

Technologiestiftung Berlin [2017]: „IoT in Berlin“, online: https://www.technologiestiftung-berlin.de/fileadmin/da-

ten/media/publikationen/170504_IoT-Report_Web.pdf letzter Zugriff: 10.01.2018

TensorFlow [2018]: „TensorFlow Playground", Google TensorFlow Bibliothek, online: http://playground.tensor-

flow.org, letzter Zugriff: 26.02.2018

The Economist Business Intelligence Unit Ltd. [2016]: „Artificial Intelligence in the real world - The business case takes

shape", The Economist, online: https://www.eiuperspectives.economist.com/sites/default/files/Artificial_intelli-

gence_in_the_real_world_1.pdf letzter Zugriff: 12.02.2018

The next Rembrandt [2018]: „The next Rembrandt. Can the Great Master be Brought back to create one more Paint-

ing?”, Online: https://www.nextrembrandt.com/ letzter Zugriff: 10.01.2018

Thomas, J. [2017]: „Hallo, Computer!“, online: https://berlinvalley.com/spracherkennung/ letzter Zugriff: 17.11.2017

Thusoo, A./ Sarma, J. S./ Jain, N./ Shao, Z./ Chakka, P./ Anthony, S./ Murthy, R. [2009]: „Hive: a warehousing solution

over a map-reduce framework", in: „Proceedings of the VLDB Endowment", Vol. 2(2)

Tißler, J. [2017]: „Alexa, Cortana, Siri & Co: Der Hype um Sprachassistenten erklärt“, Upload Magazin, online:

https://upload-magazin.de/blog/16055-alexa-sprachassistenten/ letzter Zugriff: 09.11.2017

Tobler, S. [2010]: „Transnationalisierung nationaler Öffentlichkeit. Konfliktinduzierte Kommunikationsverdichtungen

und kollektive Identitätsbildung in Europa“, Wiesbaden: VS Verlag für Sozialwissenschaften

Torinus, G. [2016]: „Die Entschlüsselung der Panama Papers“, online: https://www.heise.de/tp/features/Die-Entschlu-

esselung-der-Panama-Papers-3267916.html letzter Zugriff: 10.01.2018

Tratica [o. D]: „Anzahl der Nutzer virtueller digitaler Assistenten weltweit in den Jahren von 2015 bis 2021 (in Millio-

nen). In Statista - Das Statistik-Portal“, online: https://de.statista.com/statistik/daten/studie/620321/um-

frage/nutzung-von-virtuellen-digitalen-assistenten-weltweit/ Zugriff: 09.11.2017

Tractica [2016]: „Virtual digital assistant market reach 15,8 billion worldwide by 2021“, online: https://www.trac-

tica.com/newsroom/press-releases/the-virtual-digital-assistant-market-will-reach-15-8-billion-worldwide-by-

2021/ letzter Zugriff: 17.11.2017

Tractica [2017]: „Natural language processing market to reach 22.3 Billion $ by 2025“, online: https://www.trac-

tica.com/newsroom/press-releases/natural-language-processing-market-to-reach-22-3-billion-by-2025/ letzter

Zugriff: 17.11.2017

Trenz, H.-J. [2008]: „Understanding Media Impact on European Integration: Enhancing or Restricting the Scope of Le-

gitimacy of the EU?“, in: „European Integration“, Vol. 30(2), S. 291-309

Turing, A.M. [1950]: „Computing Machinery and Intelligence", in: Mind, Vol. 54(236) S. 433-460

Tusch, R. [2017]: „Medienforscher über Roboter-Journalismus: ,In der Massenproduktion schneiden Maschinen bes-

ser ab als Menschen‘“, online: http://meedia.de/2017/03/20/medienforscher-ueber-roboter-journalismus-in-

der-massenproduktion-schneiden-maschinen-besser-ab-als-menschen/ letzter Zugriff: 10.01.2018

Ukrow, J. [2017]: „Neue Formen politischer Kommunikation als Gegenstand einer positiven Ordnung 4.0“, online:

http://www.medien-impulse.de/wp-content/uploads/2017/01/chat-bots-170110.pdf letzter Zugriff: 16.11.2017

Van der Maaten, L./ Hinton, G. E. [2008]: „Visualizing data using t-SNE“, in: „Journal of Machine Learning Research",

Vol. 9, S. 2579-2605

van der Meulen [2016]: „Gartner Says Algorithms Are Redefining the Architecture of Business”, online:

https://www.gartner.com/newsroom/id/3349017 letzter Zugriff: 05.01.2018

Van Lun, E. [2013]: „Chatbot Jana [Deutsche Post)“, online: https://www.chatbots.org/chatbot/jana1/ letzter Zugriff:

16.11.2017

Page 141: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

138

van Rijmenam, M. [2017]: „The Gaming Industry Turns To Big Data To Improve The Gaming Experience”, online:

https://datafloq.com/read/gaming-industry-turns-big-data-improve-gaming-expe/137 letzter Zugriff:

10.01.2018

VDZ [2017]: „Chatbots & Co. - The Next Big Thing?!", Verband Deutscher Zeitschriftenverleger e.V.

VentureBeat [2015]: „Prognose zum Umsatz im Markt für Videogames weltweit von 2011 bis 2020 nach Segment (in

Milliarden US-Dollar)“, Statista, online: https://de.statista.com/statistik/daten/studie/160518/umfrage/prog-

nostizierter-umsatz-in-der-weltweiten-videogames-branche/ Letzter Zugriff: 17.01.2018

Verbraucherzentrale [2017]: „Amazon hört zu: 'Echo' jetzt auch in hiesigen Wohnzimmern", Verbraucherzentrale.de,

online: https://www.verbraucherzentrale.de/wissen/digitale-welt/datenschutz/amazon-hoert-zu-echo-jetzt-

auch-in-hiesigen-wohnzimmern-13149 letzter Zugriff: 20.02.2018

Verbraucherzentrale Bundesverband e.V. [2017]: „Algorithmenbasierte Entscheidungsprozesse. Thesenpapier des

vzbv“, online: https://www.vzbv.de/sites/default/files/downloads/2017/12/14/17-12-05_vzbv_thesenpa-

pier_algorithmen.pdf letzter Zugriff: 05.01.2018

Verizon Communications [2015]: „State of the Market. The Internet of Things 2015. Discover how IoT is transforming

business results”, online: http://www.verizonenterprise.com/resources/reports/rp_state-of-market-the-mar-

ket-the-internet-of-things-2015_en_xg.pdf letzter Zugriff: 10.01.2018

Vieth, K./Wagner, B. [2017]: „Teilhabe, ausgerechnet. Wie algorithmische Prozesse Teilhabechancen beeinflussen

können“. Im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stiftung.de/fileadmin/fi-

les/BSt/Publikationen/GrauePublikationen/Teilhabe_ausgerechnet.pdf letzter Zugriff: 05.01.2018

Voigt, J. [2016]: „Nachrichtenqualität aus Sicht der Mediennutzer“, Wiesbaden: Springer VS

Voigt, K.-I. [2017]: „Definition – Automatisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/automatisie-

rung.html, letzter Zugriff: 17.11.2017

von Eisenhart Rothe, Y. [2017]: „Die Automatisierung des Journalismus“, online: https://uebermedien.de/19051/die-

automatisierung-des-journalismus/ letzter Zugriff: 17.11.2017

Wagner, C./ Mitter, S./ Körner, C. [2012]: „When social bots attack: Modeling susceptibility of users in online social

networks“, in: Rowe, M./ Stankovic, M./ Dadzie, A.-S. (Hrsg.): „Proceedings of the 2nd Workshop on Making

Sense of Microposts. Big things come in small packages“, S. 41-48

Waibel, A./ Hanazawa, T./ Hinton, G./ Shikano, K./ Lang, K. J. [1989]: „Phoneme recognition using time-delay neural

networks". in: „IEEE transactions on acoustics, speech, and signal processing", Vol. 37(3)

Wakefield, J. [2016]: „Would you want to talk to a machine?“, online: http://www.bbc.com/news/technology-

36225980 letzter Zugriff: 16.11.2017

Wallace, J. [2017]: „Modelling Contemporary Gatekeeping“, in: „Digital Journalism“, Vol. 9 (16), S. 1-20, online: DOI:

10.1080/21670811.2017.1343648 letzter Zugriff: 17.11.2017

Wallace, R. S. [o. D.]: „From Eliza to A.L.I.C.E.“, online: http://www.alicebot.org/articles/wallace/eliza.html letzter

Zugriff: 16.11.2017

Wang, X./ Giron, F./ Ask, J. A./ Wise, J./ Purcell, B./ Stanhope, J./ Deng, D./ Nagel, B. [2017]: „Chatbots Are Transform-

ing Marketing - Use Chatbots To Help Customers Discover, Explore, And Engage With Your Brand", Forrester

Research Inc., online: https://www.forrester.com/report/Chatbots+Are+Transforming+Marketing/-/E-

RES136771 letzter Zugriff: 26.02.2018

Ward, J.S./ Barker, A. [2013]: „Undefined By Data: A Survey of Big Data Definitions“, University of St. Andrews, S. 2

Weichert, S. A./ Kramp, L./ Welker, M. [2015]: „Die Zeitungsmacher: Aufbruch in die digitale Moderne“, Wiesbaden:

Springer VS

Werner, K. [2017]: „Eine Maschine gegen Depression“, online: http://www.sueddeutsche.de/digital/kuenstliche-intel-

ligenz-eine-maschine-gegen-die-depression-1.3431873 letzter Zugriff: 16.11.2017

Weßler, H. [2004]: „Europa als Kommunikationsnetzwerk. Theoretische Überlegungen zur Europäisierung von Öffent-

lichkeit“, in: Hagen, L. M. (Hrsg): „Europäische Union und mediale Öffentlichkeit, Theoretische Perspektiven und

empirische Befunde zur Rolle der Me-dien im europäischen Einigungsprozess“, Köln: Herbert von Halem Verlag,

S. 13-28

Wieduwilt, H. [2017]: „Facebook löscht tausende falsche Konten", Frankfurter Allgemeine Zeitung, online:

http://www.faz.net/aktuell/wirtschaft/facebook-loescht-tausende-fake-konten-in-deutschland-15163212.html

letzter Zugriff: 20.02.2018

Page 142: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

139

WikiLeaks [2016]: „NSA Untersuchungsausschuss", online: https://wikileaks.org/bnd-nsa/press/index.de.html letzter

Zugriff: 27.02.2018

Wingfield, N. [2017]: „Cortana, Open Alexa, Amazon says. And Microsoft Agrees“, online: https://www.ny-

times.com/2017/08/30/technology/amazon-alexa-microsoftcortana.html?_r=0 letzter Zugriff: 17.11.2017

Wissenschaftliche Dienste des deutschen Bundestags [2017]: „Algorithmen im Medienbereich – Gesetzlicher Rege-

lungsbedarf“. Aktenzeichen WD10-3000-048/17, online: https://www.bundes-

tag.de/blob/529616/bbe3de30880170a7b710e5c8732b7c06/wd-10-048-17-pdf-data.pdf letzter Zugriff:

05.01.2018

Wochit [2018]: „Make videos worth sharing. The fast and simple video creation solution publishers rely on”, online:

https://www.wochit.com/ letzter Zugriff: 10.01.2018

Wölbert, C. [2017]: „Den Unterschied merkt man nicht. Automatische Texterstellung setzt sich durch“, online:

https://www.heise.de/ct/ausgabe/2017-3-Automatische-Texterstellung-setzt-sich-durch-3599588.html letzter

Zugriff: 10.01.2018

Woolley, S. [2016]: „Automating power: Social bot interference in global politics“, in: „First Monday“, Vol. 21(4),

online: http://firstmonday.org/ojs/index.php/fm/article/view/6161 letzter Zugriff: 16.11.2017

Woolley, S./ Howard, P. [2017]: „Computational Propaganda Worldwide: Executive Summary (Working Paper No.

11)“, Oxford, UK, online: http://comprop.oii.ox.ac.uk/publishing/working-papers/computational-propaganda-

worldwide-executive-summary/ letzter Zugriff: 16.11.2017

Wortham, J. [2010]: „Apple buys Siri, a Voice-Command App“, online: http://www.nytimes.com/2010/04/29/technol-

ogy/29apple.html letzter Zugriff: 17.11.2017

Wright, S. [2011]: „Politics as Usual? Revolution, normalization and a new agenda for online deliberation“, in: „New

Media & Society“, Vol. 14 (2), S. 244-261, online: 10.1177/1461444811410679 letzter Zugriff: 17.11.2017

Writer, S. [2016]: “IBM Watson & The Drum team up for first magazine edited with AI”, online:

http://www.thedrum.com/news/2016/06/15/ibm-watson-drum-team-first-magazine-edited-ai letzter Zugriff:

10.01.2018

Yang, H. C./ Dasdan, A./ Hsiao, R. L./ Parker, D. S. [2007]: „Map-reduce-merge: simplified relational data processing on

large clusters", in: „Proceedings of the 2007 ACM SIGMOD international conference on Management of data"

Yin, R. K. [2014]: „Case Study Research. Design and Methods“, Thousand Oaks: Sage, 5. Auflage

Yosinski, J./Clune, J./ Nguyen, A./ Fuchs, T./ Lipson, H. [2015]: „Understanding neural networks through deep visuali-

zation“, arXiv preprint arXiv:1506.06579

YouGov [2017]: „Was spricht aus Ihrer Sicht grundsätzlich gegen die Nutzung von so genannten 'Chatbots'?", Sta-

tista.de, online: https://de.statista.com/statistik/daten/studie/747801/umfrage/vorbehalte-gegenueber-chat-

bots-aus-kundensicht/ letzter Zugriff: 26.02.2018

YouTube Channel: Winterblessed [2013]: „Two Artificial Intelligence (AI) Chatbots talk and argue with each other“,

online: https://www.youtube.com/watch?v=vphmJEpLXU0 letzter Zugriff: 16.11.2017

Zechmeister, F. [2017]: „Thesenpapier attestiert Social-Bots weitreichendes Gefahrenpotenzial“, online: https://netz-

politik.org/2017/thesenpapier-zur-gesellschaftlichen-und-politischen-relevanz-von-social-bots-vorgestellt/ letz-

ter Zugriff: 16.11.2017

Zeiler, M.D./ Fergus, R. [2013]: „Visualizing and understanding convolutional neural networks" arXiv preprint,

arXiv:1311.2901

Zelada, S. [2017]: „Bossa Studios - Autor der Half-Life-Episoden & Portal 2 setzt auf Storytelling per KI”, online:

http://www.gamestar.de/artikel/bossa-studios-autor-der-half-life-episoden-portal-2-setzt-auf-storytelling-per-

ki,3323167.html letzter Zugriff: 10.01.2018

Zell, A. [1994]: „Simulation Neuronaler Netze (Vol. 1)“, Bonn: Addison-Wesley

Zuckerberg, Mark [2016]: „Building Jarvis“, online: https://www.facebook.com/notes/mark-zuckerberg/buildingjar-

vis/10103347273888091/ letzter Zugriff: 17.11.2017

Zuiderveen Borgesius, F. J./ Trilling, D./ Moeller, J./ Bodó, B./ de Vreese, C. H./ Helberger, N. [2016]: „Should we worry

about filter bubbles?“, in: „Internet Policy Review. Journal on Internet Regulation“, Vol. 5 (1), online: DOI:

10.14763/2016.1.401 letzter Zugriff: 17.11.2017

Zweig, A. [2016]: „1. Arbeitspapier: Was ist ein Algorithmus?“, online: https://algorithmwatch.org/de/arbeitspapier-

was-ist-ein-algorithmus/ letzter Zugriff: 17.11.2017

Page 143: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

140

Zweig, K. A./ Deussen, O./ Krafft, T. D. [2017]: „Algorithmen und Meinungsbildung“, in: „Informatik Spektrum“, Vol. 40

(4), S. 318-326, online: DOI: 10.1007/s00287-017-1050-5 letzter Zugriff: 17.11.2017

Page 144: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

141

9 ANHANG

9.1 MARKTÜBERS ICHT : B2C-ANWENDUNGEN

CONNECTED HOME UND IOT

Produkt Funktionsbeschreibung

Ems Ems ist eine kostenfreie, auf KI basierende Anwendung, die freie Immobilien ermit-

telt, die genau auf die Bedürfnisse des Nutzers zugeschnitten sind. Ems arbeitet un-

abhängig von Vermietern und Maklern.

Bridge Kitchen Bridge Kitchen begleitet den Anwender von der Auswahl des Gerichts bis hin zur

Ausführung. Beispielsweise wird die Zubereitungszeit in Abhängigkeit vom Essens-

zeitpunkt berechnet oder Bridge Kitchen verbindet sich mit internetfähigen Küchen-

geräten und steuert diese.

UnifyID UnifyID kombiniert Implicit Authority mit maschinellem Lernen. Smart Devices er-

kennen mithilfe von UnifyID den Nutzer anhand seines Verhaltens und können da-

mit mehr als 500 Internetseiten freischalten. Das Speichern von Passwörtern gehört

damit der Vergangenheit an.

Aerial  Aerial fusioniert die Verfügbarkeit von WLAN und das schnell wachsende Angebot

an Machine Learning. Basierend auf Funksignalen werden Menschen und Tiere er-

kannt und Daten über ihren Aufenthaltsort, ihr Verhalten und ihre Bewegungen ge-

sammelt. Mit diesen Daten können Arbeitsabläufe automatisiert werden und für

weitere Anwendungen genutzt werden.

Bridge.ai Zu Bridge.ai gehört die Smart Home Plattform Aura. Aura benutzt maschinelles Ler-

nen, um durch Geräusche zu verstehen, was im näheren Umfeld passiert. Her-

kömmliche, mit Aura kombinierte Mikrofone ermöglichen das Erkennen von Stim-

men und mechanischen Geräuschen, wie z.B. die Türklingel oder das Öffnen des

Garagentors.

Cubic Der KI Butler vereint die Nutzung verschiedener Smart-Home-Anwendungen in ei-

ner App. Durch Spracherkennung, das Dashboard oder eine automatisierte Einstel-

lung von Routinen kann die App gleichzeitig unterschiedliche Smart Devices steu-

ern.

Grojo Grojo ist ein Kontroll- und Überwachungssystem für Indoor Gardening. Über eine

Open Source Fernbedienung wird das Wachstum von Pflanzen in Räumen, deren

Ertrag und die erzielten Resultate kontrolliert und optimiert.

Home.AI Die Plattform Home.AI misst konstant die Interaktion zwischen Familienmitgliedern

und deren Smart Devices sowohl Zuhause als auch außerhalb. Basierend auf diesen

Daten kann Home.AI die Familie dabei automatisiert unterstützen, den Familienall-

tag optimal zu gestalten, logistische Herausforderungen zu managen und für Sicher-

heit zu sorgen.

Page 145: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

142

Hello Sense hilft den Schlaf zu überwachen und zu verbessern. Die App ermöglicht dem

Anwender, den eigenen Schlafrhythmus mithilfe von detaillierten Breakdowns zu

verstehen. Sense ist mit vielen Sensoren versorgt, die die Schlafbedingungen im

Schlafzimmer messen und dem Nutzer Einblicke geben, inwieweit das Umfeld den

Schlaf beeinflusst.

Josh Josh ist ein Sprachsteuerungssystem für das ganze Haus. Es beinhaltet eine intuitive

Sprachsteuerung, ein multifunktionales Home Control Interface mit Fernfeld-Mik-

rofonen und einen Prozessor für das gesamte Zuhause. Josh sendet die Anweisun-

gen zur Cloud, von der aus alle Informationen zur Home Base weitergeleitet wer-

den. Damit interagieren alle Smart Home Devices mit der Home Base und ein Re-

mote-Zugang ist von überall möglich.

Mycroft Mycroft ist die erste Open-Source-Voice-Assistent-Technologie, die beliebig erwei-

tert und kombiniert werden kann. Ein Einsatz ist somit in vielseitigen Projekten

möglich und die Developer Community treibt die Entwicklung weiter voran. Im Be-

reich Home Control übernimmt Mycroft die Steuerung von Connected Devices

durch Voice Control.

Nanit Nanit ist eine Erweiterung des Babyfons und besitzt eine Echtzeit-HD-Videokamera

mit bester Nachtaufnahmemöglichkeit und einen Sensor für die Raumtemperatur

und Luftfeuchtigkeit. Mittels Computer Vision baut Nanit ein Verständnis für die

Bewegungen des Babys auf und kann einschätzen, wann es wach, unruhig oder im

Tiefschlaf ist.

Nest Netz stellt verschiedene Technologien, wie z.B. Rauchmelder, Türklingeln und Ka-

meras, zur Verfügung, um ein Zuhause zu schaffen, das in der Lage ist, auf sich

selbst, seine Umgebung und seine Bewohner aufpassen zu können. Sicherheitska-

meras sind beispielweise mit einem integrierten Mikrofon und Lautsprechern aus-

gestattet und über eine App mit dem Handy verbunden. Somit können Einbrecher

verjagt werden, auch wenn man nicht Zuhause ist.

ARBEITSALLTAG

Produkt Funktionsbeschreibung

Findo Findo ist ein smarter Research-Assistent und hilft dem Nutzer dabei, abgelegte und

gespeicherte Dateien wiederzufinden. Mittels einer Beschreibung durchsucht Findo

verschiedene Speicherorte (Cloud, Dropbox, Outlook, Gmail, Evernote, Slack etc.)

und stöbert so die Datei auf, auch wenn Speicherort und Dateiname nicht mehr

bekannt sind.

Leap Leap schlägt dem Bewerber passende Unternehmen vor, basierend auf dem Le-

benslauf, den Skills und dem, was hinter dem Bewerber und dem Unternehmen

steckt. Ziel ist es den Perfect-Fit für Arbeitnehmer und -geber zu finden und den

Zeitaufwand bei der Suche zu minimieren. Leap nutzt hierfür Machine Leaning und

auf künstlicher Intelligenz basierendes Echtzeit-Feedback für Bewerbungen.

Page 146: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

143

Mosaic Der KI-Agent verhilft den Bewerbern zu besseren Bewerbungsschreiben und guten

Jobs. Die Bewerbungsschreiben werden beispielsweise optimal auf die Skills in Be-

zug auf die Jobbeschreibungen angepasst.

Newton Nachdem das Résumé analysiert wurde, wird das Web durchgängig, basierend auf

smarter KI-Technologie, nach passenden Jobangeboten durchsucht. Das Feedback

zu den gefundenen Stellen optimiert die weitere Suche. Zusätzlich ist es möglich mit

Newton über einen Messenger zu chatten.

Robby Robby kombiniert verschiedene Kalender zu einem und lernt vom Anwender, wel-

che Veranstaltung bevorzugt werden und welche zusätzlichen Events von Interesse

sein könnten.

Woo Woo unterstützt den Nutzer dabei, bessere Karriereentscheidungen zu treffen und

unterbreitet personalisierte, mögliche Job-Angebote. Der ganze Vorgang läuft ano-

nym ab.

GESELLSCHAFT, SOZIALES UND DATING

Produkt Tätigkeitsbeschreibung

BrightCrowd Bei BrightCrowd handelt es sich um eine Plattform, die sowohl dem Austausch von

Erfahrungswerten und Hilfedienstleistungen als auch dem Aufbau eines professio-

nellen Netzwerks dient. Dieses Netzwerk basiert auf Freunden und Freunden von

Freunden.

Capsule.ai Capsule ist eine KI-basierte App, die die Bewegungen, Routen und besuchten Orte

des Nutzes aufzeichnet und den dort gemachten Fotos zuordnet. Zusätzlich wird

eine metrische Auswertung erstellt, in der der Nutzer z.B. nachschauen kann, wann

er in der letzten Woche im Durchschnitt die Arbeit verlassen hat oder wie viele un-

terschiedliche Orte am Abend besucht wurden.

Dating.ai Dating AI ist die erste App mit integrierter Gesichter-Suche. Die angezeigten Vor-

schläge sollen dem Geschmack des Nutzers entsprechen und Personen anzeigen,

die den persönlichen Vorlieben entsprechen.

Eezy Basierend auf Empfehlungen übernimmt Eezy die Abendplanung.

HashMe HashMe unterstützt dabei, mehr Likes und eine größere Reichweite auf Instagram

durch relevante, passende Hashtags zu generieren.

Hotness.ai Hotness.ai bewertet anhand eines hochgeladenen Fotos, wie heiß die Person ist.

Nudge.ai Nudge.ai versorgt den Nutzer mit den neusten Unternehmensinformationen, sozi-

alen Aktivitäten und Einblicken in Beziehungen.

Rey Rey stellt ein Netzwerk an interessanten und auf den Nutzer abgestimmten Kontak-

ten zusammen. Für die professionelle Anwendung übernimmt Rey die Vorstellung

von Möglichkeiten im Bereich Sales, Fundraising, Investment etc..

BILDUNG, FORSCHUNG UND SPRACHKURSE

Page 147: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

144

Produkt Tätigkeitsbeschreibung

Thirdleap Thirdleap schafft eine Plattform für Bildung und nutzt personalisierte Teaching Ma-

chines, um sich genau an das Lerntempo und den Wissensstand des Schülers anpas-

sen zu können.

Woogie Durch eingebaute Sensoren ist Woogie der einzige pädagogische Roboter, der pro-

aktiv eine Unterhaltung mit dem Kind im passenden Moment anfangen kann oder

Informationen basierend auf den Interessen des Kindes liefert. Zusätzlich ist kein

Bildschirm für die Interaktion mit Roboter notwendig.

Eli Bei Eli handelt es sich um ein kleines Mikrofon, das am Kragen befestigt wird und

sich mit der dazugehörigen App verbindet, um Konversationen aufzuzeichnen und

zu analysieren. Auf Basis dieser Aufnahmen wird ein personalisierter Fremdspra-

chenunterricht generiert. Die Inhalte passen sich dem täglichen Sprachgebrauch

und Wortschatz an.

Liv.ai Liv.ai dient der Spracherkennung von neun der am weitesten verbreiteten Sprachen

und wandelt Sprache in Text um und anders herum. Das System funktioniert mit

den meisten Akzenten und in lauten Umgebungen.

Microsoft

Translator

Der Microsoft Translator ist ein Sprachübersetzer, der auf ein neuronales Netzwerk

aufbaut.

Apollo Auto-Abstract erstellt qualitativ hochwertige Zusammenfassungen von Nachrich-

tenartikeln und fasst den Inhalt basierend auf wichtigen Schlüsselwörtern in Stich-

punkten zusammen.

ferret ferret wertet das geschriebene Wort aus und bereitet die darin enthaltenen Infor-

mationen auf. Dabei nutzt ferret natürliche Sprachverarbeitung, Machine Learning

und Automated Services. Die Leistung umfasst u. a. das Training von KI zur Fake-

Account/Bot-Erkennung, Plug- und Play-Lösungen, Automatisierungs-Tools, News

und Social-Media-Alerting in Echtzeit und Daten-Aggregation.

Iris.AI Iris.AI abstrahiert das Schlüsselkonzept von wissenschaftlichen Arbeiten und visua-

lisiert es.

GESUNDHEIT, WEARABLES UND FITNESS

Produkt Tätigkeitsbeschreibung

Abi Abi stellt professionellen, medizinischen Rat für gesundheitliche Probleme zur Ver-

fügung. Der Nutzer kann die bevorzugte Sprache und das Land des Arztes wählen.

Die Ärzte können rund um die Uhr um Rat gefragt werden.

Ada Ada erstellt einen Zustandsbericht der eigenen Gesundheit und dient dazu, dass der

Nutzer seine eigene Gesundheit besser einschätzen kann. Zusätzlich kann im Chat

der Rat eines Arztes eingeholt werden, der Zugriff auf den von Ada erstellten Ge-

sundheitsbericht hat.

Page 148: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

145

Airi Airi ist eine gesprächsorientierte Intelligenz, die auf qualitativ hochwertige Daten

aufbaut und von den Angaben und Verhaltensmustern des Anwenders lernt. Somit

stellt Airi einen personalisierten Gesundheitscoach dar.

Alz.ai Alz.ai unterstützt in der Pflege von Menschen mit Alzheimer, indem es hilft sie zu

beaufsichtigen und bei Abwesenheit direkten Telefonkontakt herzustellen.

Amelie Bei Amelie handelt es sich um einen Chatbot, der bei Anliegen zur mentalen Ge-

sundheit kontaktiert werden kann. Amelie analysiert die Bedürfnisse des Nutzers

und schickt vertrauenswürdige Artikel.

bitesnap Der Nutzer kann ein Bild einer Mahlzeit in die App hochladen und bitesnap berech-

net die entsprechende Kalorienanzahl.

doc.ai doc.ai sammelt in großem Umfang ausführliche Gesundheitsdaten, um durch KI-ge-

steuerte Vorhersageanalysen eine Übersicht von Krankheiten weltweit zu erstellen.

Des Weiteren forciert doc.ai die Zusammenarbeit mit unterschiedlichen Partnern,

um personalisierte Entscheidungen zu Gesundheitsthemen fällen zu können. Bei

doc.ai ist das biologische Profil verbrauchergesteuert und basiert auf Block Chains.

Gyant Gyant ist ein Gesundheits-Chatbot, der sich durch die Antworten der Nutzer weiter-

entwickelt und die wahrscheinlichste Krankheit auf Basis der vorliegenden Symp-

tome ermittelt.

Kick.ai Durch hochmoderne Sensortechnologie zeichnet Kick.ai die Schnelligkeit von Kicks

und Effektivität von Kampftraining auf. Kick.ai analysiert welche Auswirkungen das

Training auf die eigene Kick-Metrik hat und bietet optimierte, personalisierte Übun-

gen an.

Kiwi Kiwi entwickelt Sensorerkennungs-SDKs* und -APIs und stellt die entsprechende

Technik für Apps, die einen Bewegungserkennungssensor einbauen wollen, zur Ver-

fügung. Kiwi SDK* liefert Ergebnisse und zeichnet die für die Anwendung relevante

Entwicklung auf.

Cue ist eine auf KI-basierende App von Kiwi, die Rauchern hilft, mit dem Rauchen

aufzuhören oder es zu reduzieren. Der Nutzer gibt an, wann er raucht und sammelt

Punkte fürs Hinauszögern oder Verzichten. Durch Machine Learning passt sich die

App den Lebenssituationen und dem Fortschritt des Nutzers an.

*Software Development Kit

Mara Die Mara-App sorgt beim Joggen für die notwendige Motivation, plant jede Route

und zeichnet gelaufene Distanzen auf. Über Ohrstöpsel und Sprachbefehle kann der

Nutzer Mara mitteilen, welche Art von Lauf gewünscht ist oder Fragen über Ge-

schwindigkeit, Location, Laufdauer oder Wetter stellen. Mara zeichnet den Prozess

auf und kann den Jogger von sich aus über Wetterbedingungen und Leistungsstand

informieren.

Tess by X2AI Tess bietet erschwingliche, on-demand und qualitativ hochwertige, personalisierte

psychische Gesundheitsfürsorge für jedermann in Form eines Chatbots und bedient

sich dabei psychologischer KI. Diese KI basiert nicht nur auf Big Data, sondern ist

Page 149: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

146

zusätzlich zustandsorientiert konstruiert. Das heißt, Tess lernt nicht nur durch vor-

herige Patienten und deren Aussagen und Reaktionen, sondern kann auch auf Pati-

enten, die bestimmte Schwellenwerte überschreiten (z.B. Bipolare Störungen), ein-

gehen.

Sleep.ai Durch Sleep.ai kann Schnarchen und Zähneknirschen im Schlaf diagnostiziert wer-

den und das Anti-Snore-Wearable hilft dabei, mit dem Schnarchen aufzuhören. Die

App verbindet sich mit dem Band, welches um den Oberarm gebunden wird, und

reagiert sehr sensibel auf Geräusche die durch Schnarchen und Zähneknirschen ver-

ursacht werden. Die App sendet ein Signal an das Armband, welches daraufhin an-

fängt zu vibrieren, was dazu führt, dass sich der Nutzer auf die Seite dreht und somit

in den meisten Fällen aufhört zu schnarchen.

PERSÖNLICHE ASSISTENTEN

Produkt Tätigkeitsbeschreibung

Amazon Echo

/ Alexa

Amazon Echo ist ein Lautsprecher, der mithilfe der Stimme kontrolliert wird. In Ver-

bindung mit dem Alexa Voice Service kann Echo Musik abspielen, Nachrichten emp-

fangen und senden, das Wetter, Sportergebnisse und vieles mehr abrufen. Darüber

hinaus funktioniert Echo mit kompatiblen Smart-Home-Geräten und steuert diese

über Sprachbefehle. Echo muss dauerhaft online sein, um zu funktionieren. Sobald

Schlüsselwörter wie "Alexa", "Echo" und "Amazon" fallen, überträgt Echo die Stim-

menkommandos an die Amazon-Server.

Apple Siri Siri ist die Sprachassistentin der iOS-Geräte. Sie dient der Erkennung und Verarbei-

tung von Sprache. Die komprimierten Sprachdaten werden an einen Apple-Server

gesendet, dort verarbeitet und das Ergebnis zurück an das genutzte Gerät gesendet.

Cortana Cortana ist die digitale Assistentin von Microsoft und unterstützt den Nutzer dabei,

Dinge zu erledigen, an Termine zu denken und produktiv über verschiedene Geräte

hinweg zu arbeiten. Dabei kann Cortana auf tausende Apps und Dienste zugreifen

und jeden Tag dazulernen.

Facebook M Facebook M war ein virtueller Assistent und ein von Facebook entwickelter Bot, der

über KI auf die Fragen der Nutzer eingehen konnte. Dafür wurde die KI zusätzlich

mit Menschen verknüpft, die hauptsächlich Fragen beantworteten und die KI trai-

nierten. M verbindete automatisch den Kontext einer Unterhaltung im Facebook

Messenger mit nützlichen Funktionen des Messengers (z.B. die Plan-Funktion). Die

aus dem Pilot-Projekt von Facebook gewonnen Erkenntnisse wurden dafür genutzt

Einblicke in die Nutzererwartungen und -anforderungen an virtuelle Assistenten zu

erhalten.

FOCUS FOCUS ist ein persönlicher Coach für Produktivität. Es können Ziele, Aufgaben, Stra-

tegien und Taktiken mit dem Chatbot diskutiert werden. FOCUS stellt sicher, dass

der Nutzer in einer immer schneller werdenden Welt auf Kurs bleibt. Basierend auf

Analysen und wissenschaftlichen Experimenten mit über 1000 Teilnehmern erhält

der Nutzer personalisierte Empfehlungen, Methoden und wöchentliche Übungen,

um einen gesunden, produktiven Lebensstil anzunehmen.

Page 150: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

147

Gatebox Gatebox ist ein virtueller Hausroboter. Der Anwender kann sich einen Charakter

aussuchen. Dieser wird in Form eines holographischen Anime-Assistenten in einer

Espressomaschine dargestellt.

Google Assistant Es handelt sich um einen persönlichen Assistenten für den Messenger Google Allo,

Google Home und iOS. Google Assistant verarbeitet gesprochene und eingegebene

Sprache. Somit können Fragen des Nutzers beantwortet werden und Dinge (wie z.B.

Nachrichten senden, Musik wiedergeben, Termine einrichten etc.) erledigt werden.

Hound Hound ist ein persönlicher Assistent für den täglichen Gebrauch und zeichnet sich

durch die Speech-to-Meaning-Technologie aus, die besonders schnell und genau

Sprachbefehle erkennt und versteht. Dabei erfasst die Hound-Technologie den Kon-

text und die Details zugleich.

Ling Die Produkte von Ling zeichnen sich durch KI mit "Seele" aus und dienen dazu einen

möglichst naturgetreuen Austausch zu ermöglichen. Das gleiche gilt für Roboter: Sie

sollen eher einem Lebewesen als einer Maschine ähneln. Die chinesische Antwort

auf Amazon Echo lautet: LingLong DingDong. Der digitale persönliche Assistent wird

durch die Stimme aktiviert und ist ein intelligenter Lautsprecher für Zuhause. Das

System kann einfache Frage beantworten, Musik abspielen und Wettervorhersagen

und Nachrichten vorlesen.

Remi Remi AI ist ein Unternehmen mit Forschungsschwerpunkt und arbeitet an KI, die auf

neurowissenschaftlichen Aspekten aufbaut. Die Remi App ist ein persönlicher Assis-

tent, der sich zurzeit noch im Beta-Stadium befindet. Die App wird sich ebenfalls

von der Neurowissenschaft inspirieren lassen und einen Assistenten mit multi-tas-

king Eigenschaften schaffen, um die Kommunikation zwischen Mensch und Ma-

schine auf die nächste Stufe zu heben.

Spoken Der Name Spoken steht für einen virtuellen Assistenten in Form einer mobilen Platt-

form, die eine gesprochene Zusammenfassung aller wichtigen und nützlichen Infor-

mationen aus den vorhandenen Apps generiert. Es handelt sich um einen Hub für

das voranschreitende, wachsende Ökosystem aus Apps, Informationsquellen und

internetfähigen Geräten.

CHATBOTS

Produkt Tätigkeitsbeschreibung

Luka Luka ist ein Messenger mit KI-Bots, der dem Nutzer hilft GIFS und lustige Videos zu

finden, Pläne zu schmieden, Plätze zu finden, Trivia-Spiele zu spielen und Spaß zu

haben. Beispielsweise ist es möglich alleine oder in der Gruppe mit dem Lieblings-

bot zu chatten.

MyWave Myia ist der Personal Assistent von myWave und hat sich zur Aufgabe gemacht, das

Leben des Nutzers zu vereinfachen, Aufgaben zu übernehmen, für die keine Zeit

bleiben und mehr Zeit für wichtige Dinge zu schaffen. Myia lernt, wer der Nutzer ist

und was seine speziellen Vorlieben sind. Dabei arbeitet Myia auf einer Customer-

Managed-Relationship-Plattform.

Page 151: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

148

Frank ist der proaktive Assistent von myWave, der den Nutzer bezüglich der Neben-

kosten in Neuseeland berät, den besten, erhältlichen Deal heraussucht und Fragen

rund um das Thema beantwortet.

Lyra Lyra basiert auf KI und zeichnet den individuellen CO2-Ausstoß auf, indem es das

Verhalten des Nutzers über den Tag hinweg registriert. Der Nutzer muss dafür mit

Lyra wie mit einem menschlichen Wesen agieren, um ein Verständnis für die Aus-

wirkungen der eigenen Handlungen und Angewohnheiten zu schaffen oder Lyra mit

anderen Apps und Geräten verbinden, um verhaltensbezogene Analysen zu ermög-

lichen. Mit einbezogen werden Emissionen die mit Reisen, dem Energieverbrauch

und Einkäufen in Verbindung stehen.

MEDIEN UND UNTERHALTUNG

Produkt Tätigkeitsbeschreibung

Jottr Jottr analysiert, welche Artikel und Nachrichten der Nutzer liest oder löscht und ge-

neriert aus diesen Daten Verhaltensmuster auf deren Basis dem Nutzer personali-

siertes Material vorgeschlagen wird. Zusätzlich hält Jottr passende Überraschungs-

artikel bereit, die den Horizont des Nutzers erweitern.

News360 Die News360-App lernt, was den Nutzer interessiert und welche Beiträge im Web

ihm gefallen. Die ausgewählten Themen werden in einer ansprechenden Form prä-

sentiert, sind immer auf dem aktuellsten Stand und können auch offline gelesen

werden.

Aiva Avia stellt emotionale Soundtracks zusammen und kommt in Filmen, Videospielen,

Werbung und zur Unterstützung des Storytellings zum Einsatz. Es handelt sich um

Künstliche Intelligenz, die die Musik der Zukunft komponiert.

Pandora Pandora personalisiert das Radio und spielt Musik, die auf den Geschmack des Zu-

hörers zugeschnitten ist. Dabei entwickelt sich Pandora mit der dem Geschmack des

Nutzers mit. Durch den Daumen-Button können Lieder bewertet werden und Pan-

dora lernt aus diesem Rating für die nächsten Vorschläge.

Spotify Spotify ist ein Dienst, der Musikstreaming anbietet und dem Kunden Vorschläge auf

der Basis von bereits angehörten Lieder unterbreitet.

NACHRICHTEN

Produkt Tätigkeitsbeschreibung

AI Weekly AI Weekly ist ein wöchentlich erscheinender Newsletter, der über Neuigkeiten im

Bereich KI und Machine Learning informiert.

Approximately

Correct

Approximately Correct ist ein Blog, der sich mit KI und technischen und sozialen

Perspektiven des maschinellen Lernens beschäftigt.

Axiomen Axiomen ist ein Newsletter, der alle zwei Wochen erscheint und sich hauptsächlich

mit Künstlicher Intelligenz auseinandersetzt.

Page 152: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

149

Concerning.ai Concerning.ai untersucht die Fragestellung, ob von Künstlicher Intelligenz ein Risiko

für die Menschheit ausgeht und was gegen die Gefahren, die KI mit sich bringt, un-

ternommen werden kann. Die Thematik wird in Form von Podcasts kommentiert.

Machine Learning

Weekly

Dieser wöchentlich erscheinende Newsletter beschäftigt sich vornehmlich mit Ma-

chine Learning und Deep Learning und dient dazu die Forschung auf diesem Gebiet

weiter voranzubringen.

REISEN UND URLAUB

Produkt Tätigkeitsbeschreibung

Emma Emma ist eine persönliche Reiseassistentin, die automatisch die anfallende Reise-

und Fahrtzeit berechnet und diese zusammen mit wichtigen Details in den Kalender

des Kunden einträgt. Das Programm arbeitet im Hintergrund und verbindet sich mit

dem Google Kalender des Nutzers.

ETA ETA überwacht den Kalender und erstellt vollständige Reiserouten. Zu dem Service

gehört zusätzlich, dass alle Reisebuchungen und Check-ins mit einem Klick erledigt

werden, ETA Überlandtransporte bucht und Upgrade-Anfragen bearbeitet. ETA

merkt sich die Vorlieben des Nutzers und unterrichtet ihn über zusätzliche, interes-

sante Leistungen, die für die Reise direkt in der App gebucht werden können.

HelloGbye Die HelloGbye-App plant und bucht gewünschte Reiseziele innerhalb von Sekunden.

Dem Kunden wird der Nachbuchungsgang bei einer Reiseroutenänderung abge-

nommen und Buchungs- und Änderungsgebühren entfallen. Zusätzlich erhält der

Kunde personalisierte Hotelempfehlungen und kann bei der Buchung Treuepunkte

sammeln.

Ready! Ready! nutzt ausgefeilte Algorithmen, um die aktuellsten Verkehrsaufkommen- und

Reisezeitprognosen zu treffen. Basierend auf diesen Daten wird auf zeitkritische

Termine hingewiesen und die optimale Reiseroute vorgeschlagen.

TRANSPORT

Produkt Tätigkeitsbeschreibung

Vinli Vinli ist eine Cloud-Plattform, die Funktionen eines „Smart Cars“ in jedes normale

Auto integrieren kann und das Auto zu einem 4G-LTE-WLAN-Hotspot umwandelt.

Die Plattform setzt sich aus 40 verschiedenen Apps zusammen und ist damit das

größte App-Ökosystem für Autos.

VERSICHERUNG UND RECHTSBERATUNG

Produkt Tätigkeitsbeschreibung

Docubot Bei Docubot handelt es sich um einen Chatbot, der mittels KI Rechtsfragen beant-

wortet. Somit bleibt dem Kunden der Gang zum Anwalt erspart und Rechtsexper-

ten haben den Vorteil, dass sie mehreren Kunden ihre Dienstleistung anbieten kön-

nen, ohne sich den Kalender mit Terminen zu füllen. Der Kunde meldet sich bei

Docubot an, wählt ein Dokument aus und lässt sich von Docubot durch den Prozess

führen.

Page 153: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

150

Driveaway Die Software von Driveaway unterstützt Autofahrer dabei ein sicheres Fahrverhal-

ten zu erlernen. Gleichzeitig hilft Driveaway Versicherungsfirmen dabei, gute Auto-

fahrer zu identifizieren und zu belohnen. Die Technologie baut auf KI, Sensor-Fusion

und Machine Learning auf und kann das Fahrtverhalten über das Smartphone des

Kunden bewerten.

E-COMMERCE

Produkt Tätigkeitsbeschreibung

Amazon Amazon ist ein Online-Versandhändler mit einer sehr vielseitigen Produktpalette.

Neben dem klassischen Verkauf, bietet Amazon weitere Dienste an (Amazon Video,

Audible, Alexa Internet, IMBd, Amazon Pay). Des Weiteren wird der eigene Suchal-

gorithmus A9 entwickelt, der hauptsächlich direkt auf Amazon angewendet wird.

Der E-Commerce-Riese bietet zusätzlich einen eigenen Cloud-Dienst an.

Zalando Zalando ist ein deutscher Versandhandel für Schuhe und Mode. Zalando kann mit

Hilfe von Big-Data-Analysen und einer skalierbaren In-Memory Datenbanklösung

auf die Kundenbedürfnisse eingehen und eine optimale Warenverfügbarkeit ge-

währleisten. Diese Erkenntnisse sind die Basis für hilfreiche, personifizierte Emp-

fehlungen, die wiederum dafür sorgen, dass der Kunde zum Webshop zurückkehrt

und dort im besten Fall erneut einkauft.

Alibaba Albibaba.com ist eine chinesische Plattform für Kommunikation und Handel. Das

Unternehmen bedient sich der Bereiche IoT, Cloud-Computing und KI und hat den

eigenen Bezahldienst Alipay eingeführt.

FINANZEN

Produkt Tätigkeitsbeschreibung

Abe AI Abe AI hilft Banken mit intelligenten Lösungen für den Kundensupport und bei der

Einbindung ihrer Services in verbreitete Konversationsschnittstellen (z.B. Amazon

Alexa, Facebook Messenger). Diese Konversationskanäle ermöglichen neue Per-

spektiven in puncto Kundenzufriedenheit, Kostenersparnisse und beispielloser For-

schung. Der Kunde erhält Zugriff auf seine Finanzinformationen durch sprach- und

textbasierte Interfaces. Mittels KI, Machine Learning und Natural Language Proces-

sing wurden Financial-Chatbots entwickelt, die als virtuelle Assistenten Fragen be-

antworten und stellen können und dem Kunden Zugriff auf seine Bankdaten gewäh-

ren.

Andy Andy ist eine auf KI basierende App, die als persönlicher Steuerberater den Kunden

unterstützt. Das Programm kann zu jederzeit Steueroptimierungsstrategien emp-

fehlen und Formulare ausfüllen.

Ara Ara kümmert sich darum, dass der Nutzer seine persönlichen Finanzen unter Kon-

trolle behält. Über den Facebook Messenger wird Ara über getätigte Ausgaben in-

formiert und kann bei Bedarf eine Übersicht erstellen.

BOND BOND ist ein intelligenter Agent, dessen Ziel es ist, eine Finanzstrategie für den Kun-

den auszuarbeiten. Dabei sollen vom Kunden geäußerte Ziele erreicht werden, in-

Page 154: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

151

dem tägliche Ausgaben, Investitionen in gewinnbringende Aktien und Schulden-

rückzahlungen von BOND optimiert werden. Dafür muss BOND mit dem persönli-

chen Bankkonto verbunden werden. Die Künstliche Intelligenz versteht die vom

Nutzer getroffenen Annahmen, Ziele und Grenzen und kann sich aktiv einbringen,

um für finanzielles Wachstum zu sorgen.

Mylo Mylo rundet automatisch jeden Kaufbetrag auf und legt es als Spargeld an. Dafür

sind auf Seiten des Nutzers keine Kenntnisse im Investitionsgeschäft notwendig und

Kaufgewohnheiten werden automatisch zu Spargewohnheiten. Mylo bedient sich

Künstlicher Intelligenz, um personalisierte Empfehlungen für finanzielle Entschei-

dungen aussprechen zu können.

SOCIAL MEDIA

Produkt Tätigkeitsbeschreibung

Firedrop Mit Sacha, der auf KI basierenden Designerin von Firedrop, ist es spielend einfach

eine Webpage zu bauen. Der Nutzer kann über intuitiven Sprachgebrauch oder ei-

nen Chat mit Sacha kommunizieren. Das Design der Internetseite wird individuell

an die Personalität und den Inhalt angepasst.

Millions Million generiert mit einem intelligenten SMS-Assistenten einen Style Guide, einen

Entwurf für die eigene Website und einen Domainnamen. Danach versorgt Million

den Nutzer jeden Monat mit einem neuen Merch-Design, aktualisiert die Internet-

seite regelmäßig mit dynamischen Inhalten und verschickt monatlich einen

Newsletter an die auf der Internetseite registrierten Mitglieder.

True Anthem Mittels KI wird die optimale Distribution von Inhalten auf den Sozialen-Medien-

Plattformen für die Herausgeber ermittelt. Die Entscheidungen werden anhand von

Datenanalysen getroffen und legen in Echtzeit fest, wann welcher Post am besten

veröffentlicht werden sollte um möglichst viel „Social Traffic“ zu generieren. Außer-

dem durchsucht True Anthem das gesamte digitale Archiv, um noch heute relevan-

ten Themen aufzustöbern und kümmert sich automatisch um die Terminierung der

Posts.

Signature Signature kann mit Hilfe von Social-Media-Accounts und Künstlicher Intelligenz eine

elegante Titelseite für die Internetseite bauen und somit der Website eine individu-

elle, digitale Identität verleihen.

GAMING

Produkt Tätigkeitsbeschreibung

Hello Neighbor Hello Neighbor ist ein Survival-Horror-Stealth-Video-Spiel. Ziel des Spiels ist es, sich

in den Keller des Nachbarn zu schleichen und dort ein Geheimnis zu entdecken. Die

KI des Spiels verändert das Verhalten des Nachbarn auf Grundlage der zuvor vom

Spieler gewählten Strategie und Wege.

Echo Das Spiel Echo verbindet Stealth-Games mit Machine Learning und passt sich dem

Verhalten des Spielers an. Die KI des Spiels sorgt dafür, dass der Feind von den Fä-

higkeiten der Protagonistin En lernt. Schießt En beispielsweise auf ihre Gegner, kön-

Page 155: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

152

nen diese im nächsten Level auch auf sie schießen. Der Spieler muss somit dauer-

haft seine eigene Taktik überdenken, quasi als würde er gegen sich selbst Schach

spielen.

No Man´s Sky Bei No Man´s Sky geht es um Überlebensstrategien und die Erkundung eines un-

endlichen Universums ohne Grenzen und Ladezeiten. Der Spieler entdeckt Plätze

und Kreaturen, die kein anderer Spieler zuvor gesehen hat oder eventuell jemals

sehen wird.

SONSTIGE

Produkt Tätigkeitsbeschreibung

CaptionBot.ai Der CaptionBot soll die Fähigkeiten von Microsoft Cognitive Services demonstrie-

ren. Das Programm erkennt den Inhalt von Fotos und kann so automatisch eine in-

dividuelle Bildbeschreibung für jedes Bild anfertigen. Dabei basiert der CaptionBot

auf Computer Vision API, Emotion API und Bing Image API.

#Laugh Mit dem globalen Kunstprojekt #Laugh soll das erste Kunstprojekt im Weltall ge-

schaffen werden. Lachen gilt als das menschlichste Geräusch und soll mittels eines

speziellen, schwerelosen Druckers auf der Internationalen Raumfahrtstation in ei-

ner 3D-Skulptur verkörpert werden. Über eine App kann jeder sein Lachen aufzeich-

nen und zur Verfügung stellen. Das Projekt dient dazu, der Menschheit zu ermögli-

chen Kunst in der Schwerelosigkeit zu schaffen.

Wixi Die dreiteilige Connected-Home-Plattform versteht, optimiert und erweitert die

vernetzte Welt. Die Wixi-App scannt das WLAN-Netzwerk und die angeschlossenen

Geräte des Nutzers, um die Geschwindigkeit und die Zuverlässigkeit der Internet-

verbindung zu optimieren, indem die App Probleme identifiziert und löst.

Token Token hilft dem Nutzer dabei, ein passendes Geschenk zu finden. Die Geschenke

werden aufwendig verpackt und es wird eine handgeschriebene Karte beigelegt.

Mittels KI und einigen Details über den Empfänger werden individualisierte Ge-

schenkevorschläge unterbreitetet.

Page 156: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

153

9.2 MARKTÜBERS ICHT : B2B-ANWENDUNGEN

AUDIO

Produkt Funktionsbeschreibung

Capio AI Capio AI ist ein Programm zur Spracherkennung und - verarbeitung. Es nutzt Deep

Learning, um eine auf natürlicher Sprache basierende Gesprächsschnittstelle zu

Geräten jeglicher Art zu schaffen.

Gridspace Gridspace ist eine Software, die Konversationen mithilfe von KI in Echtzeit analy-

siert und interpretiert, um so die Geschäftskommunikation von Unternehmen zu

verbessern. Dabei dekodiert Gridspace den Eingang von Text- und Tonnachrichten

und verarbeitet den Konversations-Feed automatisch.

MindMeld MindMeld ist eine KI-Plattform über die Unternehmen Konversationsassistenten

für Apps, Geräte oder Websites erstellen können. Hierbei nutzt MindMeld Deep-

Domain Conversational AI, um Nutzereingaben zu verstehen und diese mit benö-

tigten Informationen zu versorgen.

TalkIQ TalkIQ ist eine Echtzeit-Gesprächsanalyse-Software, die eine KI-Technologie zur

verbesserten Kundenkommunikation verwendet. TalkIQ analysiert die Kunden-

motivation, leitet Mitarbeiter durch Kundengespräche und schlägt Antworten auf

Kundenfragen sowie Sachverhalte vor.

Twilio Twilio unterstützt Entwickler beim Aufbau intelligenter Kommunikationssysteme

für Websites und Apps. Über eine Programmierschnittstelle können Entwickler

Cloud-basierte SMS-, Telefon-, Fax-, Video- und Chat-Kommunikationsplattfor-

men einrichten.

BUSINESS INTELLIGENCE UND ANALYTICS

Produkt Funktionsbeschreibung

Arago/HIRO HIRO ist eine KI-Technologie von Arago zur Optimierung von Unternehmens- und

IT-Prozessen für Firmen in allen Branchen. Der dynamische und universell einsetz-

bare Algorithmus kann zur Lösung einer Vielzahl von komplexen Problemstellun-

gen genutzt werden.

Arimo Arimo ist KI-Software, die Verhalten analysiert und Vorhersagen für kommerzielle

IoT-Applikationen trifft. Hierfür greift Arimo mithilfe von Deep Learning auf das

bisherige Verhalten von Maschinen, Geräten und Kunden zurück, um Unterneh-

men Möglichkeiten zur Management-, Produkt- und Prozessoptimierung aufzu-

zeigen.

Einstein Einstein ist ein intelligentes CRM-System innerhalb der Salesforce-Plattform, das

mithilfe von Deep Learning das Verhalten von Nutzern voraussagt. Auf dieser

Grundlage liefert Einstein Produkt- bzw. Handlungsempfehlungen, die auf die spe-

ziellen Unternehmensprozesse und Kundendaten abgestimmt sind.

Sundown Sundown ist ein KI-System, das sich wiederholende Aufgaben im Kundenservice

und im Verkauf automatisiert. E-Mail-, SMS- und Social Media-Anfragen können

Page 157: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

154

durch die Analyse der Kundeninteraktion in Kombination mit dem Einsatz von na-

türlicher Spracharbeitung und Machine Learning automatisch beantwortet wer-

den.

Prix Prix erlaubt es Hotels mithilfe seiner Softwarelösung Pace den Umsatz und die

Auslastung zu optimieren. Hierbei analysiert Pace die Buchungsdaten und das

Umsatzpotential von Hotelanbietern und gibt automatisierte Preisempfehlungen

und -prognosen.

CORE AI

Produkt Funktionsbeschreibung

Arya Arya.ai ist eine Plattform, die verschiedene Programme zum Erstellen, Managen

und zur Skalierung von Deep Learning Anwendungen bereitstellt. Mithilfe des Pro-

gramms können vereinfacht KI-Applikationen entwickelt und für den jeweiligen

Einsatz angepasst werden, sodass jeder Entwickler komplexe Geschäftsprobleme

lösen kann.

Fluid AI Fluid AI findet versteckte Beziehungen, Muster, Korrelationen und Ursachen in-

nerhalb großer Datenmassen zum Erschließen von Problemstellungen in diversen

Branchen und Abteilungen. Durch den Einsatz von Deep Learning-Algorithmen

entwickelt Fluid AI eine künstliche Intelligenz zum Lösen zu Grunde liegender

Probleme.

H2O.ai Die Open-Source Machine-Learning-Lösung H2O.ai ist eine Plattform für Entwick-

ler, die das Erstellen von intelligenten Anwendungen vereinfacht und eine Integra-

tion der generierten Algorithmen in eigene Applikationen unterstützt. Beispiels-

weise werden Prognosen für Betrugsversuche erstellt und die Abwanderung von

Kunden betrachtet. Zu den analysierten Bereichen gehören Marketing, Versiche-

rung, Finanzwesen und Telekommunikation.

Sentient Mithilfe von KI hat Sentient verschiedene Applikationen zum Lösen komplexer Ge-

schäftsprobleme für eine Vielzahl verschiedener Anwendungsbereiche entwi-

ckelt. Sentient lässt den Nutzer vollständig autonome Systeme erstellen, wodurch

sich u. a. im Bereich digitales Marketing Kampagnen optimieren, im E-Commerce

höhere Umsätze erzielen und im Finanzwesen Handelsstrategien wieterentwi-

ckeln lassen.

Ogma Ogma ist Anbieter einer KI-Technologie mit einem multidisziplinären Ansatz, der

auf einer Kombination aus Machine Learning, angewandter Mathematik dynami-

scher Systeme und Computer-Neurowissenschaft beruht. Durch diese Technolo-

gie lassen sich Deep-Learning-Algorithmen erstellen, deren selbstorganisatorische

Strukturen, Flexibilität und Effizienz mit dem menschlichen Gehirn vergleichbar

sind.

DATEN SCRAPPING

Produkt Funktionsbeschreibung

Amazon MTurk ist ein virtueller Marktplatz von Amazon, der es Unternehmen erlaubt, zeit-

lich unbeschränkt "menschliche Intelligenz" in Applikationen zu integrieren und

Page 158: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

155

Mechanical Turk einfache Aufgaben zu automatisieren, die Computer bisher noch nicht im Stande

sind zu erfüllen. Durch ein bedarfsorientiertes Arbeitskraft-Management lassen

sich hierdurch Lohnkosten senken.

Datalogue Datalogue verwendet KI, um Daten jeglicher Art und aus beliebiger Quelle zu ver-

arbeiten und zum sofortigen Einsatz bereitzustellen. Hierfür standardisiert und

zerlegt Datalogue Datensätze automatisch und findet Redundanzen.

Import.io Import.io nutzt Machine-Learning-Algorithmen, um Daten von Websites automa-

tisch zu extrahieren. Darüber hinaus erlaubt Import.io das Überwachen von Ver-

änderungen auf Websites sowie das Vergleichen von Daten zwischen verschiede-

nen Websites.

Playment Um Unternehmen aus den Bereichen E-Commerce, Bankenwesen und autonomes

Fahren bei Bildannotationen sowie bei der Transkription, Erfassung und Analyse

von Daten zu unterstützen, setzt Playment eine Mischung aus künstlicher und

(crowdsourced) menschlicher Intelligenz ein. Hierfür zerlegt die Plattform eine

Aufgabenstellung zunächst in Mikroaufträge, die im Anschluss von Nutzern über

eine gamifizierte App erfüllt werden.

WorkFusion Workfusion automatisiert Geschäftsprozesse durch die Kombination von roboter-

gesteuerter Prozessautomatisierung, Machine Learning, KI-gestützter kognitiver

Automatisierung und Arbeitskraftorchestrierung. Hierbei wird menschliche und

künstliche Intelligenz miteinander verbunden, um die Produktivität, Agilität und

Dienstleistungserbringung von Unternehmen zu verbessern.

DATENWISSENSCHAFT

Produkt Funktionsbeschreibung

Dataiku Dataiku bietet über seine Software DSS eine Plattform, die alle nötigen Schritte

und Werkzeuge zur Erstellung, Prototyp-Prüfung, Ausführung und Wartung von

datengesteuerten Anwendungen in einer Applikation vereint.

Kaggle Kaggle ist eine Plattform für Datenspezialisten, die über eine Website in verschie-

denen Wettbewerben miteinander konkurrieren, in denen diese durch den Ein-

satz von Machine Learning komplexe Problemstellungen lösen. Durch das Aus-

schreiben von Preisgeldern können Unternehmen auf diese Art und Weise reale

Aufgaben durch die Community von Kaggle lösen lassen.

SherlockML SherlockML ist eine Cloud-Plattform, die den Zugriff auf Datensätze vereinfacht

und Werkzeuge zur Datenbearbeitung bereitstellt. Zudem ermöglicht SherlockML

das Designen, Testen und Generieren von KI-Modellen zur Lösung von Geschäfts-

problemen.

SparkBeyond SparkBeyond ist der Anbieter einer automatisierten Suchmaschine, die es Nutzern

erlaubt, in natürlicher Sprache nach komplexen Mustern in Datensätzen zu su-

chen. Die gewonnenen Einblicke können daraufhin zur Optimierung von Ge-

schäftsprozessen und zur Ergebnisvorhersage genutzt werden.

Yseop Yseop automatisiert das Schreiben von Berichten, Websites, E-Mails etc. durch

den Einsatz einer natürlichen Sprachverarbeitungs-Software. Die Software ist in

Page 159: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

156

der Lage mittels KI automatisch Schlussfolgerungen zu ziehen und pro Sekunde

mehrere tausend Textseiten und Dialoge in verschiedenen Sprachen zu generie-

ren.

FORSCHUNG, ENTWICKLUNG UND PROGRAMMIERUNG

Produkt Funktionsbeschreibung

Anodot Anodot ist eine automatisierte Detektionsplattform, die Machine-Learning-Algo-

rithmen zur Echtzeitidentifizierung von kritischen Geschäftsvorfällen, Anomalien

und Datenausreißern verwendet. Hierdurch wird die Latenz kritischer Geschäfts-

prozesse verringert.

Gigster Gigster bietet einen Softwareentwicklungsservice mit einem On-Demand-Ansatz

zu einem Fixpreis an. Hierfür gewährt Gigster seinen Kunden Zugang zu einem

Netzwerk von Fachexperten aus den Bereichen Entwicklung, Design, KI und Pro-

duktmanagement.

Morph.ai Morph.ai ist eine Chatbot Software-Suite, die es Unternehmen gestattet persona-

lisierte automatische Dialogsysteme selbst zu erstellen und zu managen, um so

ihre individuelle Zielgruppe besser erreichen zu können.

Turtle Die Projektmanagement- und Chat-Software Turtle.ai vereinfacht die Zusammen-

arbeit zwischen Teammitgliedern im Bereich Softwareentwicklung. Zudem inte-

griert Turtle ein Tool zur Anstellung und Projekteinbindung von externen Soft-

wareentwicklern.

Gesture.ai Gesture.ai ist eine leicht zu implementierende Technologie zur Erkennung von

Gesten für Softwareentwickler sowie ein Softwareentwicklungssystem, das da-

rauf zielt, interaktive Gestenerkennung für Entwickler jeder Fähigkeitsstufe zu-

gängig zu machen.

Tangle Tangle ist ein Programm zur vereinfachten Entscheidungsfindung im Bereich De-

sign und Strategie. Hierfür setzt Tangle nicht auf traditionelle Tabellenkalkulatio-

nen, sondern betrachtet die verschiedenen Möglichkeiten, Ursachen und Fakto-

ren. Der Unterschied zu anderen Entscheidungshelfern liegt darin, dass Tangle le-

diglich den Umgang mit schwierigen Situationen, jedoch nicht die Problemstellung

an sich, vereinfacht.

INTERNE ANALYSE

Produkt Funktionsbeschreibung

Deckard.ai Deckard.ai ist eine Projektmanagementsoftware mit der sich durch KI Zeitschät-

zungen automatisieren und Sprint-Planungen optimieren lassen. Hierfür schätzt

Deckard.ai die benötigte Zeit für eine Aufgabe selbst ein und passt die Projektpla-

nung automatisch an.

Page 160: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

157

IBM Watson IBM Watson ist ein kognitives System, das seinen Nutzern ermöglicht Daten aus

Text-, Bild-, Audio- und Videodateien zu analysieren und personalisierte Empfeh-

lungen zu erhalten. Hierfür wertet IBM Watson mithilfe von Machine Learning

verschiedene Nutzerparameter wie Persönlichkeit und Emotionen aus.

Sapho Das "Modern Portal" von Sapho personalisiert und vereinfacht Unternehmensan-

wendungen für Mitarbeiter und fasst alle Systeme auf einer einzigen Portalseite

zusammen. Hierfür verwendet Sapho Micro-Apps, die auf bestehenden IT-Syste-

men aufbauen und Mitarbeiter mit Benachrichtigungen u. a. über anstehende

Aufgaben und wichtige Änderungen in den Geschäftsdaten versorgen.

OneFactor OneFactor ist ein Anbieter für KI-Dienstleistungen speziell für Unternehmen mit

Fokus auf die Automatisierung von Entscheidungsprozessen in den Bereichen Ri-

sikomanagement, Einzelhandel und Werbung. Darüber hinaus entwickelt oneFac-

tor Machine-Learning-Algorithmen und Geoinformationsdienstleistungen zur Op-

timierung von Arbeitsvorgängen und Lösung von Geschäftsproblemen.

Rainbird Rainbird ist eine KI-gestützte Entscheidungsfindungs-Plattform, die es Unterneh-

men ermöglicht, Geschäftsprozesse zu optimieren, zu vereinfachen und zu auto-

matisieren. Hierfür trifft Rainbird auf Grundlage von Daten automatisierte Ent-

scheidungen, Vorhersagen und Empfehlungen.

CORE MACHINE LEARNING

Produkt Funktionsbeschreibung

Datacratic Als Anbieter für Zielgruppendaten unterstützt Datacratic Unternehmen dabei, ef-

fektivere und gezieltere Marketingkampagnen für ihre Marken zu erstellen. Durch

die Kombination aus Machine Learning, KI und Technologien in der digitalen Wer-

bung, hilft Datacratic seinen Nutzern bei der Verbesserung der Zielgruppenan-

sprache.

Deepsense.ai Deepsense.ai ist ein Dienstleister für KI-Lösungen, der Unternehmen ohne Exper-

tise im Bereich Data Science dabei unterstützt Machine Learning Modelle und KI-

gestützte Prozesse zu entwickeln.

HyperScience HyperScience entwickelt KI-Lösungen zur Automatisierung von bestimmten Pro-

zessen im Büro und zur Reduzierung des bürokratischen Aufwands von Unterneh-

men und Behörden und deren Kunden.

SigOpt SigOpt ist ein Anbieter zur Beschleunigung von Machine-Learning-Modellen. Hier-

für schlägt SigOpt seinen Nutzern basierend auf Bayes'scher Optimierung Para-

meterkonfigurationen vor.

Amazon Machine

Learning

Amazon Machine Learning on AWS bietet eine Reihe von Programmierschnittstel-

len, mit denen Entwickler verschiedener Fähigkeitsstufen Machine Learning prob-

lemlos nutzen und in jede Anwendung integrieren können. Hierfür werden ver-

schiedene gebrauchsfertige Anwendungsprogrammschnittstellen in den Berei-

chen Bilderkennung, Konversation und Sprache bereitgestellt.

CONNECTED EVERYTHING, IOT UND SENSOREN

Page 161: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

158

Produkt Funktionsbeschreibung

Black.ai Black.ai ist ein Anbieter von Ortungssystemen mit "Plug-and-Play"-Funktionalität.

Hierfür zeichnet eine Blackbox Bewegungs- und Verhaltensmuster mithilfe eines

3D-Sensorsystems auf und hilft so bei der Entwicklung von autonomen Systemen.

KONUX KONUX bietet IoT-Lösungen für industrielle Anwendungen und das Bahnwesen an

und nutzt hierfür intelligente Sensoren, Datenfusion und KI. So können Überwa-

chungssysteme, Zustandsanalysen sowie die Instandhaltungsplanung unterstützt

und vorausschauend geplant werden.

Planet OS Planet OS bietet Big-Data-Infrastrukturen, die Energiefirmen mit Fokus auf erneu-

erbare Energien dabei helfen, umweltbezogene Daten besser zu nutzen. Über ver-

schiedene Anwendungen können solche Daten besser in bestehende Systeme in-

tegriert und mit diesen ausgetauscht sowie visualisiert werden.

Snips Snips ist ein Anbieter von Spracherkennungs- und -verarbeitungssystemen, durch

die sich Alltagsgeräte wie Radios, Kaffee- oder Waschmaschinen steuern lassen.

Der angebotene Sprachassistent verfügt über KI und nutzt Machine-Learning-Al-

gorithmen zum Verstehen natürlicher Sprache, zur Transformation und zur Erken-

nung von aktivierenden Wörtern.

Verdigris Mithilfe der Hard- und Software von Verdigris können Unternehmen ihren Ener-

gieverbrauch analysieren und -bedarf vorhersagen, um so Gebiete mit Optimie-

rungs- und Einsparungspotential aufdecken zu können. Hierfür bietet Verdigris ei-

nen intelligenten Sensor zum Nachverfolgen sowie ein Internet-Dashboard zur

Überwachung des Verbrauchs.

TEXTANALYSE UND -KREATION

Produkt Funktionsbeschreibung

Agolo Agolo nutzt KI, um automatisch inhaltliche Zusammenfassungen aus verschiede-

nen internen bzw. externen Dokumenten und Informationsquellen zu erstellen.

Zu diesem Zweck scannt Agolo die ausgewählten Dokumente, erkennt Zusam-

menhänge zwischen den Quellen und deckt die wichtigsten Informationen auf.

Textio Textio ist eine Software, die Unternehmen dabei unterstützt, effektivere Stellen-

anzeigen zu schreiben. Durch die Analyse einer Vielzahl von Jobausschreibungen

bewertet Textio die Qualität von Unternehmensanzeigen und schlägt in Echtzeit

Verbesserungen vor.

AX Semantics Die Software von AX Semantics erstellt automatisierte Massentexte wie Produkt-

anzeigen für Onlinehändler und kann diese in verschiedenen Sprachen generie-

ren. Hierbei greift AX Semantics auf KI zurück, um auf Basis klassifizierbarer Daten

nutzerkonfigurierte Inhalte zu erstellen.

Retresco Retresco ist ein Anbieter KI-basierter Automatisierung von digitalen Inhalten. Die

Expertise von Retresco reicht von semantischen Analysen zur inhaltlichen Er-

schließung von Texten über die Generierung von Themen-Managementsystemen

Page 162: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

159

bis hin zur automatischen Erstellung von datenbasierten Texten wie Sportbericht-

erstattungen, Produkttexten oder Marktanalysen in natürlicher Sprache.

Wordsmith Wordsmith ist eine Plattform, die natürliche Sprache generiert und Daten in nar-

rative Texte transformiert. Wordsmith's Technologie ist integrierbar in eine Reihe

von Anwendungen und bietet eine Programmierschnittstelle zur Erstellung von

Textinhalten in den Bereichen Finanzwesen, E-Commerce, Sport, Business Intelli-

gence, etc..

VISION UND VIDEO

Produkt Funktionsbeschreibung

Achron Bei Achron handelt es sich um einen Anbieter von autonomen Drohnen für den

industriellen Einsatz. Die Drohnen werden zur Videoüberwachung, zur Inspektion

oder beispielweise zum 3D-Mapping verwendet. Hierfür setzt Achron auf KI zur

Automatisierung der unbemannten Fluggeräte.

Affectiva Durch das Auswerten verschiedener Parameter erkennt die Emotionserkenungs-

software von Affectiva über eine Standardwebcam spezielle Emotionen und Ge-

sichtsausdrücke von Nutzern. Hierdurch können Unternehmen Einblicke in die

emotionale Reaktion ihrer Kunden erhalten, um so ihre Produkte anzupassen bzw.

zu verbessern.

GrokStyle GrokStyle ist Anbieter einer visuellen Suchmaschine für die Bereiche E-Commerce

und Einzelhandel. Mithilfe eines Deep-Learning-Algorithmus können Bildobjekte

erkannt und es kann nach gleichen bzw. vergleichbaren Produkten gesucht wer-

den, ohne dass manuelle Beschreibungen vorgenommen werden müssen.

Flixsense Flixsense bietet eine intelligente Videoinhaltsanalyse-Lösung für verschiedene Be-

reiche wie Sport, Umwelt und Medien. Durch den Einsatz von Deep-Learning-Al-

gorithmen können so Objekte, Menschen und Aktionen automatisch erkannt und

in praktisch umsetzbare Erkenntnisse umgewandelt werden.

Lunit Inc Lunit Inc. hat mit Hilfe von Deep Learning eine Software zur Analyse, Auswertung

und Interpretation von medizinischen Daten und Bilddateien entwickelt. Ärzte sol-

len so dabei unterstützt werden, genauere, auf Daten basierende, einheitliche

und effizientere Behandlungsentscheidungen zu treffen.

Sticky.ai Sticky.ai ist eine Cloud-Plattform, die anhand von biometrischen Daten Blick- und

Emotionsverläufe erkennt und dokumentiert. Hierdurch können u. a. Vermarkter,

Agenturen, Designer und Marktforscher Medien und Kampagnen erfolgreicher

gestalten.

Irvine Sensors Irvine Sensors ist ein Unternehmen, das Sensoren- und Kamerasysteme zur Über-

wachung entwickelt. Durch die automatische Analyse von Videoaufnahmen kön-

nen so kritische Szenarien wie schädliche Fremdkörper und absichtlich abgestellte

Objekte schneller erkannt werden, um hierdurch schneller entsprechende Maß-

nahmen ergreifen zu können.

CHATBOTS

Page 163: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

160

Produkt Funktionsbeschreibung

Msg.ai Msg.ai ist eine KI-Lösung zum Managen und Analysieren von verschiedenen Mes-

saging-Präsenzen von Unternehmen auf verschiedenen Plattformen mithilfe eines

an den Kunden angepassten Dashboards. Durch den Einsatz von Deep Learning

lassen sich so intelligente Chatbots für die Bereiche Marketing, Kundenservice so-

wie im Handel einrichten und verwalten.

Chatfuel In nur wenigen Minuten und ohne benötigte Programmierkenntnisse ermöglicht

Chatfuel das Erstellen von Facebook-Chatbots für verschiedene Branchen. Durch

den Einsatz von künstlicher Intelligenz versteht der Chatfuel-Algorithmus die Nut-

zereingaben und beantwortet Anfragen vollautomatisch.

Unu.ai Mithilfe von UNU können Personen Fragen stellen und durch eine Community be-

antworten lassen. Durch das Zusammenwirken von Gruppenintuition sowie dem

kollektiven Wissen der Nutzer wird eine Form von künstlicher Schwarmintelligenz

erzeugt, die bspw. dazu genutzt werden kann, Entscheidungen zu treffen oder

Vorhersagen zu machen. Die Themen der Fragen sind nicht begrenzt.

Kriya.ai Kriya.ai ist eine KI-Plattform über die Freiberufler ihre Arbeit verwalten und neue

Aufträge finden können. Gleichzeitig bietet Kriya.ai Unternehmen die Möglichkeit

unmittelbar und automatisiert die richtigen Personen für ihre Projekte zu ver-

pflichten. Hierfür nutzt die Plattform einen eigenen Sofortnachrichtendienst um

die Projektpartner miteinander zu verbinden und Zahlungen abzuwickeln.

Pandorabots Pandorabots ist ein Webdienst zur Erstellung und zum Testen von künstlich intel-

ligenten Chatbots. Über eine integrierte Entwicklungsplattform können diese

textbasierten Dialogsysteme erstellt und in externe Applikationen integriert wer-

den. Pandorabots bietet zudem verschiedene Funktionen zur individuellen Anpas-

sung, unterstützt mehrsprachige Texteingaben und ermöglicht es Schnittstellen

zur Unterstützung natürlicher Sprache einzufügen.

BRiN BRiN unterstützt durch sein auf KI basierendes System Millionen Entrepreneure

im Bereich personalisierte Bildung auf eine menschenähnliche Art und Weise. Ziel

ist es, Gründern beim Aufbau eines erfolgreichen Unternehmens beratend zur

Seite zu stehen. Dabei hält BRiN die Antwort auf fast jedes Problem, das kleineren

Unternehmern begegnet, parat und versorgt den Nutzer mit Lösungen und Hand-

lungsempfehlungen in kürzester Zeit.

CRM

Produkt Funktionsbeschreibung

Dynamic Yield Dynamic Yield ist eine Personalisierungsplattform, die es Unternehmen ermög-

licht Kampagnen nutzergerecht über alle Kanäle zu personalisieren und optimie-

ren. Durch eine Machine Learning-gestützte Kundensegmentierung können so

in Echtzeit Produktempfehlungen gegeben und verhaltensgerechte Nachrichten

versendet werden, um hierdurch Umsätze und Conversions zu steigern.

Page 164: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

161

Rep.ai Durch den Einsatz der Multikanal-Kundenkommunikationsplattform Rep.ai ha-

ben Vertriebsmitarbeiter über eine einzige Plattform Zugriff auf alle unterneh-

mensweiten Kundendatensätze und die Möglichkeit über die Anwendung direkt

mit dem Kunden zu korrespondieren ungeachtet des durch den Kunden genutz-

ten Kommunikationsmittels. Zudem lässt sich Rep.ai in bestehende E-Commerce

und Auftragsabwicklungssysteme integrieren.

Kasisto Die auf KI basierende Konversationsplattform KAI bietet verschiedene virtuelle

Assistenten zur Integration in Apps, Websites, Nachrichtendienste und IoT-Ge-

räte. Durch die Spezialisierung der Bots in spezifische Gebiete wie Finance, Han-

del, etc. können die Dialogsysteme intelligent mit Kunden interagieren. Natürli-

che Sprachverarbeitung und Spracherkennung ermöglichen eine menschenähn-

liche Verständigung mit dem virtuellen Assistenten.

Maia Maia ist ein virtueller Assistent, der Vertriebsmitarbeiter dabei unterstützt, mit-

hilfe von KI und Machine Learning große Datenmengen aus dem CRM-System zu

analysieren. Unter Verwendung von natürlicher Sprachverarbeitung werden die

gewonnenen Erkenntnisse in handlungsorientierte Empfehlungen umgewandelt

und dem Nutzer vorgeschlagen.

Cogito Cogito ist Anbieter einer Software zur Unterstützung der Gesprächsführung für

professionelle Telefonisten, die KI und verhaltenswissenschaftliche Erkennt-

nisse einsetzt, um Verhaltenssignale in der Stimme zu erkennen und auszuwer-

ten. Dem Nutzer werden dann in Echtzeit Informationen zur Kundenbefindlich-

keit und Empfehlungen zur Konversationsführung übermittelt.

MARKTFORSCHUNG

Produkt Tätigkeitsbeschreibung

Tanjo Tanjo erstellt animierte Darstellungen von Buyer-Personas und Kundensegmen-

ten. Mit Hilfe des Programms kann das Unternehmen in Echtzeit nachvollziehen,

an was die Kunden interessiert sind und womit sie ihre Zeit verbringen. Diese

Daten helfen Marktfoschern und Produktdesignern dabei, die Bedürfnisse der

Zielgruppe zu verstehen.

Dataminr Noch bevor Neuigkeiten in den Nachrichten auftauchen, werden die Nutzer von

Datminr über einschlägige, wichtige Informationen und bedeutende Events be-

nachrichtigt. Der Wissensvorsprung ermöglicht den Unternehmen schneller zur

reagieren. Dataminr nutzt innovative KI für die Klassifizierung und Echtzeit-Er-

kennung signifikanter öffentlicher Informationen. Millionen Menschen teilen

der Welt auf Social-Media-Plattformen mit, was sie sehen und Dataminr gene-

riert aus diesen Echtzeit-Daten einen globalen Augenzeugen-Sensor, der die In-

formationen in Warnmeldungen umwandelt.

Predata Predata verbindet alternative Informationsquellen mit Machine Learning, um

gesellschaftliche Daten in Risiko-Signale, Marktindikatoren und Prognosen um-

zuwandeln. Die Analyse-Plattform bietet Finanzexperten die Möglichkeit alter-

Page 165: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

162

native Daten aus sozialen und kollaborativen Medien in ihre Investmentstrate-

gien miteinzubeziehen. Das Unternehmen erhält Warnmeldungen über aktuelle

Risiken.

Mattermark Mattermark ermöglicht es, den richtigen Ansprechpartner im entscheidenden

Unternehmen zu ermitteln. Die Datenbank enthält detaillierte Unterneh-

mensprofile, über 20 Millionen E-Mail-Adressen von Personal in Schlüsselpositi-

onen und registriert Unternehmens-Wachstumssignale.

Quid Quid ermöglicht eine Vogelperspektive auf Top-Investments, Marktgröße,

Wachstum und Hindernisse. Auf einen Blick erkennt der Nutzer sowohl aufkom-

mende Technologien als auch IP-Landschaften und kann jede Branche durch-

dringen. Mit Hilfe von Quid können Unternehmen Trends und treibende Kräfte

erkennen und diese für Investitionen und Übernahmen nutzen. Das Programm

vereint menschliche Intuition und Machine Learning, um Organisationen eine

bessere Entscheidungsbasis zu ermöglichen.

KUNDEN-SUPPORT

Produkt Tätigkeitsbeschreibung

Agent.ai Agent.ai sorgt dafür, dass häufige Kundenanfragen innerhalb von Sekunden be-

antwortet werden. Zusätzlich können Fragen innerhalb des Teams geklärt wer-

den. Das Programm lernt durch FAQs, historische Tickets, die Supportdokumen-

tation und funktioniert auf allen verbreiteten schriftlichen Kommunikationska-

nälen. Agent.ai definiert automatisch die einzelnen Kundensegmente anhand

des Customer Lifetime Values.

Clarabridge Clarabridge analysiert das Feedback von Kunden und konzipiert worauf die Kun-

denwahrnehmung basiert. Auf diese Daten gestützt, übernimmt Clarabridge das

Beantworten von Anfragen und die Optimierung des Geschäfts.

Smith Smith ist ein virtueller Rezeptionist und nimmt Anrufe für kleinere Unternehmen

und einzelnen Personen entgegen. Die Gespräche werden durch eine Person mit

Sitz in den USA angenommen und durch eine intelligente Software ergänzt. Dies

ermöglicht eine persönliche Betreuung inklusive Screening und Prioritätenset-

zung. Dabei wird gleichzeitig eine detaillierte Kunden-Anrufliste-Übersicht ange-

legt, für die zu jedem Gespräch eine Zusammenfassung angefertigt wird.

Eloquent Labs Eloquent Labs kombiniert Conversational-KI mit einem Live-Chat und bearbeitet

eingehende Supportanfragen. Durch das Programm kann das Unternehmen ge-

währleisten einen 24-Stunden-Service anzubieten. Mit Conversational-KI und ei-

ner Kunden-Metadaten-Cloud können sich wiederholende Probleme automa-

tisch gelöst werden.

Zendesk Zendesk baut Software-Programme, die einer besseren Kundenbeziehung die-

nen. Die Produkte ermöglichen es dem Unternehmen zuverlässiger, flexibler

und skalierbar auf die Bedürfnisse des Kunden einzugehen. Kundensupport-An-

liegen werden erfasst, priorisiert und zielführend bearbeitet. Alle verfügbaren

Informationen über die Kunden werden zentral gesammelt. Der personalisierte

Page 166: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

163

Service basiert sowohl auf Machine Learning als auch auf Kunden- und Daten-

analysen.

MARKETING

Produkt Tätigkeitsbeschreibung

AirPR AirPR ist eine Analyse-Plattform für Content-Vermarktung und PR. Welchen Ef-

fekt haben PR-Maßnahmen auf die Rendite? Wie kann die Entwicklung gemes-

sen werden? Die Plattform ermittelt Daten, die einen direkten Zusammenhang

zwischen der Öffentlichkeitsarbeit und den Geschäftskennzahlen herstellen. Zu-

sätzlich wird verdeutlicht, in welchem Ausmaß die jeweiligen Artikel, Autoren

und Influencer die Markenbindung beeinflussen.

Albert Die KI-Marketing-Plattform reduziert die Komplexität des modernen Marke-

tings, indem Albert viele der zeitintensiven, manuellen Tätigkeiten übernimmt.

Dadurch ist eine effektivere und effizientere Interaktion mit dem Kunden mög-

lich. Albert arbeitet konsequent an einer konstanten Verbesserung und Analyse

der Firmenkampagne. Zu den Schwerpunkten zählen: Autonomous Targeting,

Autonomous Media Buying, Cross-Channel Execution, Testing & Optimization

und Analytics & Insights.

Amplero Amplero vereint adaptive Experimente und Machine Learning zu einer KI-Mar-

keting-Plattform. Die Technologieplattform des Unternehmens wird mit Daten-

quellen verbunden. Dabei werden die Interaktionen mit dem Kunden kontinu-

ierlich optimiert und manuelle Prozesse reduziert, um sich der Geschwindigkeit

des modernen Kunden anzupassen. Mit Amplero kann der "Customer Lifetime

Value" in einem Maße gesteigert werden, wie es nicht von Menschenhand mög-

lich wäre.

Automat Automat beschäftigt sich hauptsächlich mit der Optimierung von Conversational

Marketing, der Schnittstelle von Künstlicher Intelligenz und dem Austausch von

Nachrichten. Mit Hilfe von Conversational Marketing können Unternehmen per-

sonalisierte Einzelgespräche mit ihren Kunden in einer neuen Größenordnung

führen. Durch die KI des Programms kann das Unternehmen neue Erkenntnisse

über Kundenbedürfnisse erlangen und die Kommunikation über Messaging-Ka-

näle ideal für sich nutzen.

Persado Persado ist eine Marketing-Cloud, die die verwendete Sprache auf die Ziel-

gruppe abstimmt. Der Sprachgebrauch und das Vermitteln von Emotionen in-

spiriert den Gesprächspartner zu Handlungen. Die KI-Solution-Cloud basiert auf

der weltweit größten Datenbank mit über einer Million Wörter für den Ge-

brauch im Marketing und ermöglicht es den Unternehmen, sich mit den Kunden

individuell auf allen Kommunikationskanälen auszutauschen.

SALES

Produkt Tätigkeitsbeschreibung

6sense Das Ziel von 6sense ist es, dem Marketing- und Sales-Team eine vollständige

Übersicht über die Käufer und deren Bedürfnisse zu liefern, um das Timing zu

Page 167: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

164

optimieren. Wer im Markt kauft welches Produkt und zu welchem Zeitpunkt?

Zusätzlich versorgt 6-Sense das Team mit einer umfassenden Rundum-Analyse

des Marktes, der entsprechenden Nachfrage und des jeweiligen Umsatzes.

Aviso Die Aviso-Technologie und die auf KI basierenden Einblicke werden von den Sa-

les-Teams bei Apttus, Zuora und RingCentral dazu genutzt, äußerst akkurate

Prognosen zu treffen, Deals durch die Pipeline zu bringen und die richtigen Ge-

schäfte zu fokussieren. Mit dieser einzigartigen Zusammenstellung von Progno-

sen, kann ein Unternehmen einschätzen, ob die Quartals-Planung aufgeht, was

dem Ziel im Weg steht und wie die Ergebnisse im Quartal optimiert werden kön-

nen.

BloomReach BloomReach ist eine offene, intelligente digitale Plattform und ist darauf ausge-

legt, herauszufinden, was für eine gute Beziehung zum Kunden notwendig ist.

Die Plattform analysiert das Kundenverhalten und ermöglicht es dem Auftrag-

geber mehr über das Kundenengagement, die Kundenkonversion und das lang-

fristige Erfolgspotential der eigenen Marke herauszufinden.

Chorus.ai Die Plattform zeichnet Meetings in Echtzeit auf. Dabei führt das Programm eine

automatisierte Analyse des Geschäftstermins durch, um dem Nutzer einen kriti-

schen Einblick in die Vertriebsmöglichkeiten und die eigene Performance bei

Meetings zu geben. Chorus dient dazu, die Kundenkonvertierung zu optimieren

und der Mitarbeiter kann beispielweise eine Echtzeit-Beratung während eines

Online-Meetings in Anspruch nehmen.

Clari Clari unterstützt das Sales-Team dabei, mehr Geschäfte abzuschließen. Die Soft-

ware verwendet KI, um sich der größten Herausforderung im Vertrieb, dem Ab-

wickeln von Deals, zu widmen. Mit Clari können genaue Prognosen getroffen

werden und die Software zeigt dem Sales-Team worauf geachtet werden muss,

damit mehr Verträge abgeschlossen werden.

Collective[i] Collective[i] hat das größte Netzwerk an Aufzeichnungen über das B2B-Kaufver-

halten aufgebaut und bedient sich an diesen Daten, KI und Predictive-Technol-

gien, um Mitarbeitern im Vertrieb Strategien aufzuzeigen, die direkt zu einem

erhöhten Umsatz im Sales-Bereich führen. Das Programm verbindet sich mit

dem CRM-System und weiteren relevanten Datenquellen des Unternehmens,

um diese in Erkenntnisse und Intelligenz umzuwandeln. Zusätzlich verknüpft

Collective[i] das Käuferverhalten mit der Verkaufstätigkeit.

ZEN.AI ZEN.AI sorgt für personalisierte Empfehlungen im Shopify Store des Nutzers. Be-

sucher einer Homepage erhalten relevante und personifizierte Produktempfeh-

lungen, die auf ihrem Kaufverhalten basieren. Dies ist der Schlüssel für ein bes-

seres Kundenerlebnis und führt zu höheren Absatzzahlen.

HR UND RECRUITING

Proukt Tätigkeitsbeschreibung

Entelo Entelo arbeitet mit einem urheberrechtlich geschützten Algorithmus, der Kan-

didaten identifiziert, die zu einem Jobwechsel neigen und somit einem Joban-

gebot offener gegenüberstehen. Zusätzlich wird KI mit Predictive-Analytics

Page 168: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

165

kombiniert, um das individuelle Kandidaten-Sourcing zu automatisieren und

schneller die besten Kandidaten erreichen zu können.

GLIDER Glider ist ein KI-Autopilot für das Rekrutieren von Personal. Potentielle Kandi-

daten werden anhand ihrer Online-Profile identifiziert und mit einer persona-

lisierten Vorlage und einem optimierten Pitch kontaktiert. Außerdem ist es

möglich dem Bewerber eine möglichst realitätsnahe Aufgabe im Firmenum-

feld zu stellen, die er aber von seinem eigenen Gerät aus bearbeiten kann. Da-

bei kann über einen Chat oder ein Videotelefonat mit dem Kandidaten kom-

muniziert werden.

hiQ hiQ verwendet öffentlich zugängliche Daten über die Mitarbeiter eines Unter-

nehmens, um individuell auf die Mitarbeiter abgestimmte Maßnahmen und

Aktionen zu ermöglichen.

Die SaaS-Plattform basiert auf Machine Learning und erstellt anhand dieser

Daten eine Übersicht über die Fähigkeiten und Probleme der einzelnen Mitar-

beiter. Dadurch kann das HR-Team vorzeitig einem Arbeitskräfteabgang ent-

gegenwirken und verantwortungsbewusste Entscheidungen treffen.

HireVue HireVue verbindet KI mit der Wissenschaft der Arbeitspsychologie, um dem

Kunden eine benutzerdefinierte Bewertung des Kandidaten in Form eines Vi-

deos zu liefern. Die Plattform vereint und übernimmt Video-Interviews, - As-

sessments und -Coaching. Die Video-KI ermöglicht es zusätzliche Erkenntnisse

in Bezug auf den Kandidaten zu liefern.

Olivia Olivia ist eine KI-Assistentin, die den Rekrutierungsprozess vereinfacht und die

Kandidatensuche, -überprüfung und sowohl die Terminkoordination als auch

die Kommunikation mit den Kandidaten übernimmt.

Stella Stella´s künstliche Intelligenz identifiziert automatisch die Kandidaten aus der

Datenbank, die am besten zum Unternehmen passen. Zusätzlich arbeitet Stella

nahtlos mit HR-IT-Systemen zusammen.

PROFESSIONELLE ASSISTENTEN

Produkt Tätigkeitsbeschreibung

Clara Clara vereinbart und koordiniert Termine und übernimmt die Terminierung

von E-Mails für den Nutzer, indem sich Clara dem individuellen Arbeitsablauf

anpasst. Dafür wird Clara in den CC einer E-Mail mit den Teilnehmern des Mee-

tings gesetzt. Es handelt sich um einen "Human-in-the-Loop-Assistant".

Julie Desk Julie ist eine virtuelle Assistentin, die dem Nutzer die Terminplanung abnimmt.

Ziel ist es das Hin- und Herschicken von E-Mail zum Koordinieren eines Mee-

tings zu vermeiden. Mit Julie können Termine gefunden werden, die allen Teil-

nehmern passen, Einladungen verschickt werden und unerwartete Ereignisse

bewältigt werden.

Page 169: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

166

Kono Kono nutzt Big Data und KI, um dafür zu sorgen, dass Geschäftspersonen bes-

ser organisiert sind und produktiver arbeiten können. Zu den Funktionen ge-

hören das automatische Buchen von Konferenzräumen und das smarte Arran-

gieren von Gruppenmeetings. Dabei integriert sich Kono in das bestehende

Kalendersystem und kann Gäste von innerhalb und außerhalb des Unterneh-

mens einladen.

Mimetic Bei Evie handelt es sich um einen intelligenten Terminkoordinierungs- und

Verwaltungs-Assistenten. Dabei übernimmt Evie die gesamte Verhandlung

von Terminen, behält die Teilnehmeranzahl im Blick und verschickt Einladun-

gen und Erinnerungsnachrichten. Für die Termine werden stets die besten

Zeitfenster des Nutzers gewählt und die persönlichen Präferenzen berücksich-

tigt.

My Ally Mittels Machine Learning und Natural Language Processing organisiert der

Personal Assistent Alex genau und effizient die anfallende Terminkoordinie-

rung. My Ally verknüpft jahrelange praktische Erfahrungen mit einer KI-Sof-

ware. Dabei dient Alex hauptsächlich der Unterstützung von Recruiting-

Teams. Dadurch, dass die KI-Software zusätzlich durch einen Menschen über-

wacht und geprüft wird, erscheint die gesamte Kommunikation, die über Alex

läuft, sehr natürlich.

Carly Carly ist ein Personalassistent für vielbeschäftigte Manager und koordiniert

insbesondere die Telefongespräche. Die App behält den Terminkalender im

Auge und verbindet beispielweise den Nutzer 30 Sekunden vor Start eines

Calls und funktioniert mit allen Telefonkonferenz-Services.

ETCH ETCH koordiniert das bestehende Network und wandelt es in eine durchsuch-

bare Datenbank um. Zusätzlich ergänzt ETCH fehlende Kontaktinformationen

durch intelligente Recherche.

Notion Trove interpretiert das gesamte Netzwerk eines Unternehmens, um zu ver-

deutlichen wer mit wem über wen vernetzt ist. Außerdem fließt die gesamte

Kommunikationshistorie mit in die Analyse ein und Notion unterstützt bei E-

Mail-Überlastungen, Organisation und Kommunikation.

Mezi Mezi ist ein auf KI und Machine Learning basierender Travel-Assistent. Durch

eine Kombination aus gehobenen Service und Begeisterung für die Branche

sollen sich Geschäftsreisen nicht mehr wie Arbeit anfühlen. Ein KI-betriebener

Chatbot und ein Travel-Dashboard, das die Leistung des KI-Assistenten in die

Hände von Reisevermittlern gibt und eine schnellere, automatisierte Beant-

wortung von Fragen ermöglicht, ergänzt durch einen personalisierten Service,

erleichtern das Buchen von Geschäftsreisen.

KOLLABORATION

Produkt Tätigkeitbeschreibung

Aviva Als Digital-Assistant organisiert Aviva die Kommunikation am Arbeitsplatz ent-

sprechend der Bedürfnisse des Unternehmens. Dabei nutzt Aviva Machine

Learning und selektiert die einschlägigsten Dokumente, die im Umlauf sind,

Page 170: AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER … › sites › default › files › ABIDA... · Goldmedia GmbH Strategy Consulting Autoren: Prof. Dr. Klaus Goldhammer, Dr. André

167

um die Teams auf dem gleichen Informationsstatus zu halten. Wenn Aviva zu

Meetings oder Telefonkonferenzen hinzugeschaltet wird, kann das Programm

Notizen anfertigen und an die richtigen Personen weiterleiten.

Brand.ai Brand.ai erleichtert das Management des Design-Systems. Das Programm eli-

miniert Konflikte, die durch unterschiedliche Versionen einer Datei entstehen

und zentriert UI-Components, Fonts und Icons in einer Cloud. Der Nutzer kann

seine Design-Assets mit dem gesamten Team über Sketch oder Adobe Illustra-

tor teilen.

Cyclops Mit Cyclops kann eine Videokonferenz mit bis zu acht Teilnehmern mit nur ei-

nem Klick gestartet werden. Gleichzeitig können Productivity-Apps, eine Phy-

sical-Whiteboard-App, Bots und Screenshare als Tools genutzt werden, um die

Produktivität der Konferenz zu erhöhen. Bei Bedarf übernimmt Cyclops die

Mitschrift und verschickt sie im Anschluss via Slack oder E-Mail.

DECKARD Deckard Intelligence automatisiert die Zeitkalkulation, optimiert die Planung

von Sprints und steigert die Team-Performance im Allgemeinen. Das gesamte

Projektmanagement wird optimiert und es werden äußerst genaue Prognosen

getroffen.

Howdy Howdy ist ein nutzerfreundlicher, anpassungsfähiger Chatbot, der den Nut-

zern von Slack dabei hilft, die Zusammenarbeit im Team zu optimieren. Bei-

spielsweise kann Howdy automatisch Informationen vom Team sammeln und

in einem Bericht zusammenfassen.

Crowdfunding.AI Crowdfunding.AI vereint zwei revolutionäre Konzepte: Crowdfunding und

Künstliche Intelligenz. Auf der Plattform können sich die Investoren und die

Innovatoren treffen und zusammen an Ideen und Produkten zum Thema KI

arbeiten. Die Plattform soll die Investoren dazu bewegen in KI-Projekte, und

damit in die Zukunft, zu investieren.