AUSWIRKUNGEN VON B IG DATA AUF
DEN MARKT DER ONLINE MEDIEN I M R A H M E N D E S A B I D A - F O R S C H U N G S P R O J E K T E S D E S B M B F
F Ö R D E R K E N N Z E I C H E N 0 1 | S 1 5 0 1 6 A ‐ F
0 1 I S 1 5 0 1 6 A - F
Goldmedia GmbH Strategy Consulting
Autoren:
Prof. Dr. Klaus Goldhammer, Dr. André Wiegand,
Tim Prien M.A., Ina Wylenga M.A.
Unter Mitarbeit von:
Franziska Busse, Sophie Seyffert und Andrea Hamm
Oranienburger Str. 27, 10117 Berlin-Mitte, Germany
Tel. +49 30-246 266-0, Fax +49 30-246 266-66
Datum: 28.02.2018
ABIDA - ASSESS ING B IG DATA
P R O J E K T L A U F Z E I T 0 1 . 0 3 . 2 0 1 5 - 2 8 . 0 2 . 2 0 1 9
F Ö R D E R K E N N Z E I C H E N 0 1 | S 1 5 0 1 6 A ‐ F
www.abida.de
© 2018 – Alle Rechte vorbehalten
Westfälische Wilhelms-Universität Münster,
Institut für Informations-, Telekommunikations- und
Medienrecht (ITM), Zivilrechtliche Abteilung
Karlsruher Institut für Technologie,
Institut für Technikfolgenabschätzung
und Systemanalyse (ITAS)
Leibniz Universität Hannover
Institut für Rechtsinformatik
(IRI)
Technische Universität Dortmund,
Wirtschafts- und Sozialwissenschaftliche
Fakultät (WiSo) Techniksoziologie
Ludwig-Maximilians-Universität München,
Forschungsstelle für Information, Organisation
und Management (IOM)
Wissenschaftszentrum
Berlin für Sozialforschung
ABIDA - Assessing Big Data
Über das Gutachten
Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für
Bildung und Forschung erstellt. Der Inhalt des Gutachtens gibt ausschließlich die Auffassungen
der Autoren wieder. Diese decken sich nicht automatisch mit denen des Ministeriums und/oder
der einzelnen Projektpartner.
ABIDA lotet gesellschaftliche Chancen und Risiken der Erzeugung, Verknüpfung und Auswertung
großer Datenmengen aus und entwirft Handlungsoptionen für Politik, Forschung und Entwicklung.
1
INHALTSVERZEICHNIS
Abbildungsverzeichnis ....................................................................................................................................................... 3
Tabellenverzeichnis ............................................................................................................................................................ 5
Abkürzungsverzeichnis ...................................................................................................................................................... 6
1 Executive Summary ...................................................................................................................................................... 7
2 Einleitung und Struktur des Gutachtens ............................................................................................................... 13
3 Technologische Grundlagen von Big Data: Künstliche Intelligenz und Neuronale Netzwerke ............... 16
3.1 Definition Künstlicher Intelligenz .................................................................................................................. 17
3.2 Taxonomie von Big Data ................................................................................................................................. 18
3.3 Neuronale Netze als zentrale Methodik von Künstlicher Intelligenz................................................... 21
3.4 Deep Learning und weitere KNN-Topologien ............................................................................................ 23
3.5 Relationale Datenbanken und verteilte Dateisysteme ........................................................................... 26
3.6 Statistisches Natural Language Processing und Natural Language Generation ................................ 28
3.7 Hidden-Markov-Modelle ................................................................................................................................ 31
4 Ausgewählte Beispiele von medienbezogenen Big-Data-Anwendungen im B2C-Markt.......................... 34
4.1 Personal Voice Assistants: KI-basierte Kommunikation und Transaktion .......................................... 34
4.1.1 Definition und Anwendungsbereiche ....................................................................................................35
4.1.2 Marktpotentiale ............................................................................................................................................37
4.1.3 Nutzerakzeptanz ...........................................................................................................................................39
4.1.4 Zusammenfassung und Ausblick .............................................................................................................41
4.2 Chatbots und Social-Bots: Automatisierte (Massen-) Kommunikation .............................................. 43
4.2.1 Definition und Anwendungsbereiche ....................................................................................................44
4.2.2 Marktpotentiale ............................................................................................................................................45
4.2.3 Nutzerakzeptanz ...........................................................................................................................................47
4.2.4 Zusammenfassung und Ausblick .............................................................................................................49
4.3 Algorithmische Optimierung von Empfehlungen in Onlinemedien und im E-Commerce .............. 52
4.3.1 Definition und Anwendungsbereiche ....................................................................................................52
4.3.2 Marktpotentiale ............................................................................................................................................55
4.3.3 Gesellschaftlicher Diskurs um ADM-Prozesse .....................................................................................56
4.3.4 Zusammenfassung und Ausblick .............................................................................................................59
5 Auswirkungen von medienbezogenen Big-Data-Anwendungen im B2B-Markt ......................................... 62
5.1 Teil- und vollautomatisierte Prozesse bei der Produktion von Medieninhalten .............................. 62
5.1.1 Definition und Anwendungsbereiche ....................................................................................................62
5.1.2 Marktpotentiale ............................................................................................................................................74
5.1.3 Zusammenfassung und Ausblick .............................................................................................................76
5.2 Innerbetriebliche Potentiale von Big Data bei Medienunternehmen ................................................. 78
5.2.1 Big-Data-Prozesse als neue Schlüsselaktivität .....................................................................................78
5.2.2 Marktpotential und Anwendungsbereiche ..........................................................................................81
5.2.3 Zusammenfassung und Ausblick .............................................................................................................83
5.3 Datengewinnung für Akquise und Vertrieb ............................................................................................... 88
5.3.1 Definition von personenbezogenen Daten ..........................................................................................89
2
5.3.2 Marktpotential und Anwendungsbereiche ..........................................................................................93
5.3.3 Zusammenfassung und Ausblick .............................................................................................................97
6 Auswirkungen von Big Data auf Onlinemedien: Beispiele und Case Studies .............................................. 99
6.1 Case Study: KI im Journalismus ..................................................................................................................... 99
6.2 Case Study: KI-Factchecking ........................................................................................................................ 100
6.3 Case Study: Content Blockchain................................................................................................................. 101
6.4 Case Study: Von Programmatic zu Predictive Advertising .................................................................. 103
6.5 Förderinitiativen: Google Digital News Initiative ................................................................................... 106
6.5.1 FAZ9 ............................................................................................................................................................... 107
6.5.2 Act2Access ................................................................................................................................................... 107
6.5.3 Journalism First .......................................................................................................................................... 107
7 Handlungsempfehlungen für die Politik & Fazit .............................................................................................. 108
7.1 Handlungsempfehlungen für die Politik .................................................................................................. 108
7.1.1 Sicherung der publizistischen Vielfalt ................................................................................................. 108
7.1.2 Wahrung der Meinungsvielfalt ............................................................................................................. 109
7.1.3 Richtlinien zur Datensouveränität........................................................................................................ 109
7.1.4 Algorithmen- und KI-Audits .................................................................................................................... 110
7.1.5 PVA-Plattformregulierung ...................................................................................................................... 110
7.1.6 Zusammenfassung der Handlungsempfehlungen .......................................................................... 111
7.2 Fazit und Ausblick .......................................................................................................................................... 111
8 Literatur und Quellen ............................................................................................................................................. 115
9 Anhang ....................................................................................................................................................................... 141
9.1 Marktübersicht: B2C-Anwendungen ........................................................................................................ 141
9.2 Marktübersicht: B2B-Anwendungen ........................................................................................................ 153
3
ABBILDUNGSVERZEICHNIS
Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input ......... S. 17
Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken ...................................... S. 18
Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow-Bibliothek ........... S. 24
Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife ....... S. 25
Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses ................................................. S. 30
Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme ....................................... S. 32
Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero" ......... S. 33
Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017 ..................... S. 35
Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017) ............................................................... S. 36
Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017 ........................................................... S. 37
Abb. 11: Taxonomie von Chatbots .......................................................................................................... S. 45
Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD .............................................................................................................................. S. 46
Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017 ............ S. 47
Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016 .... S. 48
Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018 ................... S. 49
Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017............................................................ S. 51
Abb. 17: Modell der Organisation algorithmisch strukturierter Öffentlichkeit ...................................... S. 61
Abb. 18: AX Semantics Inputraster in drei Sprachen und Beispielartikel ............................................... S. 63
Abb. 19: Ausschnitt aus der Datenbank „Homicide Report" .................................................................. S. 65
Abb. 20: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die auf Prosa trainiert wurde .................................................................................................... S. 67
Abb. 21: Schematische Darstellung der Funktionsweise von Programmatic Creation ........................... S. 68
Abb. 22: Schematische Darstellung der Funktionsweise von Programmatic Orchestration .................. S. 69
Abb. 23: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert) ......... S. 70
Abb. 24: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious ................... S. 71
Abb. 25: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016............................. S. 72
Abb. 26: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung ........... S. 74
Abb. 27: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics Anbieters Dataiku ..................................................................................................................... S. 80
Abb. 28: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017 .................. S. 82
Abb. 29: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data- Analyseergebnissen zur Entscheidungsfindung in Unternehmen ............................................ S. 84
4
Abb. 30: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland, in Prozent ...................................................... S. 85
Abb. 31: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personen- bezogenen Verbraucherdaten (vereinfachte und beispielhafte Darstellung) .......................... S. 88
Abb. 32: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz, 2011-2017, in Mio. US-Dollar ................................................................................................... S. 93
Abb. 33: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene ...... S. 96
Abb. 34: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse ..................... S. 99
Abb. 35: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde ........................... S. 100
Abb. 36: Menüansicht der Content Blockchain Testversion ................................................................. S. 102
Abb. 37: Übersicht über die Struktur des Programmatic-Buying-Ökosystems ..................................... S. 103
Abb. 38: Datenquellen im Werbenetzwerk von Facebook, Stand 2016 ............................................... S. 104
Abb. 39: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent ........................ S. 106
5
TABELLENVERZEICHNIS
Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen ............. S. 19
Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants .......................................... S. 43
Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems ...................................... S. 54
Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse ........................................ S. 59
Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl) ............................................. S. 89
Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016 ................ S. 94
Tab. 7: Relevante Datenbestände im Geschäftsbereich Risiko-informationen der untersuchten Adress- und Datenhändler in Deutschland ........................................................ S. 97
6
ABKÜRZUNGSVERZEICHNIS
ADM ............................................. Algorithmic Decision Making
AI ................................................... Artificial Intelligence
API ................................................ Application Programming Interface
B2B ............................................... Business-to-Business
B2C ............................................... Business-to-Consumer
BI ................................................... Business-Intelligence
BVDW .......................................... Bundesverband Digitale Wirtschaft
CRM ............................................. Customer-Relationship-Management
DAI ................................................ Distributed Artificial Intelligence
DNI ............................................... Digital News Initiative
DS-GVO ...................................... Datenschutz-Grundverordnung
E-Commerce ............................. Electronic-Commerce
HMM............................................ Hidden-Markov-Modellen
IoT ................................................. Internet of Things
KI ................................................... Künstliche Intelligenz
KNN.............................................. Künstliche Neuronale Netze
NLG .............................................. Natural Language Generation
NLP ............................................... Natural Language Processing
NoSQL ......................................... Not only SQL
PVA ............................................... Personal Voice Assistant
SNLP ............................................ Statistisches Natural Language Processing
SQL ............................................... Structured Query Language
UI ................................................... User Interface
VCA .............................................. Video Content Analysis
XML .............................................. Extensible Markup Language
7
1 EXECUTIVE SUMMARY
Dieses Gutachten zu „Auswirkungen von Big Data auf den Markt der Onlinemedien“ wurde im Auf-
trag der Westfälischen Wilhelms-Universität Münster (WWU) als Projektträger des interdisziplinären
BMBF-Forschungsprojekts Assessing Big Data (ABIDA) von der Goldmedia GmbH Strategy Consul-
ting am 28.02.2018 übergeben. Es kommt zu den folgenden Ergebnissen:
K E R N E R G E B N I S S E T E C H N I S C H - S T R U K T U R E L L E R A H M E N B E D I N G U N G E N :
D E F I N I T I O N E N U N D B E G R I F F L I C H K E I T E N
▪ Der Begriff "Big Data" wird durch vier Komponenten beschrieben: Er bezeichnet den Umgang
mit Datensets, a) die ein sehr hohes Volumen aufweisen, b) in ihrer Beschaffenheit unstruktu-
riert oder anderweitig komplex sind, c) den Einsatz von flexiblen Datenbankmanagement-Sys-
temen erfordern und d) deshalb eine Kapitalinvestition rechtfertigen.
▪ Künstliche Intelligenz (KI) bildet die technische Grundlage für Big-Data-basierte Anwendungen
und bezeichnet computer-basierte, autonome Agenten, die ihre Umgebung in Form von Daten
wahrnehmen und verarbeiten können. In der Praxis trägt Künstliche Intelligenz dazu bei, be-
stimmte Gruppen von Problemen zu lösen – nämlich Probleme der Klassifikation, Regression,
Gruppierung und Reduktion von Komplexität bei großen Datenmengen.
▪ Künstliche Neuronale Netze (KNN) stellen die zentrale Methodik von KI dar. Darunter werden
in der Neuroinformatik Modelle verstanden, die eine Zielvorgabe nachbilden und durch Rück-
kopplungen kontinuierlich lernen, um große Informationsmengen automatisiert zu strukturie-
ren.
▪ Deep Learning ist die bekannteste und am häufigsten eingesetzte Lernanordnung von KNN.
Als Lernanordnung (bzw. Topologie) eines KNN wird die Struktur bzw. die Anordnung der ein-
zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet. Beim Deep Learning
werden viele verborgene Zwischenschichten von KNN systematisch angeordnet.
▪ Datenbanken spielen bei der Betrachtung von Big Data eine zentrale Rolle. Verteilte Dateisys-
teme (Hadoop) bieten dabei die Möglichkeit, auch unstrukturierte Datensets mit unterschied-
lichen Datentypen verarbeiten zu können.
▪ Statistisches Natural Language Processing (auf Deutsch: maschinelle Verarbeitung natürlicher
Sprache, SNLP) dient als Grundlage für die automatisierte Erstellung von textbasierten On-
lineinhalten. SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf
dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem
artifiziellen Agenten erkannt werden muss, indem menschliche Sprache für Computer ver-
ständlich übersetzt wird.
▪ Mit Hilfe von Hidden-Markov-Modellen (HMM) können im Rahmen von SNLP-Prozessen kon-
tinuierliche Ereignisse wie gesprochene Sprache durch Computer antizipiert werden. Ein Ge-
spräch kann in seinem Verlauf erfasst werden. Durch selbstlernende Prozesse können Texte
von Computern dabei immer besser verstanden werden.
8
M E D I E N B E Z O G E N E B I G - D A T A - A N W E N D U N G E N I M B 2 C - M A R K T :
P E R S O N A L V O I C E A S S I S T A N T S U N D C H A T B O T S
▪ Die populärste medienbezogene Big-Data-Anwendung im Nutzermarkt stellen sog. Personal
Voice Assistants (kurz PVA) dar. Solche persönlichen KI-gestützten Sprachassistenten wie
bspw. Amazon Alexa oder Google Home lassen sich per Sprachbefehl einfach bedienen, er-
leichtern dadurch alltägliche Aufgaben und fungieren gleichzeitig als neuer Distributionskanal.
PVA bieten vielfältige Möglichkeiten für neue (Medien-)Produkte und Dienste und die Akquise
neuer Nutzer: Dazu zählen vielfältige Audio- und Musikdienste, Nachrichtenservices (Wetter,
Verkehr, Börse, Sport, Navigation usw.) und viele weitere Anwendungsbereiche.
▪ Hauptbedenken bei der Nutzung von PVA stellt die Angst vor Datenmissbrauch und zu hoher
Transparenz gegenüber den US-basierten Anbietern dar. Eine Mehrheit der deutschen Nutzer
befürchtet Datendiebstahl, Manipulation und Missbrauch. Die Angst, permanent abgehört zu
werden, spielt ebenfalls eine entscheidende Rolle.
▪ Chatbot-Plattformen stellen eine weitere Variante der persönlichen Big-Data-gestützten As-
sistenz dar. Nutzer können mit Chatbots direkt in Schriftform kommunizieren und interagieren.
Chatbots imitieren mit Hilfe von SNLP dabei normale interpersonelle Kommunikation. So wer-
den bereits klassische Nachrichten, aber auch Wetter- und Börseninformationen in Gesprächs-
form zwischen Nutzer und Chatbot angeboten.
▪ Einfache Chatbot-Plattformen sind über Scriptsprachen (wie python oder VBA) programmiert,
die auf eine vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem erfolgreichen
Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren fortge-
schrittene Chatbot-Plattformen, die auf Algorithmen mit KI aufbauen.
▪ Für 2020 wird prognostiziert, dass bereits 85 Prozent aller Kundeninteraktionen mit Unterneh-
men durch Chatbots erfolgen. Bereits 2016 betrug das Investitionsvolumen durch Risikokapi-
talgeber in Chatbot-Entwickler und Bot Start-ups weltweit mindestens 170 Mio. Euro.
▪ Deutsche Nutzer erkennen praktische Vorteile von Chatbots wie das einfache Buchen von On-
linetickets, automatisierte Terminplanung oder schnelle Verkaufsgespräche. Dennoch lehnt
rund jeder zweite Nutzer in Deutschland die Konversation mit Chatbots ab, weil diese unper-
sönlich, unzuverlässig und technisch zu unausgereift erscheinen.
A L G O R I T H M I S C H E E M P F E H L U N G S S Y S T E M E
▪ Algorithmische Empfehlungsmechanismen, wie sie von Onlinemedien und im E-Commerce
eingesetzt werden, nutzen Big-Data-Prozesse: Von der Datenerfassung über die Datenanalyse
bis zur Interpretation und der Ableitung einer Entscheidung werden in großem Umfang per-
sonenbezogene Nutzerdaten durch selbstlernende KI-Mechanismen ausgewertet.
▪ Empfehlungssysteme gruppieren Personen mit ähnlichen Merkmalen. Ein zu dieser Gruppe
passender neuer Nutzer erhält dann Vorschläge, welche Produkte von dieser Kundengruppe
bereits gekauft wurden (Collaborative Filtering). Dabei wird unterstellt, dass Nutzer, die in der
Vergangenheit die gleichen Artikel kauften, auch bei anderen Produkten ähnliche Vorlieben
haben.
▪ Andere Algorithmen gehen inhaltsanalytisch vor und messen spezifische Eigenschaften bereits
gekaufter Produkte. Auf Basis von Parametern wie Größe, Farbe, Material oder Form werden
dann ähnliche Artikel empfohlen.
9
▪ Medien-Streaming-Dienste wie Netflix, Amazon Video oder Spotify arbeiten mit hybriden
Empfehlungssystemen (Recommendation Engines), die Empfehlungen auf Basis von verschie-
denen Algorithmen gleichzeitig offerieren.
▪ 2016 wurde der globale algorithmische Handelsmarkt bereits auf einen Wert von rund 9,5 Mrd.
US-Dollar geschätzt. Marktexperten sehen automatisierte Preisgebungsverfahren und Emp-
fehlungssysteme als die wichtigsten algorithmen-basierten Möglichkeiten zur Umsatzsteige-
rung.
▪ Im Onlinemedien-Markt spielen Algorithmen auch bei der Mediaplanung und -buchung eine
wichtige Rolle. Mit Hilfe von Algorithmen werden bereits seit einigen Jahren automatisierte
Werbung (Programmatic Advertising) oder automatisierte Echtzeit-Werbeauktionen (Real-
Time-Bidding) erfolgreich eingesetzt. Für beide Methoden ist eine erhebliche Marktdurchdrin-
gung erkennbar, die dazu führt, dass klassische Buchungs- und Planungsmethoden durch KI
abgelöst werden.
▪ Zudem werden immer mehr Werbeinhalte automatisch und kontextsensitiv durch Big-Data-
Analysen und mit Hilfe selbstlernender Algorithmen erstellt (Programmatic Creation). Damit
steht der deutschen Werbebranche der nächste Paradigmenwechsel kurz bevor.
10
M E D I E N B E Z O G E N E B I G - D A T A - A N W E N D U N G E N I M B 2 B - M A R K T
▪ Die deutsche Medienbranche beginnt damit, durch den Einsatz von Big Data und KI mediale
Inhalte zunehmend automatisiert zu erstellen. Dazu zählen die journalistische Recherche, die
Analyse und Aufbereitung von Daten sowie die Produktion audiovisueller Inhalte oder auch
die automatisierte Erstellung von Werbekommunikaten. Bei all diesen Prozessen kommen häu-
fig Big-Data-Analysen und selbstlernende Algorithmen zum Einsatz.
▪ Für die automatische Generierung von Texten kommen SNLP- und NLG-Prozesse zum Einsatz.
Hierbei folgen Algorithmen den von Menschen definierten Vorgaben und übersetzen die Da-
tensätze in verständliche Prosa. Dazu werden zahlreiche Textbausteine und ggf. auch Drittda-
ten kombiniert, die dann z.B. mit aktuellen Sportergebnissen, Börsenkursen oder Wetterdaten
verknüpft werden zu neuen journalistischen Texten als Sport-, Börsen- oder Wetterbericht.
▪ Auch Videos werden bereits von vielen Onlinemedienanbietern in Deutschland automatisiert
produziert. Dazu wird zumeist ein journalistischer Text mit Hilfe von Big-Data-Analysen nach
spezifischen Stichwörtern durchsucht. Die Ergebnisse werden dann mit verschlagworteten Vi-
deodatenbanken (wie bspw. Getty Images oder AP) abgeglichen. Dort werden dann kontextu-
ell passende Bilder und Videoclips ausgesucht und automatisch ein Video zusammengeschnit-
ten, das auf verschiedenen Social-Media-Plattformen in unterschiedlichen Auflösungen auto-
matisch hochgeladen werden kann.
▪ Mit Hilfe von Algorithmen ist es ebenfalls möglich, Audioclips zu erstellen, die z.B. als Beglei-
tung für Nachrichtenstrecken oder Sportinformationen dienen. Auf Basis von Schlagwörtern,
die in einem Artikel vorkommen, können algorithmen-basierte Angebote eine Zusammenfas-
sung des Artikels erstellen und sie über SNLP-gestützte Prozesse zu einem Audiobeitrag syn-
thetisieren.
▪ Durch die Verwertung von großen Datenbanken mit populären Texten und Musiknotationen
können mit Hilfe von HMM-gestützten Algorithmen auch Muster in Kompositionen identifi-
ziert werden, die für das menschliche Ohr harmonisch klingen. Dadurch wird es Musikprodu-
zenten möglich, ästhetisch wohlklingende Harmonien und Melodien leichter zu erkennen, zu
testen und ebenfalls automatisch zu kreieren.
▪ Unter Zuhilfenahme von selbstlernenden Algorithmen wird es möglich, bei der Entwicklung
von 3D-Inhalten für z.B. Computerspiele geomorphologische, landformende Prozesse nachzu-
ahmen. Dazu müssen in den Entwicklerwerkzeugen nur einige grundsätzliche Eingaben durch
Menschen getätigt werden, um automatisiert weitläufige 3D-Spielwelten in Sekunden zu ge-
nerieren.
▪ Auch bei Spielen und interaktiven Filmen wird es durch Big-Data-Analysemethoden möglich,
auf Basis der von Nutzern getätigten Handlungen, ihrer Charakter-Präferenzen und ihrer Ent-
scheidungen ein automatisiertes dynamisches Storytelling zu realisieren.
▪ KI-gestützte Verfahren erlauben Publishern bereits die Extraktion relevanter Informationen aus
Medieninhalten. Zusammenfassungen von Texten und Audiospuren können mit Hilfe von
Schlagwörtern maschinell produziert werden, was einen grundlegenden Prozess für die auto-
matisierte Produktion verschiedener Medieninhalte darstellt. Derartige Analysen beziehen sich
auf Wörter und Phrasen, wobei auch semantische Verbindungen erkannt werden.
11
▪ Die breiten Analysemöglichkeiten, KI-optimierte Wertschöpfungsketten und die Kostenvor-
teile der Automatisierung machen Big-Data-Anwendungen zu einem klaren Wettbewerbsvor-
teil für Medienunternehmen. Umgekehrt drohen Unternehmen, die Big-Data-Initiativen nicht
auf ihre Agenda setzen, mittelfristig erhebliche Wettbewerbsnachteile.
▪ Mit Hilfe von verteilten Dateimanagementsystemen lassen sich bei interdisziplinären journa-
listischen Abteilungen sehr große Datensets durch leistungsfähige Datenbanken innerhalb von
wenigen Stunden strukturieren, Ergebnisse organisieren und allen Teammitgliedern verfügbar
machen. Entscheidend wird für Onlinepublisher, dass solche technologie-gestützten Work-
flows ergebnisorientiert, dezentralisiert und auf Abruf organisiert werden können.
▪ Smart-Sales-Anbieter erweitern Vermarktungsprozesse für Verlage, indem sie durch Big-Data-
Analysen klar sagen können, wer als Individuum welches Produkt eines Medienunternehmens
erwirbt und zu welchem Zeitpunkt bzw. mit welcher Motivation.
▪ Durch das Zusammenspiel von KI und Sensordaten aus dem Internet of Things entstehen in-
telligente Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung und des Ver-
triebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten automatisie-
ren.
▪ Von der Entwicklung und dem Wachstum von Big-Data-Dienstleistern profitieren vor allem die
nachgelagerten Märkte des Daten- und Adresshandels sowie der Markt für Risikoinformatio-
nen, die mit dem Verkauf und der Vermietung von personenbezogenen Datensets Big-Data-
Initiativen im Onlinemedienmarkt erst ermöglichen.
12
H A N D L U N G S E M P F E H L U N G E N
▪ Für die Politik kann ein hoher Grad an potentiellem Handlungsbedarf in Bezug auf Big-Data-
und KI-gestützte Algorithmen im Markt der Onlinemedien festgestellt werden. Zahlreiche In-
stitutionen sehen ein klares Defizit in der Regulierung von KI-basierten Anwendungen wie Per-
sonal Voice Assistants oder Chat- sowie Social-Bots. Dieser Handlungsbedarf liegt jedoch we-
niger im Bereich der Gesetzgebung oder Regulierung, sondern vielmehr im Diskurs zur Ent-
wicklung journalistischer Standards, Selbstkontrollen und Kennzeichnungsgeboten.
▪ Hier bietet es sich an, den Grad an Automatisierung von Medieninhalten in der Medienwirt-
schaft zu beobachten und sich z.B. für ein Kennzeichnungsgebot für automatisierte Artikel ein-
zusetzen. Um die Meinungsvielfalt zu wahren, könnten Maßnahmen zur Kennzeichnung von
autonomen Agenten durch öffentlich-rechtliche Onlinemedien oder durch die größten Infor-
mationsintermediäre in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter)
überprüft werden.
▪ Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur
Datenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschut-
zes angeregt werden. Durch ein Zertifikat könnte dem Endnutzer/Kunden signalisiert werden,
dass eine Plattform, die personenbezogene Daten speichert, die Vorgaben der europäischen
Datenschutz-Grundverordnung sowie die in Deutschland geltenden Datenschutzrichtlinien
über die gesamte Wertschöpfungskette hinweg einhält.
▪ Eine generelle Empfehlung an Unternehmen wäre: Da algorithmische Mechanismen aktuell
nicht hinreichend beschrieben und verstanden werden können und Unternehmen ihre Algo-
rithmen nicht publizieren, empfiehlt es sich für jedes datengetriebene Onlinemedienunterneh-
men, Strategien und Guidelines für den Umgang mit algorithmenbasierten oder KI-assistierten
Dienstleistungen zu entwickeln. Dazu zählen auch KI-Audits: Bei Einsatz von komplett automa-
tisierten, Big-Data-basierten Dienstleistungen sollten KI-Prozesse, Trainingsdatensätze und
Modelle durch ein KI-Audit kontinuierlich auf systematische Bias sowie technische Fehler über-
prüft werden.
▪ Eine konkrete rechtliche Möglichkeit bestünde darin, im Rahmen der Auslegung der europäi-
schen Datenschutzgrundverordnung bzw. auf Basis von nationalem Datenschutzgesetz/Tele-
mediengesetz die Einhaltung des Datenschutzes konkret auf sprachbasierte Assistenzsysteme
in sog. Smart-Devices zu übertragen. Dies könnte die verpflichtende Erneuerung der Einwilli-
gung zur Datenerhebung und zur Datenverarbeitung bei Verbindung eines weiteren Gerätes
(wie z.B. Personal Voice Assistants) mit bestehenden Nutzerkonten von Online-Diensten be-
deuten.
▪ Ein weiterer rechtlicher Aspekt ergibt sich aus dem Quasi-Oligopol der Anbieter von Personal
Voice Assistants, die Mediennutzer an eigene technologische und mediale Ökosysteme bin-
den. Da PVA-Plattformen zukünftig eine wichtige Rolle bei der Auswahl von Medieninhalten
spielen werden, wird es wichtig zu prüfen, ob die Plattformen ihr Angebot auf wenige große
Mediendienste einschränken oder die zusätzliche Implementierung von externen Diensten er-
schweren. Hier drohen etablierten Mediendienstanbietern Wettbewerbsnachteile. Im Zuge der
Plattformregulierung der Landesmedienanstalten könnten Probleme im Dialog geklärt werden,
bevor es zu wettbewerbsrechtlichen Auseinandersetzungen kommt.
13
2 EINLEITUNG UND STRUKTUR DES GUTACHTENS
Big-Data-Technologien werden in vielen Branchen bereits als effektives Instrument zur Optimierung
von Geschäftsprozessen eingesetzt, wie beispielsweise in der Marktforschung oder Medizin. Unter
Big Data werden dabei unstrukturierte, große Datensets verstanden, sogenannte Massendaten, wel-
che mit speziellen Analysemethoden ausgewertet werden können. Populär wurde der Begriff aller-
dings vor allem durch den Markt der Onlinemedien, in welchem in den letzten Jahren ein stetig
wachsender Einfluss von Big Data beobachtet werden konnte. Die Integration neuer Technologien
und die automatisierte, algorithmenbasierte Auswertung großer Mengen von Nutzerdaten führt zu
tiefgreifenden Veränderungen bei der Interaktion von Medienanbietern und deren Nutzern.
Längst etabliert sind beispielsweise Personalisierungsprozesse bei der Einblendung von Werbung
und der Zusammenstellung inhaltlicher Angebote auf Plattformen wie Google, Facebook, Netflix
oder Amazon. Mit Hilfe von Predictive Analytics können Anbieter aus dem Verhalten von Nutzern
auf zukünftiges Konsumverhalten schließen, wobei in speziell eingerichteten Analyseabteilungen
stetig an der Zuverlässigkeit der Prognosen gearbeitet wird. So wird es zukünftig bspw. möglich
sein, zu erkennen, ab wann ein Rezipient kostenloser Inhalte bereit ist, für ein Angebot zu zahlen.
Aktuell erweist sich die Refinanzierung digitaler Angebote als prekär, da Finanzierungsstrategien
wie Abonnements oder Paywalls nur bedingt von Kunden angenommen werden. Durch die Kom-
bination von Big-Data-Analysemethoden mit neuen technischen Möglichkeiten wie etwa Block-
chain und digitale Zahlungssysteme werden neue, dynamische Zahlungsmodelle ermöglicht. So ist
es denkbar, dass Micropayments, mit denen einzelne Artikel, Videos oder andere Inhalte erworben
werden können, mit Hilfe von Big Data plötzlich rentabel werden.
Neben der voranschreitenden Personalisierung sind Sprachassistenten ein prominentes Beispiel für
die gewinnbringende Nutzung umfangreicher Datensets. Personal Voice Assistants von Konzernen
wie Apple, Google oder Microsoft, die spätestens seit der Geräteserie Amazon Echo mit dem
Sprachassistenzdienst Alexa massenmarkttauglich geworden sind, greifen auf Datenbanken mit
Nutzerinformationen und formalisiertem Wissen zu und verwenden Big-Data-Technologien, um die
richtigen Befehle auszuführen oder passende Antworten zu finden. Über Schnittstellen können auch
andere Geräte im Haus angesteuert werden, was bspw. das individuelle Mediennutzungsverhalten
beeinflussen könnte und zusätzlich dem Mikrofon als Gerätesteuerungselement wachsende Bedeu-
tung verleiht. Traditionelle Eingabegeräte wie Maus, Tastatur oder Touchpad werden im gleichen
Zug vermutlich an Relevanz verlieren. Weiter entstehen durch Voice Search auch im Marketing neue
Herausforderungen, da Suchergebnisse zunehmend bildschirmlos ausgegeben werden. Auch Ein-
kaufen und Bezahlen via Sprachsteuerung könnten sich als disruptive Innovationen verstärkt durch-
setzen.
Viele weitere Möglichkeiten, die sich durch Big Data und Künstliche Intelligenz ergeben, werden
den Onlinemedienmarkt in den nächsten Jahren stark beeinflussen. Denkbar ist etwa die teil- oder
vollautomatisierte Produktion und Analyse von Medieninhalten oder die vollständige Abwicklung
der Kundenkommunikation über Chatbot-Plattformen. Mit Hilfe Künstlicher Intelligenz und maschi-
nellem Lernen werden viele Prozesse innerhalb von Medienhäusern optimiert und ganze Wert-
schöpfungsketten nachhaltig transformiert. Auch die massenhafte Gewinnung von personenbezo-
genen Daten und Sensordaten aus dem Internet of Things trägt ihren Teil dazu bei. Von einem
medienökonomischen Standpunkt betrachtet, werden Daten zu einer Schlüsselressource und Big-
14
Data-Initiativen zu einer Schlüsselaktivität, die Onlinemedien auf lange Sicht in ihre Unternehmens-
struktur eingliedern müssen, um wettbewerbsfähig zu bleiben. Diese Veränderungen haben auch
tiefgehende Implikationen für die Politik, denn der Einsatz von autonomen Agenten in der Medi-
enwirtschaft darf vor dem Hintergrund von Wahlkampfmanipulationen, potentiellen Verzerrungen
der öffentlichen Meinungsbildung sowie Oligopol-artigen Marktstrukturen nicht unbeachtet blei-
ben.
Im Rahmen des vorliegenden Gutachtens wird ein systematischer Überblick erarbeitet, der aufzeigt,
inwiefern der Einsatz von Big-Data-Technologien die Marktstrukturen der deutschen Onlinemedien
beeinflusst. Aus ökonomischer Perspektive heraus werden dabei durch Big Data hervorgerufene
Veränderungen im Wettbewerbs- und Kundenbereich sowie im öffentlichen Diskurs beleuchtet.
Übergreifend spielen dabei auch Datenqualität und -vermarktung eine wesentliche Rolle.
In einem ersten Schritt sollen in Kapitel 3 zunächst die technologischen Grundlagen abgesteckt
werden, die das Arbeiten mit großen Datensets überhaupt erst ermöglichen. Dazu wird das funda-
mentale Konzept der Künstlichen Intelligenz betrachtet und menschliches Handeln dem computer-
basierten gegenübergestellt. Anschließend erfolgt eine Abgrenzung des vielschichtigen Begriffs Big
Data, welcher in verschiedenen wissenschaftlichen Disziplinen und Anwendungsfeldern unter-
schiedlich definiert wird. Darüber hinaus werden weitere zentrale Technologien und Methodiken
der datengestützten Analysen vorgestellt, wozu unter anderem Neuronale Netze, Deep Learning
und die computerbasierte Verarbeitung natürlicher Sprache gehören.
Im sich anschließenden Kapitel 4 werden die wichtigsten Big-Data-Anwendungen im Business-to-
Consumer (B2C) Segment analysiert. Tiefgreifende Veränderungen werden aktuell vor allem durch
Sprachassistenten, Chatbots sowie die Nutzung von Algorithmen zur Optimierung von Empfehlun-
gen auf Medienplattformen hervorgerufen. Dementsprechend werden diese Technologien detail-
liert untersucht und verschiedene Anwendungsbereiche veranschaulicht. Anschließend wird einer
Abschätzung der Potentiale der einzelnen Anwendungen auf dem Onlinemedienmarkt eine Analyse
der Nutzerakzeptanz gegenübergestellt. Dabei werden verschiedene Ebenen betrachtet und sowohl
Meinungen auf Seiten des Mediennutzers als auch umfassendere gesellschaftliche Debatten einbe-
zogen. In einem Ausblick folgt eine Bewertung der Nachhaltigkeit der jeweiligen Entwicklung.
In Kapitel 5 stehen die deutschen Medienunternehmen im Fokus. Die Implementierung von Big-
Data-Initiativen führte bereits in den letzten Jahren zu Transformationen im Business-to-Business
(B2B) Markt und auch zukünftig können technologiebedingte Neuordnungen in verschiedenen Ge-
schäftsbereichen erwartet werden. Dabei spielt insbesondere die Prozessautomatisierung eine
große Rolle, da die Integration der teil- bzw. vollautomatisierten Produktion von Medieninhalten
große Wettbewerbsvorteile schaffen kann. Inwiefern die maschinelle Herstellung verschiedener In-
halte wie Texte, Videos, Audiospuren oder auch Onlinespiele den Markt bereits beeinflusst hat und
welche Potentiale die Technologien weiterhin bieten, wird daher detailliert betrachtet. Im darauf-
folgenden Schritt werden weitere innerbetriebliche Tätigkeiten der Medienunternehmen unter-
sucht, die durch Big-Data-Technologien unterstützt oder modifiziert werden. Es kann davon ausge-
gangen werden, dass Big Data insbesondere bei Kundenakquise und Vertrieb einen Wandel her-
beiführen wird, weswegen sich diesen Bereichen daraufhin separat gewidmet wird.
Bei den Betrachtungen und Analysen des B2C- und B2B-Marktes werden bereits vielfach konkrete
Big-Data-Anwendungen herangezogen, um deren Potentiale und Risiken praxisnah zu veranschau-
lichen. In dem sich anschließenden Kapitel 6 werden weitere Case Studies erläutert, die Big Data im
Onlinemedienmarkt verorten und dessen Bedeutung verdeutlichen.
15
Auf die Analysen und Fallstudien aufbauend, werden in Kapitel 7 Handlungsempfehlungen für die
Politik entwickelt, wobei sich diese sowohl generell mit publizistischer Vielfalt und Meinungsvielfalt
auseinandersetzen als auch auf die Regulierung von Datensouveränität und der Nutzung Künstli-
cher Intelligenz sowie Algorithmen abzielen. Abschließend erfolgt eine Zusammenfassung, wobei
auch ein Ausblick darüber gegeben wird, inwiefern die fortschreitende Entwicklung und Implemen-
tierung von Big Data den Markt der Onlinemedien mittelfristig beeinflussen könnte.
16
3 TECHNOLOGISCHE GRUNDLAGEN VON BIG
DATA: KÜNSTLICHE INTELLIGENZ UND
NEURONALE NETZWERKE
Seit der Markteinführung von dezentralen Datenbankarchitekturen wie MapReduce oder Apache
Hadoop in den frühen 2000er Jahren hat sich der Begriff "Big Data“ nicht nur in der Wissenschaft,
sondern auch in der Wirtschaft fest etabliert1. Big-Data-gestützte Abfragen und Analysen erfüllen
viele komplexe Aufgaben, die mit der Verarbeitung von unstrukturierten (bzw. schwer zu verarbei-
tenden) Datensets und der Automatisierung von Prozessen zusammenhängen (vgl. Kap. 3.5). Durch
die kontinuierliche Fortentwicklung computerbasierter Technologien wie z.B. Künstlicher Neurona-
ler Netzwerke (vgl. Kap. 3.3) und des maschinellen Lernens (etwa durch die Deep-Learning-Lernan-
ordnung vgl. ebd.) können mit Hilfe algorithmischer Prozesse enorme Datenmengen in Echtzeit
verarbeitet werden2.
Diese neue analytische Performanz ist nicht nur nützlich, sondern auch notwendig, da die verfüg-
baren Datenmengen jedes Jahr eine fast logarithmisch-wachsende Wachstumskurve erzeugen. Be-
reits im Jahr 2013 wurden weltweit insgesamt zwei Zettabyte an Daten erzeugt. 2012 existierte erst
ein Zehntel dieser Datenmenge3. Bis 2025 erwarten Marktforscher, dass der Umfang auf 180 Zetta-
byte ansteigen wird4. Hinzu kommt, dass der größte Anteil dieser Daten (IBM-Schätzung in 2016:
rd. 80 Prozent5) unstrukturiert bleibt und mit klassischen relationalen Datenbankmodellen kaum zu
verarbeiten ist. Deswegen basieren Abläufe in Branchen, die hauptsächlich mit unstrukturierten Da-
ten arbeiten – z.B. Finanzindustrie, Mikrobiologie oder E-Commerce (vgl. Kap. 4.3) –, bereits aus-
schließlich auf Big-Data-gestützten Infrastrukturen wie verteilten Dateisystemen und skalierbaren
Server-Clustern.
Von der starken Skalierung der analytischen Rechenleistung profitieren auch neue Marktakteure.
Der Einsatz von Big Data im Zusammenspiel mit einem sprunghaften Anstieg der analytischen Per-
formanz durch neue Datenbankarchitekturen eröffnet auch gänzlich neue Einsatzgebiete für Künst-
liche Intelligenz. So können etwa autonom fahrende PKWs durch Erkennungsalgorithmen alltags-
tauglich gemacht werden und ohne menschlichen Einfluss auf der Straße fahren. Dabei können
sogar bestimmte Teilaspekte des audiovisuellen Dateninputs wie z.B. Straßenverkehrsschilder, das
Verhalten anderer Verkehrsteilnehmer und der Straßenverlauf erkannt werden. Mit anderen An-
wendungen lassen sich auch bspw. die Anordnungen von Falten auf Kleidung, Tiere (vgl. dazu Abb.
1) oder Schrift auf Oberflächen sowie bestimmte Tonfrequenzen erfassen (vgl. Kap. 3.7)6.
Hinter den zunächst simpel klingenden Funktionen des Big-Data-basierten „Erkennens“, „Analysie‐
rens“ und „Auswertens“ von audiovisuellem Input verbirgt sich jedoch ein transdisziplinäres Pasti-
che aus dutzenden technologischen Prozessen, welche, je nach Forschungsstand und Konfiguration,
1 Bollier & Firestone (2010), S. 1ff. 2 Mayer-Schönberger & Mayer-Schönberger (2013), S. 8 3 Vgl. Jüngling, T. (2013a) 4 Vgl. Press, G. (2016) 5 Vgl. Schneider, C. (2016) 6 Zeiler, M.D./ Fergus, R. (2013), S. 3
17
die gewünschten Ergebnisse von Analysen mit einer für die Privatwirtschaft zufriedenstellenden
Konsistenz wiedergeben.
Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input
Quelle: Deepvis Toolkit Implementation nach: Yosinski et al. (2015)
Aufgrund der Breite von Anwendungsgebieten und der zahlreichen wissenschaftlichen Disziplinen,
die sich mit dem Gegenstand von Big Data auseinandersetzen, werden in den nächsten Kapiteln
der Gegenstand des von Werbe-Kommunikation geprägten Begriffs von Big Data erläutert und die
zentralen Technologien hinter daten-gestützten Analysen vorgestellt.
3.1 DEFINIT ION KÜNSTL ICHE INTELL IGE NZ
Als Grundlage von Big-Data-basierten Anwendungen dient das Prinzip der Künstlichen Intelligenz
(ferner: KI) bei dem es darum geht, den menschlichen Verstand virtuell nachzubauen. Konkreter
handelt es sich dabei um die Idealvorstellung von Computer-basierten, autonomen Agenten, die
ihre Umgebung in Form von Daten wahrnehmen, in Form von Algorithmen selbstständig Muster
erkennen und darauf basierend handeln können7.
Ein Schwerpunkt bei der Entwicklung von KI liegt daher auf der Nachahmung von Methoden und
Verfahren, die bisher nur das menschliche Gehirn bewerkstelligen konnte oder in denen Menschen
den Computern überlegen sind. Mit dieser Thematik beschäftigen sich zahlreiche wissenschaftliche
Disziplinen wie bspw. die Informatik, die Neurowissenschaft oder auch die Kognitionswissenschaft.
Bei der Analyse menschlichen Denkens und Handelns, dessen Vereinfachung durch Modelle und
schließlich der Nachahmung sollen neben dem wissenschaftlichen Erkenntnisgewinn meist auch
andere Lösungen generiert werden: Durch Prozess-Automatisierung steht immer auch die damit
einhergehende Erleichterung des Alltags für Privatpersonen und Wirtschaftsakteure im Vorder-
grund.
7 Russell & Norvig (2010), S. 1f.
18
Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken
Quelle: Vgl. SciKit-learn Developers (2017)
Durch die artifizielle Modellierung von sprachlichen und kognitiven Prozessen soll künstlichen In-
telligenzen die Wahrnehmung und Verarbeitung bestimmter Umgebungen (in Form von Daten o-
der Textkorpora) ermöglicht werden. Entsprechend der Definition von Russel und Norvig8 kann das
Ziel von KI entsprechend der zwei Dimensionen "menschliches Verhalten gegenüber rationalem
Verhalten" und "Denken gegenüber Handeln" in vier Klassen von Ansätzen unterteilt werden:
menschliches Denken, rationales Denken, menschliches Handeln und rationales Handeln.
Während "menschlich" bedeutet, dass das Ziel einer KI ist, den Menschen nachzuahmen, signalisiert
"rational" ein zielorientiertes Vorgehen, bei dem KI effizient bestimmte Werte identifiziert (z.B. bei
einer Kostenoptimierung o.ä.). Für marktrelevante Anwendungsszenarien sind natürlich die „ratio‐
nalen“ KI-Kategorisierungen besonders entscheidend.
In der Praxis soll dieses Modell dazu beitragen, bestimmte Probleme zu lösen. Konkret soll KI bei
der Klassifikation, der Regression, der Gruppierung und der Reduktion von Komplexität Abhilfe
schaffen (vgl. Abb. 2). Hierbei meint Klassifikation die Identifikation und Zuordnung von Datenmen-
gen in bestimmte Kategorien; Regression bedeutet die Bestimmung und Prognose fortlaufender
Werte in Abhängigkeit von anderen Werten; durch Gruppierung kann eine Menge an Objekten oder
Daten in disjunkte Sets aufgeteilt werden; mit Hilfe von Reduktion kann eine Reihe an zufälligen
Variablen reduziert werden, um Komplexität bei großen Datenmengen zu minimieren.
3.2 TAXON OMIE VON B IG DA TA
Angesichts der unterschiedlichen Zielvorgaben, die Big-Data-Analysen vorliegen, und der involvier-
ten Wissenschaftszweige, Konzepte sowie Methoden existieren in der wissenschaftlichen Literatur
zahlreiche Big-Data-Begriffsdefinitionen. Wie De Mauro et al. (2015) es in ihrer Übersicht aufzeigen,
8 Russell & Norvig (2010), S. 49ff.
19
orientieren sich diese meistens an konkreten Forschungsfragen oder am Rahmen der jeweiligen
wissenschaftlichen Disziplin. Wenige der in Tabelle 1 vorliegenden Auslegungen versuchen, den
Gegenstand von Big Data vollständig und überschneidungsfrei zu beschreiben.
Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen
DEFINITIONEN BEZÜGE
INFOR-
MATION
TECHNO-
LOGIE
ME-
THODE
RELE-
VANZ
Beyer/Laney: "High volume, velocity and variety information assets
that demand cost-effective, innovative forms of information pro-
cessing for enhanced insight and decision making."
X X X
Dijcks : "The four characteristics defining big data are Volume, Veloc-
ity, Variety and Value." X X
Intel Corp.: "Complex, unstructured, or large amounts of data." X
Suthaharan: "Can be defined using three data characteristics: Cardi-
nality, Continuity and Complexity." X
Schroeck/Shockley/Smart/Romero-Morales/Tufano: "Big data is a
combination of Volume, Variety, Velocity and Veracity that creates
an opportunity for organizations to gain competitive advantage in
today’s digitized marketplace."
X X
NIST Big Data Public Working Group: "Extensive datasets, primarily
in the characteristics of volume, velocity and/or variety, that require
a scalable architecture for efficient storage, manipulation, and analy-
sis."
X X
Ward/Barker: "The storage and analysis of large and or complex data
sets using a series of techniques including, but not limited to:
NoSQL, MapReduce and machine learning."
X X X
Microsoft News Center: "The process of applying serious computing
power, the latest in machine learning and artificial intelligence, to se-
riously massive and often highly complex sets of information."
X X X
Dumbill: "Data that exceeds the processing capacity of conventional
database systems." X X
Fisher/DeLine/Czerwinski/Drucker: "Data that cannot be handled and
processed in a straightforward manner." X X
Shneiderman: "A dataset that is too big to fit on a screen." X
Manyika/Brown/Bughin/Dobbs/Roxburgh/Byers: "Datasets whose
size is beyond the ability of typical database software tools to cap-
ture, store, manage, and analyze."
X X X
Chen/Chiang/Storey: "The data sets and analytical techniques in ap-
plications that are so large and complex that they require advanced
and unique data storage, management, analysis, and visualization
technologies."
X X X
20
DEFINITIONEN BEZÜGE
INFOR-
MATION
TECHNO-
LOGIE
ME-
THODE
RELE-
VANZ
Boyd/Crawford: "A cultural, technological, and scholarly phenome-
non that rests on the interplay of Technology, Analysis and Mythol-
ogy."
X X X
Mayer-Schönberger/Cukier: "Phenomenon that brings three key
shifts in the way we analyze information that transform how we un-
derstand and organize society: 1. More data, 2. Messier (incomplete)
data, 3. Correlation overtakes causality."
X X X
Quelle: De Mauro et al. (2015), S. 102
Als Big Data können demnach Datensets definiert werden, die entweder "Zu groß sind, um auf einen
Bildschirm zu passen" oder auch "In Bezug auf Volumen, Geschwindigkeit und/oder Vielfalt, eine
skalierbare Architektur für effiziente Speicherung, Manipulation und Analyse erfordern" (vgl. alle
Zitate mit Tab. 1). Die Spannweite dieser Definitionen verdeutlicht die Komplexität der Thematik.
Nichtsdestotrotz ist es möglich, auf Basis der existierenden Definitionen die Taxonomie des Big-
Data-Gegenstands zu bestimmen. Zwischen ideologischen, technologischen und mengenbasierten
Definitionen kann nämlich in Anlehnung an die relativ disjunkte Definition von Ward/Barker eine
Herangehensweise formuliert werden, die Big Data in dem Spannungsfeld von kontextuellen Bezü-
gen verortet. Diese Bezüge setzen sich wie folgt zusammen:
1. Beschaffenheit von Daten (Art, Hierarchie und Umfang eines Datensets)
2. Grad an struktureller Komplexität und Integrität
3. Eingesetzte Technologien
4. Kreation von ökonomischem Mehrwert
1.) Das erste definitorische Kriterium beschreibt die Beschaffenheit von Daten. Diese Kategorie er-
scheint damit als passender Indikator im Rahmen einer wissenschaftlichen Betrachtung, da alle a
priori definierten Eigenschaften von Daten qualifizierbar sind. Sowohl die Länge eines Datensets,
als auch seine möglichen Metatags oder Strukturmerkmale leisten im Kontext zu anderen vergleich-
baren Daten mit anderen Attributen die nötige erste Identifikationsarbeit. So können bei einem
quantitativen Vergleich der Eigenschaften eines Petabyte-großen unstrukturierten Datensets und
einer relationalen Datenbank beide Datensätze auf ihre Qualifikation als Big Data getestet werden9.
9 Ein konkreterer Wert zu dem zu verarbeitenden Datenvolumen, der darüber entscheidet, ob die vorliegen-
den Daten als Big Data klassifiziert werden können oder nicht, kann a priori nicht bestimmt werden. Auf-
grund der jährlich steigenden Reichenleistung von Computerprozessoren und den parallel dazu steigenden
Bandbreiten sowie stetig besser werdenden Kompressionsalgorithmen kann eine Datenmenge X, die zu
einem Zeitpunkt auf einem industriellen Niveau nicht schnell verarbeitet werden kann, bereits im nächsten
Jahr in einem Bruchteil der Zeit von einem privaten Computer verrechnet werden. Als groben Anhaltspunkt
lässt sich z.B. eine B2B-Umfrage des Marktforschungsinstituts IDC aus dem Jahr 2012 heranziehen. Dem-
nach galt für 17 Prozent der befragten IT-Entscheider ein Datenvolumen ab 10 bis 50 Terabyte, für 31
Prozent ein Volumen ab 50 bis 100 Terabyte, für 33 Prozent ein Volumen von 100 bis 1.000 Terabyte und
für 13 Prozent ein Volumen von 1.000 Terabyte und mehr als Big Data. Vgl. IDC (2012)
21
2.) Um den Gegenstand von Big Data weiter zu qualifizieren, sollte im zweiten Schritt die strukturelle
Komplexität der Daten und ihres Einsatzkontextes als Bezug herangezogen werden. Die Kompo-
nente "Big" in Big Data beschreibt nicht nur die a priori definierte Kondition der Daten, sondern
zugleich den Grad an Komplexität, welcher sehr umfangreichen Datenmengen innewohnt. Darüber
hinaus spielt es auch eine Rolle, ob Daten systematisch erhoben werden oder ob sie das Ergebnis
einer willkürlichen, unstrukturierten Aggregation sind. Eine zentrale Aufgabe von Big-Data-Analy-
sen ist die Strukturierung von unstrukturierten Datensets. Dabei kann die Komponente der Kom-
plexität wichtiger sein als die erste Komponente der Beschaffenheit. Ein Datensatz kann zwar einen
geringen Umfang haben, aber gleichzeitig auch einen sehr hohen Grad an Komplexität in Form von
unstrukturierten Attributen aufweisen, was eine Big-Data-Analyse notwendig macht.
3.) Besonders die Kategorie der eingesetzten Technologien schafft eine deutliche Abgrenzung zu
anderen Datenverarbeitungsmethoden: Sowohl Oracle als auch Microsoft haben in ihren offiziellen
Stellungnamen den Begriff Big Data durch die Abhängigkeit des Einsatzes bestimmter Technolo-
gien definiert. Demnach bedarf es zu der Abgrenzung von Big Data zur bisherigen Norm der Da-
tenanalyse des Einsatzes von stark skalierbaren, verteilten Datenbank-Infrastrukturen wie Hadoop,
MongoDB oder Cassandra sowie einer Auswahl von Analyseinstrumenten wie den R-Analyse Pro-
grammpaketen, HIVE, PIG oder visuellen Analysepaketen.
4.) Final bietet es sich ebenfalls an, den ökonomischen Mehrwert einer Big-Data-Analyse als Defi-
nitionskriterium heranzuziehen, da die notwendigen Ressourcen für diese Art von massenhafter
Auswertung von Daten immer eine monetäre Investition voraussetzen. Der Aufbau von IT-Infra-
struktur, aktivem Serverbetrieb, Datenspeicherungsmöglichkeiten und der Erwerb von Lizenzen für
Analysewerkzeuge sind stets mit Kosten verbunden. Natürlich sind Ausnahmen denkbar wie etwa
bei Big-Data-Analysen im Rahmen von Non-Profit-Untersuchungen oder gemeinnütziger For-
schung. Nichtsdestotrotz erübrigen sich diese Kosten nicht und müssen in diesen Fällen subventi-
oniert werden. Im Kontrast dazu stehen Analyseverfahren und Methoden, die einen weitaus gerin-
geren Ressourceneinsatz benötigen.
Fazit: Vor diesem Hintergrund kann der Gegenstand von Big Data als Umgang mit Datensets be-
zeichnet werden, die ein sehr hohes Volumen aufweisen, in ihrer Beschaffenheit unstrukturiert oder
anderweitig komplex sind, den Einsatz von flexiblen Datenbankmanagement-Systemen erfordern
und eine Kapitalinvestition rechtfertigen.
3.3 NEURONALE NETZE ALS ZENTRALE METHODIK VO N
KÜNSTL ICHER INTELL IG ENZ
Als Künstliche Neuronale Netze (KNN) werden in der Neuroinformatik Modelle bezeichnet, welche
die Topologie von biologischen Neuronen entsprechend einer Zielvorgabe nachbilden, durch Rück-
kopplungen kontinuierlich lernen und große Informationsmengen automatisiert strukturieren10. Die
Anwendungsgebiete von KNN reichen dabei von der Erkennung von Mustern in unstrukturierten
Datensets bis zur Erstellung von Wachstumsprognosen von Mikroorganismen11. Im Markt für Onli-
nemedien werden KNN häufig für Analysen im Rahmen von Sprach- und Texterkennung sowie als
Grundlage für Empfehlungsalgorithmen verwendet (vgl. Kap. 4.1 und Kap. 4.3).
10 Bishop (2006), S. 225ff. 11 Najjar et al. (1997), S. 27
22
Strukturell betrachtet, stellen KNN eine Ansammlung aus dicht untereinander vernetzten Elementen
dar, die im Stande sind, parallel zueinander kontinuierlich Daten zu verarbeiten12. Diese vernetzten
Elemente bilden den Kern von KNN und sind modellhaft an menschliche Neuronen-Zellen ange-
lehnt. Die besondere Eigenschaft, die ein KNN auszeichnet, ist, dass der Dateninput extern einge-
speist und auch aus einem anderen Neuron innerhalb desselben KNN stammen kann. Damit lässt
sich unter anderem ein Rückkopplungs-Effekt realisieren, durch den der rekurrente Datenfluss die
einzelnen Neuronen kontinuierlich anpasst bzw. trainiert, bis eine Zielausgabe möglichst präzise
approximiert werden kann13. Diese methodische Eigenschaft sorgt dafür, dass KNN über Trainings-
daten trainiert werden und dadurch aktiv lernen können - ein Vorgang, der den Erfolg von den
heute im Medienmarkt eingesetzten Innovationen überhaupt erst ermöglicht.
Als Beispiel für die Funktionalität eines Künstlichen Neuronalen Netzwerkes kann hier der Vorgang
der automatisierten Texterkennung einer Smartphone-Tastatur angeführt werden14. Als Dateninput
fungieren hierbei von einem Nutzer handgeschriebene Buchstaben auf dem Smartphone-Display.
Die Zielvorgabe für einen KNN-gestützten Erkennungsalgorithmus lautet, aus einer Vielzahl von
höchst unterschiedlich geschriebenen Buchstabensymbolen die Eingabe des Nutzers als mind. eine
von 26 oder mehr Buchstaben des jeweiligen Alphabets zu identifizieren und dem intendierten
Buchstaben möglichst akkurat zuzuordnen.
In einem ersten Schritt wird jede Nutzereingabe in ein Raster von Pixeln runtergebrochen und je-
dem Pixel ein Wert zugewiesen. Das Pixelraster und somit der geschriebene Buchstabe werden in
dem nächsten Schritt in kleinere Teilbereiche aufgespalten, für deren Analyse jeweils ein anderes
Neuron zuständig ist. Durch die parallele Bearbeitung der einzelnen Teilbereiche durch mehrere
Neuronen, kann der Algorithmus den Analysevorgang nämlich schneller durchführen. Die Summe
der Werte der einzelnen Teilbereiche eines Rasters wird nachfolgend mit einer Datenbank von Sum-
menwerten abgeglichen, die sich aus den Buchstaben des Alphabets speisen. Stimmt ein Wert mit
dem Wert aus der Datenbank überein, wirkt er aktivierend. Somit kann ein Neuron durch den Ver-
gleich der jeweiligen Werte bestimmte Muster eines Buchstabens als korrekt identifizieren. Zum
Schluss werden die einzeln erkannten Bestandteile des Pixelrasters zu einem einzelnen Symbol zu-
sammengesetzt und mithilfe des Summenwerts aller einzelnen Pixel ein konkreter Buchstabe aus
der Buchstabendatenbank approximiert15.
Dabei kann es natürlich vorkommen, dass durch eine besondere Schreibweise der Buchstabe nicht
korrekt erkannt wird und der Nutzer den resultierenden Output korrigiert. Dadurch wird eine Rück-
kopplungsschleife durch alle KNN erzeugt, welche die jeweiligen Aktivierungsschwellen entspre-
chend an die eingegebenen Werte des jeweiligen Nutzers anpasst. Damit findet ein Lernvorgang
statt, bei dem die aktivierenden Neuronen sich die Korrekturen merken und bei einer weiteren Ein-
gabe eher auf die angepassten Werte zurückgreifen, anstatt auf die standardisierten Ursprungs-
werte. Damit bringt ein Smartphone-Nutzer dem Erkennungsalgorithmus die Erkennungsroutine
für seine persönliche Handschrift bei.
12 Basheer & Hajmeer (2000), S. 3f. 13 Hecht-Nielsen (1988), S. 445ff. 14 Bishop, C. M. (1995), S. 1-9 15 Jaderberg, M. et al. (2014), S. 3f.
23
Zusammengeführt in Lernanordnungen und systematisiert in einem algorithmischen Modell, lassen
sich also durch KNN Analyseprozesse vereinfachen, indem zuvor unstrukturierte Datenmengen sys-
tematisiert und strukturiert werden16. Um diese Funktionalität für Problemlösungs-Szenarien in der
Wirtschaft zu optimieren (wie z.B. bei der Vorhersage von Kundenverhalten im Marketing), benöti-
gen manche Lernanordnungen von KNN wie etwa das im nachfolgenden Unterkapitel beschriebene
Deep Learning bis zu 100.000 Trainingsdaten-Beispiele17, obgleich auch kleinere Mengen im Be-
reich von 1.000 Trainingsbeispielen für leichtere Klassifikationsaufgaben ausreichen können18.
3.4 DEEP LEARNING UND WEITERE KNN -TOPOLOGIEN
Als Topologie eines künstlichen Neuronalen Netzes wird die Struktur bzw. die Anordnung der ein-
zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet (vgl. Abb. 3 und Abb. 4).
Da ein KNN aus mehreren hundert netzwerkartig verbundenen Neuronen bestehen kann, ist es
notwendig, das Geflecht an Neuronen in Schichten zu ordnen und die Attribute der Verbindungen
festzulegen.
Unter allen möglichen Lernanordnungen existieren vor allem zwei zentrale Klassifikationen von
Strukturen. Die sogenannten "Feedforward Netze" verarbeiten die eingespeisten Informationen nur
in eine Richtung gerichtet. Diese Art von Netzen kann eine oder mehrere Schichten von Neuronen
besitzen. "Rekurrente Netze" besitzen dagegen die Eigenschaft, den eingespeisten Informationsin-
put auch rückgerichtet verarbeiten zu können oder ihn gleich in den namensgebenden rekurrenten
Schleifen zu gewichten. In der Praxis kommen dabei oft mehrere Schichten an Neuronen zum Ein-
satz, da für eine Feedback-Schleife eine minimale Zeitverzögerung notwendig ist und diese erst
durch mehrere Schichten möglich wird. Die zwischengeschalteten Neuronen-Schichten werden als
Hidden-Layer bzw. als "Verborgene Schichten" bezeichnet (vgl. Abb. 3). Sie erhalten den Input der
Eingabe-Neuronen-Schicht, extrahieren daraus entsprechend ihrer Gewichtung Daten mit den re-
levanten Attributen und leiten diese an die Ausgabe-Neuronen-Schicht weiter. In der Praxis lassen
sich mithilfe solcher Deep Learning-gestützten Analysemodelle z.B. Muster inmitten von Datensets
zu Kundenverhalten identifizieren. Damit kann ein KNN-Model trainiert werden Kaufabsichten am
Beispiel der vorher recherchierten Artikel auf einer Website zu erkennen. Durch massenhafte Aus-
wertung von Tausenden solcher Vorgänge lassen sich aus Datensets zu Online-Kundenverhalten
Wahrscheinlichkeiten ableiten, mit der Nutzer auf Basis ihrer Interessen ähnliche Produkte in naher
Zukunft werden kaufen wollen.
16 Hastie et al. (2009), S. 9-41 17 Vgl. Frank (2017) 18 Halevy et al. (2009), S. 9ff.
24
Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow Bibliothek
Quelle: Vgl. TensorFlow (2018)
Als eine der bekanntesten Lernanordnungen gilt das Deep-Learning-Verfahren, bei dem viele ver-
borgene Zwischenschichten systematisch und rekurrent angeordnet werden. Über jede neue
Schicht werden die Informationen aus der Eingabeschicht systematisch verarbeitet, immer besser
systematisiert und an die jeweils nächste Schicht weitergegeben19.
Konkret nimmt jede Schicht eine einfache Gewichtung vor und reduziert damit graduell die Kom-
plexität für die nächste Schicht (vgl. Punkt 1 in Abb. 4). In Summe bildet sich durch dieses Lernver-
fahren mit jeder Schicht eine immer besser zu verstehende Struktur aus, die final eine vereinfachte
Klassifizierung und Analyse von hochkomplexen Datensets erlaubt. Nachdem die Informationen
einmal in der Ausgabeschicht angekommen sind, werden die Daten durch eine Rückkopplung rück-
wärts durch die gesamte KNN-Struktur gesendet (vgl. dazu Punkt 2 in Abb. 4). Mit jeder neuen
Rückkopplung werden die Gewichte der Neuronen erneut präziser gewichtet, bis der Trainingsda-
tensatz kaum Datenverluste produziert und somit die eingehenden Informationen möglichst genau
sortiert werden können, um das zu approximierende Problem zu lösen. Durch diesen Prozess zeigt
sich das adaptive Potential der Deep-Learning-Lernanordnung, das verstärkt im Rahmen von ma-
schinellem Lernen Anwendung findet.
Mithilfe von maschinellem Lernen und vor allem auf Basis der Deep-Learning-Anordnung können
schon heute viele selbstlernende Anwendungen realisiert werden, um komplexe Vorgänge schneller
zu analysieren und für Anwender repetitive Prozesse zu automatisieren. Beispielsweise konnte
Googles Künstliche Intelligenz AlphaGo Zero innerhalb von drei Tagen alle Regeln des sehr kom-
plexen Brettspiels Go lernen und nur durch dieses Grundwissen und ohne weitere Erfahrung die
besten professionellen menschlichen Go-Spieler besiegen20.
19 Vgl. Goodfellow et al., S. 164-175 20 Vgl. Cellan-Jones (2017)
25
Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife
Quelle: Goldmedia Analyse (2018) nach: LeCun et al. (2015), S. 437
Mit Hilfe von Deep Learning ist es des Weiteren Wissenschaftlern gelungen, in Echtzeit das Wetter
und die Jahreszeit in Videos zu manipulieren, einer KI beizubringen, eine eigene KI zu programmie-
ren, einer KI beizubringen, eigenständig Computerspiele perfekt spielen zu lernen, oder etwa Fahr-
zeugen das autonome Fahren zu ermöglichen.
Darüber hinaus existieren mehrere andere Lernparadigmen, wie z.B. das der "General Adversarial
Networks" (auf Deutsch: antagonistisch-kompetitive Netzwerke), die andere Strukturen von Infor-
mationsverarbeitung und damit weitere Daten-Optimierungsvorgänge ermöglichen. Unter einer
solchen Anordnung werden z.B. mindestens zwei KNN verstanden, die in ihrer Funktionsweise bei
der Verarbeitung von Daten im Rahmen eines Nullsummenspiels gegeneinander arbeiten21. Das
erste KNN soll dabei als Zielvorgabe alle als "schlecht“ definierten Ergebnisse vermeiden. Die Auf‐
gabe des zweiten KNN besteht darin, das erste KNN dazu zu bringen, schlechte Antworten zu ge-
nerieren22. Damit werden sukzessive die Trainingsergebnisse des ersten KNNs verbessert und die
Ergebnisse präziser.
Ein weiteres prominentes Beispiel stellt das "Reinforcement Learning" dar (oder auf Deutsch: be-
stärkendes Lernen). Damit wird eine KNN-gestützte Methode bezeichnet, bei der ein Algorithmus
durch Belohnungen konditioniert wird, eine möglichst optimale Lösung (Nutzenfunktion) zu errei-
chen. Die Belohnungen können dabei negativer oder positiver Natur sein, sodass der Algorithmus
21 Radford et al. (2015), S. 1f. 22 Goodfellow et al. (2016), S. 327-339
26
in Abhängigkeit von der Vorgabe approximieren kann, welchen Wert er maximieren oder minimie-
ren muss23.
Zusammenfassend lässt sich feststellen, dass KNN und Lernanordnungen wie Deep Learning integ-
rale Bestandteile von Big-Data-Prozessen geworden sind und auch die Grundlage für Künstliche
Intelligenzen bilden. Mit Hilfe der Automatisierung, Geschwindigkeit und der Menge an Daten, die
autonom verarbeitet werden kann, sorgen diese Technologien bereits dafür, dass sich Anwendun-
gen zur Text-, Bild-, und Spracherkennung global etablieren konnten.
3.5 RELATIONALE DATENBAN KEN UND VERTEILTE
DATEISYSTEME
Eine weitere zentrale Rolle spielen Datenbanken bei der Betrachtung und der Definition des Ge-
genstandes von Big Data. Wenn KNN als das metaphorische Gehirn der Künstlichen Intelligenz an-
gesehen werden können, so stellen Datenbanken und verteilte Dateisysteme das Herz- und das
Kreislaufsystem dar. Nach der Entwicklung von hierarchischen24 und netzwerkbasierten Datenbank-
typen25 in den 1960 Jahren26, gelten relationale Datenbanken seit den 80er Jahren sowohl in der
Informatik als auch in der Wirtschaft als Industriestandard für die elektronische Verwaltung von
Daten27. Ihre zentrale Aufgabe ist es, eine definierte Obermenge an strukturierten Daten aufzuneh-
men, sie in Form von Listen in Tabellen zu speichern und eine Teilmenge dieser Daten bei einer
Abfrage an den Nutzer wiederzugeben28. Relationale Datenbanken können in vielen Formen und
Datenbankmanagementsystemen erstellt und abgerufen werden. Die gängigsten Datenbankmana-
gementsysteme werden in den Sprachen "Structured Query Language" (kurz SQL) und "Not only
SQL" (kurz NoSQL) formuliert29.
In jeder Zeile einer relationalen Datenbank können beliebig viele Daten gespeichert werden. Über
sogenannte "Keys", "IDs" bzw. "Schlüssel" können die namensgebenden Relationen in einer Daten-
bank zwischen anderen Sets und Tabellen hergestellt werden. Dies geschieht, indem alle Datensets
gleichmäßig strukturiert sind und ein Attributwert als Schlüssel definiert wird. So können etwa An-
gaben zu den Mitarbeitern einer Firma in Zeilen abgespeichert werden. Attribute wie Name, Ge-
schlecht, Adresse etc. werden in Spalten organisiert. Eines dieser Attribute kann dabei als Schlüssel
definiert werden, sodass es möglich wird, über die erste Spalte einer relationalen Datenbank z.B.
über die Abfrage einer Identifikationsnummer Informationen über jeden Mitarbeiter abzurufen. Bei
Privatanwendungen und kleineren Datensets mit einer Speichergröße von bis zu zehn Terrabyte
können relationale Datenbanken relativ kosteneffizient betrieben werden30.
Bei einer direkten Datenbankabfrage werden Daten entsprechend der vorgegebenen Datenbank-
struktur aus einer Ausgangstabelle in eine passende Zieltabelle überführt, die nach demselben At-
23 Zell (1994), S. 95 24 Abiteboul & Hull (1986), S. 3-7 25 Bachman (1973), S. 269f. und Chen (1976), S. 9f. 26 Brosey & Shneiderman (1978), S. 625f. 27 Codd (1979), 397ff. und Sauer (2002), S. 13 28 Ebd. S. 20-23 29 Goldmedia Analyse (2018) nach: Google Trends (2018) 30 Russom (2013), S. 20
27
tributschema aufgebaut sein muss. Darüber hinaus müssen der Ausgangsdatentyp und der Zielda-
tentyp einander entsprechen. Wird nämlich etwa eine Liste an zehnstelligen Telefonnummern ab-
gefragt, erwartet das Datenbankmanagementprogramm auch, dass es diese Nummern als Ausgabe
bekommt. Folgen z.B. stattdessen Namendatensätze, gibt es ein Problem und die relationale Da-
tenbank kann die angeforderten Informationen nicht verarbeiten. Diese strikten Vorgaben von re-
lationalen Datenbankarchitekturen dienen vor allem dem Zweck, die Richtigkeit der abgefragten
Daten zu sichern.
Verteilte Dateisysteme (wie z.B. "Apache Hadoop") setzen an dieser Stelle an und umgehen die
Problematik, indem sie auch unstrukturierte Datensets mit unterschiedlichen Datentypen verarbei-
ten können (dies allerdings zu Kosten der Datenintegrität). Die Technologie hinter verteilten Datei-
systemen wurde ab 1997 von dem Medienkonzern Yahoo als "Projekt Lucene" entwickelt31, von
Google im Jahre 2004 unter dem Namen "Google File System" implementiert32 und als Open Source
Technologie von anderen schnell wachsenden Unternehmen wie z.B. Facebook adaptiert.
Neben der Möglichkeit, unstrukturierte, verschiedene Datensets mit geringerem Aufwand zu verar-
beiten, bieten verteilte Dateisysteme den Vorteil, dass sie bei größeren Datenabfragen sehr viel
Bandbreite durch Komprimierung und parallele Verarbeitung von Datenabfragen einsparen. Mit
diesem konzeptuellen Problem sahen sich in den frühen 2000er Jahren die meisten der heutigen
Technologie- und E-Commerce-Konzerne konfrontiert.
Die Indexierungsalgorithmen von Google mussten zunehmend wachsende Quantitäten an Daten
speichern und abrufen, Amazon war als global wachsende E-Commerce-Plattform angewiesen,
mehrere Hundert Terrabyte an Suchanfragen und Empfehlungsvorschlägen auszuspielen, und Fa-
cebook musste seine Rechenzentren sowie Bandbreiten aufgrund des starken Nutzerwachstums
kontinuierlich ausbauen. Für diese Art von Big-Data-Aufgaben eignen sich zwar auch relationale
Datenbanken auf SQL-Basis, doch die singuläre und lineare Natur der Verarbeitung von Datenab-
fragen ist mit hohen Kosten verbunden, die zwischen 2002 und 2005 für die damals noch jungen
Unternehmen nicht finanzierbar waren.
Mit Hilfe von "MapReduce", einer Weiterentwicklung des Google File Systems, wurde eine Methode
entwickelt, mit deren Hilfe sich große Quantitäten von strukturierten oder unstrukturierten Daten
parallel über mehrere Computer-Cluster hinweg mit hoher Geschwindigkeit verarbeiten lassen. Das
Verfahren basiert dabei auf der Unterteilung von einer Aufgabe in mehrere Unteraufgaben deren
Zwischenergebnisse nachher zusammengefasst werden33.
Die Effizienz eines MapReduce-Prozesses äußert sich vor allem darin, dass die notwendige Band-
breite um ein Zehnfaches und die benötigte Rechenleistung um ein 54-Faches reduziert werden
kann34, da sich die parallele Verteilung der Arbeitspakete zumindest theoretisch auf unendlich viele
Server und Rechenkerne skalieren lässt. Ferner stellen MapReduce-gestützte Datenbank-manage-
mentsysteme eine kostengünstige Alternative zu SQL-Servern dar, da die einzelnen Server durch
die skalierbare Serverlast nicht aus besonders leistungsstarken (respektive teuren) Komponenten
bestehen müssen.
31 Vgl. Entwickler.de (2009) 32 Vgl. Ghemawat et al. (2003) 33 Dean & Ghemawat (2008), S. 109-112 34 Chu, C. T. et al. (2007), S. 288
28
Zusammenfassend lässt sich feststellen, dass verteilte Dateisysteme gegenüber relationalen Daten-
banksystemen in Bezug auf die Verarbeitung von Daten den linearen Prozess-Flaschenhals durch
parallele und extrem skalierbare Prozesse umgehen, jedoch zu Kosten der Präzision der ausgege-
benen Daten. Diese methodischen und wirtschaftlichen Vorteile haben verteilte Datenbanksysteme
als Standard zur Analyse von Big Data in den Bereichen des Data Mining, wissenschaftlicher Simu-
lationen und Finanzanalysen etabliert35.
3.6 STATIST ISCHES NATURAL LANGUAGE PR O CESS ING
UND NATURAL LANGUAGE GEN ERATION
Als Grundlage für die automatisierte Erstellung von (journalistischen) Onlineinhalten dient die Me-
thode des Statistischen Natural Language Processing (auf Deutsch: maschinelle Verarbeitung na-
türlicher Sprache; ferner SNLP). Es handelt sich dabei um ein relativ junges Forschungsfeld, das sich
ab 2013 durch die Fortschritte in der Forschung um KNN von dem klassischen Natural Language
Processing abgespalten hat36. Da es sich bei dem Begriff SNLP um einen Oberbegriff für mehrere
Methoden der computerbasierten Analyse und Verarbeitung handelt, die auf mehreren theoreti-
schen Forschungszweigen und Technologien basieren, gibt es keine universale Definition. Als lang-
jährige SNLP-Forscherin und Pionierin auf diesem Gebiet formulierte E.D. Liddy deswegen eine vor
allem auf Textkorpora fokussierte Definition:
"Als Natural Language Processing (NLP) kann ein breites Spektrum an computergestützten Tech-
nologien bezeichnet werden, die für die linguistische Analyse von natürlich vorkommenden Texten
verwendet werden, um eine menschenähnliche Sprachverarbeitung für eine Reihe von Aufgaben
oder Anwendungen zu erreichen."37
Die Methode des SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf
dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem artifizi-
ellen Agenten (wie z.B. einem Computer, Sprachassistenten, Eingabemaske etc.), erkannt werden
muss. Deswegen bilden Dokumentenkorpora bzw. Arten von Semantiken in Daten die strukturelle
Basis für eine SNLP-basierte Analyse38. Erst wenn ein Algorithmus weiß, in welcher linguistischen
Umgebung er eingesetzt wird (z.B. Website, Sprache, Audiodatenbank etc.) und die Regeln der Um-
gebung als Handlungsmaßstab definiert werden, kann der Analyseprozess einen Kontext und eine
Syntax verstehen.
Die maschinell lernenden SNLP-Algorithmen versuchen somit nicht, für jedes Problem eine Lösung
zu finden, sondern sie lernen allgemeine Muster, mit deren Hilfe sie individuelle Fragestellungen
bearbeiten oder ganze Diskurse analysieren können39. Als prominentes SNLP-Beispiel gilt Google
Translate, dessen Algorithmen gesprochene oder geschriebene Sprache automatisch erkennen und
sinngemäß übersetzen können. Ein anderes Beispiel sind fortgeschrittene, KI-basierte Chatbot-
Plattformen oder Personal Voice Asisstants wie Siri oder Alexa. Als übergeordnetes Ziel von SNLP-
35 Vgl. Litzel (2017) 36 Vgl. Mikolov et al. (2013) 37 Liddy (2001), S. 1 38 Vgl. ebd. S. 2f. 39 Chowdhury (2003), S. 4ff.
29
Algorithmen kann die Automatisierung von linguistischen Prozessen und die Reduktion der dahin-
terstehenden Rechenkomplexität bezeichnet werden40.
Darüber hinaus kann festgestellt werden, dass in einer systematischen Betrachtung des Big-Data-
Gegenstandes SNLP nicht nur für den Input und die Verwertung von Daten verwendet wird, sondern
auch für die automatisierte Generierung von Inhalten. So kann zwar keine allgemeine technische
Einführung gegeben werden, dafür aber ein Überblick darüber, wie im Speziellen automatisierte
Textgenerierung und -ausgabe in der Medienbranche technisch umgesetzt wird:
Automatisierte Textgenerierung ist die zentrale technische Komponente, die automatisierten Jour-
nalismus erst ermöglicht41. Als Teilgebiet von SNLP ist Natural Language Generation (NLG) als tech-
nische Applikation definiert, die automatisch natürliche Sprache aus der datengestützten Präsenta-
tion von Informationen generiert42. Die Umsetzung wird im Rahmen der Funktionsweise von künst-
lichen neuronalen Netzwerken folgendermaßen beschrieben43: „Strukturierte, digitale Daten wer‐
den von Algorithmen selektiert, gewichtet und es wird ihnen je nach Programmierung und Beschaf-
fenheit der Datensets Relevanz (Priorisierung und Kontextualisierung der Daten) zugewiesen.“ Die
Daten werden in Folge des zitierten Prozesses damit zuerst in eine semantische Struktur gebracht
und anschließend in einen Text mit natürlicher und grammatikalisch korrekter Sprache verwandelt.
Nach der anfänglichen Programmierung und dem Training der Anwendung kann diese relativ au-
tonom und fehlerfrei journalistische Texte erstellen, veröffentlichen und auf verschiedenen Plattfor-
men verbreiten.
40 Mikolov et al. (2013), S. 4 41 Dörr (2016), S. 700f. 42 Reiter & Dale (2000), S. 2-4 43 Dörr et al. (2017), S. 123
30
Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses
Quelle: Goldmedia Analyse (2018) nach: Bateman & Zock (2003), S. 5f.
Basierend auf der Grundlage der vorangehend beschrieben SNLP-Prozesse, kann die algorithmische
Textgenerierung modellhaft in Form eines Input-Throughput-Output-Modells formuliert werden44.
Ausgangspunkt für den Gebrauch der Textgenerierung für den Journalismus ist eine Datenbank,
beispielsweise mit Daten zu Wetter, Sport oder Finanzen – dem Input. Während des Throughput
werden diese gemäß vordefinierter linguistischer und statistischer Regeln ausgewählt und verar-
beitet. Als Output entsteht ein Text in natürlicher Sprache. Der Prozess der eigentlichen Textgene-
rierung ist in vier Stufen unterteilt: 1. Macroplanning, 2. Microplanning, 3. Surface Realization und
4. Physical Representation (vgl. Abb. 5).
Während des Macroplanning werden die Daten ausgewählt, die für die Textgenerierung notwendig
sind, in eine Struktur gebracht und in einem sog. Text Plan organisiert45. Sie werden über öffentliche
Schnittstellen zur Anwendungsprogrammierung (APIs) oder private Datenbanken bezogen. Öffent-
liche Schnittstellen zur Anwendungsprogrammierung oder auch Programmierschnittstellen sind ein
Programmteil eines Softwaresystems, das anderen Programmen ermöglicht, auf das eigene System
zuzugreifen, also beispielsweise auf eigene Datenbanken.
Darüber hinaus sind Regeln und Codes – als Anforderungen an den Text – schon zu Beginn festge-
legt. Diese umfassen beispielsweise die Textlänge, Tonalität oder das Genre und sorgen dafür, dass
das Ergebnis der Textgenerierung schon vordefiniert ist. Im zweiten Schritt – dem Microplanning –
wählen Algorithmen aus, welche Elemente eines Datensets und welche linguistischen Strukturen
verwendet werden sollen. Dies bestimmt die grobe Struktur eines Satzplans und die Realisation des
späteren Texts. In der dritten Stufe – der Surface Realization (auf Deutsch: Oberflächenausführung)
– kommt dies schließlich zum Einsatz: Welche Worte werden gewählt und in welcher Reihenfolge
werden sie angeordnet? Das Ergebnis ist ein syntaktisch korrekter Text in natürlicher Sprache, der
44 Latzer et al. (2014), S. 395-425 45 Bateman & Zock (2003), S. 5f.
31
meistens automatisch veröffentlicht wird. Darüber hinaus kann noch ein vierter Schritt berücksich-
tigt werden, bei dem aus reinem Text und Textbausteinen konkrete Artikel oder Audiobeiträge vor-
formatiert werden. Hier werden das Layout und etwaige Bilder für das Zielmedium entsprechend
den Corporate-Design-Vorgaben aufgearbeitet.
3.7 HIDDEN -MARKOV-MODELLE
Als letztes grundlegendes Konzept für die Entwicklung und vor allem Implementierung von Künst-
licher Intelligenz werden die Hidden-Markov-Modelle betrachtet, auf denen alle Spracherken-
nungsanwendungen aufbauen46. Benannt nach dem russischen Mathematiker A.A. Markov, wurde
der stochastische Markov Prozess Ende der 60er Jahre im Rahmen der Erforschung von maschineller
Spracherkennung in Form von Hidden-Markov-Modellen weiterentwickelt47. Ein normaler Markov-
Prozess beschreibt die prognostische Güte von Datensets48. Das Wetter kann an einem jeden ge-
gebenen Tag zu X Prozent sonnig, zu X Prozent wolkig oder zu X Prozent regnerisch ausfallen. Die
zentrale Aussage dabei lautet, dass die Prognosegüte sich mit einer ansteigenden Kenntnis von
historischen Daten nicht verändert49.
Dies bedeutet, dass lediglich mit einer Teilmenge von Daten ähnlich gute Ergebnisse erzielt werden
können wie mit einem kompletten Datenset50. Kennt man die Wahrscheinlichkeit des Prozentsatzes,
mit dem es regnen wird, und den, mit dem das Wetter sonnig ausfällt, kann man per Inferenz auch
die Wahrscheinlichkeit von Regen ermitteln, ohne diese vorher wissen zu müssen.
Mit Hilfe von Hidden-Markov-Modellen (HMM) können dagegen auch kontinuierliche Ereignisse
beschrieben werden51. Zwar ist ein HMM auch als ein endliches Modell definiert, doch beschreibt
es eine Wahrscheinlichkeitsverteilung über eine unendliche Anzahl von möglichen Sequenzen. Das
bedeutet bei einer praktischen Anwendung, dass nicht nur z.B. drei Zustände des Wetters ermittelt
werden können, sondern dass kontinuierliche Vorgänge wie z.B. ein Gespräch in seinem Verlauf
erfasst werden kann, ohne vorher zu definieren, wie viele Wörter lang es sein wird. Durch selbstre-
flexive Schleifen können in einem nächsten Schritt Algorithmen formuliert werden, die mit Hilfe von
Textkorpora und Lexika gesprochene Texte für Computer verständlich machen.
Gesprochene Sprache bzw. ein konkreter Satz wie "Ich möchte Milch bestellen" kann als ein akusti-
sches Signal dargestellt werden und in einem finiten Frequenzspektrum abgebildet werden. Dabei
werden jedes Wort und seine Frequenz getrennt und isoliert analysiert. Durch einen Abgleich mit
einer Datenbank von Phonemen (den kleinsten bedeutungsunterscheidenden Einheiten des Laut-
systems einer Sprache52) kann jedes Wort als Zustand betrachtet werden. Innerhalb dieses Zustan-
des wird die Frequenz des Phonems mit einer Datenbank aller Phoneme abgeglichen und anhand
der Dauer der Aussprache über eine HMM bestimmt, um welches Phonem es sich handelt53.
46 Gales & Young (2008), S. 197 47 Basharin et al. (2004), S. 12ff. 48 Stewart (1994), S. 4f. 49 Eddy (1998), S. 755f. 50 Schomaker (2012), S. 1ff. 51 Rabiner & Juang (1986), S. 7 52 Meibauer (2007), S. 82 53 Waibel et al. (1989), S. 332
32
Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme
Quelle: Vgl. Kohler & Jurafsky (2017)
Im nächsten Schritt wird nach einer erfassten Pause (bzw. ausschlaggebender Übergangswahr-
scheinlichkeit) in der Frequenz das nächste Phonem analysiert und danach das nachfolgende (Vgl.
Abb. 9). Jeder Zustand im Verlauf der Analyse kann symbolisch als einzelnes Glied betrachtet wer-
den, und die Summe aller analysierten Zustände im Zeitverlauf ergibt die namensgebende (Hidden-
Markov-Modell-) Kette54.
Parallel zu diesem Vorgang versucht ein Algorithmus, diese einzelnen Zustände zusammenzusetzen
und zu einem Wort zusammenzufügen55. Über anschließende SNLP-Prozesse wird der semantische
Inhalt aller identifizierten Wörter des gesprochenen Satzes ("Ich möchte Milch bestellen") für den
Computer verständlich übersetzt. In einem letzten Schritt verwandelt der Algorithmus das ur-
sprüngliche akustische Signal in eine potentielle Arbeitsanweisung für nachgelagerte Prozesse - wie
z.B. einen E-Commerce-Auftrag zur Bestellung von Milch (vgl. dazu den Ablauf eines HMM-basier-
ten Erkennungsalgorithmus in Abb. 7).
54 Rabiner (1990), S. 266 55 Gales & Young (2008), S. 204
33
Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero"
Quelle: Vgl. Kohler & Jurafsky (2017)
3.8 ZUSAMMENFASSUNG
Bei Big Data und allen unter diesem Themenfeld einzuordnenden Technologien, die in den voran-
gehenden Artikeln beschrieben wurden, handelt es sich im Rückblick um relativ junge Technologien,
die erst vor zehn bis zwölf Jahren im Zuge der Digitalisierung und durch steigende Rechenleistung
sowie durch wachsende Datenbestände in der Forschung erst richtig Beachtung gefunden haben.
Umso beeindruckender erscheint es, dass diese Konzepte bereits ihre Synthese in marktreifen Pro-
dukten erleben - sowohl im Privatkunden - als auch im Unternehmenssegment.
KNN-gestützte Algorithmen in der Deep Learning-Anordnung bilden bei Produkten, die Künstliche
Intelligenz einsetzen (wie z.B. bei der Texterkennung, dem Data-Mining oder in Finanzanalysesoft-
ware) die funktionale Grundlage für automatisierte Lern- und Optimierungsprozesse. Mithilfe von
verteilten Datenbankarchitekturen können diese Technologien auf ein globales Niveau skaliert wer-
den, sodass auch Privatanwender von den Vorteilen automatisierter Prozesse in Form von etwa
persönlichen Sprachassistenten oder schnellen Suchmaschinenabfragen profitieren können. Hierbei
kommen insbesondere solche Technologien wie SNLP oder Hidden-Markov-Modelle zum Einsatz,
die überhaupt erst eine Mensch-Maschine-Interaktion ermöglichen, indem sie menschliche Signale
wie gesprochene Sprache oder geschriebene Texte für Computer verständlich übersetzen. In den
folgenden Kapiteln soll das Zusammenwirken dieser Technologien weiter an konkreten Beispielen
und Produkten aus dem Markt für Onlinemedien untersucht werden.
34
4 AUSGEWÄHLTE BEISPIELE VON
MEDIENBEZOGENEN BIG-DATA-
ANWENDUNGEN IM B2C-MARKT
Durch die stetige Weiterentwicklung und die steigende marktseitige Akzeptanz von Künstlicher In-
telligenz, Künstlicher Neuronaler Netze und Statistical Natural Language Processing beginnen sich
Big-Data-Anwendungen in allen Bereichen der traditionellen und digitalen Wirtschaft zu etablieren.
Um die Auswirkungen von Big-Data-gestützten Innovationen auf den Markt der Onlinemedien voll-
ständig und überschneidungsfrei zu untersuchen, werden nachfolgend die Marktpotentiale der drei
wichtigsten Entwicklungen in dem Business-to-Consumer- (B2C) Segment des deutschen Medien-
marktes dargestellt, die Nutzerakzeptanz der jeweiligen Technologien untersucht und in einem Aus-
blick die Nachhaltigkeit der Innovationen bewertet.
4.1 PERSONAL VOICE ASS IS TAN TS: K I -BAS IER TE
KOMMUNIKATION UND TR ANSAKTION
Seit dem Erscheinen der IBM-Software „ViaVoice“ und der Privatkunden-Version der Software „Dra‐
gon NaturallySpeaking“ im Jahr 1997 hat sich der Markt für digitale Sprachassistenz und Spracher-
kennung nicht nur dramatisch weiterentwickelt, sondern mit Personal Voice Assistants (ferner PVA)
auch eine komplett neue Produktkategorie geschaffen (vgl. Abb. 11). Bei PVA handelt es sich um
fortgeschrittene Chatbot-Plattformen, deren Aufgabe es ist, sprachliche Eingaben des Benutzers im
Rahmen eines imitierten Dialogs in Handlungsanweisungen umzusetzen und dadurch dem Benut-
zer zu assistieren. Zum Beispiel kann ein Nutzer einen PVA fragen, welches Wetter gegenwärtig
herrscht, und der PVA gibt ihm auf Basis der geolokalisierten Position das Wetter für die unmittel-
bare Umgebung wieder. PVA können je nach Ausführung entweder als Hardware in Form eines
Lautsprechers oder als Software auf einem Smartphone benutzt werden. Während des Zeitraumes,
in dem sie in Betrieb sind, müssen sie fortlaufend mit dem Internet verbunden sein, da die KI-Kom-
ponente auf einer Plattform ausgeführt wird, die sich nicht auf dem jeweiligen Endgerät, sondern
auf den externen Servern der Anbieter befindet.
Aus einer methodologischen Perspektive betrachtet, stellen PVA die Kulmination der wissenschaft-
lichen Erkenntnisse rund um Big Data dar. In ihrer Funktionsweise bieten sie Privatkunden den Zu-
gang zu der am höchsten entwickelten Form von Künstlicher Intelligenz, die es auf dem B2C-Markt
gibt. Als technologische Grundlage, auf der die KI hinter den PVA aufbaut, dient dabei die Summe
aller in Kapitel 3.3 bis Kapitel 3.7 untersuchten Modelle der Mensch-Maschine-Interaktion: Während
die Sprachaufzeichnungen über HMM definiert und prognostiziert werden, verarbeiten SNLP-Pro-
zesse sie in für Computer lesbare Rohdaten, die über in der Deep-Learning-Anordnung aufgebaute
und durch Millionen von anderen Datensets trainierte KNN gespeist werden, um als logisch-kon-
sistente Befehle auf den Servern der Anbietern ausgeführt zu werden. Dabei finden alle beschrie-
benen Vorgänge in Echtzeit auf verteilten Dateisystemen statt, die in Sekundenbruchteilen Tau-
sende von Befehlen filtern, analysieren und an die von den final eruierten Befehlen adressierten
Anwendungen von externen Dienstleistern weiterleiten.
35
Und genau diese Anwendungen, welche die jeweiligen Anfragen der Nutzer über PVA beantworten,
tragen maßgeblich zu dem Erfolg dieser neuen Big-Data-basierten Technologie bei. Denn die Funk-
tionalität der PVA geht über simple Assistenz hinaus und verbindet den Nutzer mit zahlreichen
Onlinemedien und E-Commerce-Anbietern. Die PVA dienen daher in ihrer primären Funktion als
Intermediär zwischen Nutzern und externen Anbietern von Dienstleistungen – oder anders formu-
liert als „Lead-Up-Channels“. Der kommerzielle Erfolg solcher PVA wie Amazon Echo oder Google
Home basiert auf ihrer beinahe barrierefreien Weiterleitung der Nutzerinteressen an Medien-
dienste, die über PVA ihre Unterhaltungsangebote über einen zusätzlichen Distributionskanal mo-
netarisieren können.
Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017
Quelle: Goldmedia Analyse (2018) nach: Selbstangaben der Unternehmen 2011-2017
Wenn der Zeitraum von 1997 bis 2010 als Start- und Wachstumsphase definiert werden kann, dann
stellen die Jahre 2011 bis 2016 eine Experimentalphase für Spracherkennung und Sprachapplikati-
onen dar. Nach dem Launch von Apples Siri im Jahr 2011 und dem Start von Google Now 2012 war
die Marktresonanz verhalten – vermutlich wegen der mangelnden Spracherkennungsqualität. Aber
"… [t]he hunger to experiment was profound“, resümiert ein Bericht des Unternehmens VoiceLabs
und bezeichnet den Markteintritt der digitalen Sprachassistenten Amazon Echo im Jahr 2015 und
Google Home im Jahr 2016 als den Urknall für die Verbreitung von kommerziellen Personal Voice
Assistants56.
2016 verkündete Sundar Pichai (CEO von Google Inc.), dass bereits 20 Prozent der mobilen Such-
anfragen per Spracheingabe erfolgen. Für das Jahr 2017 wird die Anzahl der verkauften Voice-First-
Geräte auf etwa 24,5 Mio. geschätzt, womit die Gesamtzahl der im Umlauf befindlichen Voice-First-
Geräte etwa 33 Mio. beträgt57. Im Vergleich zum Vorjahr wäre das ein Anstieg von gut 35 Prozent.
Das amerikanische Marktforschungsunternehmen Gartner nennt Sprachassistenten als einen der
zehn technologischen Trends für das Jahr 2017 und prognostiziert, dass bis 2020 etwa 30 Prozent
der Internetrecherchen per Sprachsteuerung erfolgen werden58.
4.1. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE
In dem Markt der Personal Voice Assistants konkurrieren inzwischen die größten Technologie-Un-
ternehmen um Marktanteile. Als erster kaufte Apple das 2007 gegründete Siri Inc. im Jahr 2010 auf
und brachte im folgenden Jahr den ersten Endkunden-orientierten Sprachassistenten in seinem
iPhone heraus.
56 Alpine.AI (2017), S. 4 57 Vgl. ebd. 58 Vgl. Pemberton & Levy (2016)
36
Als erster Konkurrent stieg 2012 das Unternehmen Google mit dem eigenen Sprachassistenten
Google Now in den Wettbewerb ein. Da der Fokus von Google Now vor allem auf der Sprachsuche
lag, ersetzte Google ihn im Jahr 2016 durch den verbesserten, intelligenten Sprachassistenten
Google Assistant, der darauf spezialisiert ist, seinen Nutzer kennenzulernen und mit ihm zu kom-
munizieren. Seit 2016 vertreibt Google auch smarte Lautsprecher, den Google Home und den
Google Home mini.
Im Jahr 2014 folgte Microsoft mit einem PVA-Angebot, seiner Sprachassistentin Cortana. Erst 2015
stieg Amazon mit der derzeit wohl bekanntesten Sprachassistentin Alexa und dem dazugehörigen
Amazon Echo in diesem Markt ein. Obwohl Amazon als letzter Big Player in Erscheinung trat, zählt
sein Angebot an vernetzten Endgeräten 2017 zu den breitesten, die über Amazons PVA Alexa ge-
steuert werden können (vgl. Abb. 12).
Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017)
Quelle: Vgl. Newman (2017)
Die zentralen Anwendungsbereiche von PVA können mit Hilfe einer repräsentativen Bevölkerungs-
befragung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC im Juni 2017 zu intelligenten
Lautsprechern dargestellt werden: An erster Stelle nennen die Befragten den Wunsch, die Sprach-
assistenten für das Abspielen von Musik einzusetzen. Direkt danach folgen mit 48 Prozent die all-
gemeine Informationssuche zu beispielsweise Nachrichten und Wetter und die Beantwortung von
Wissensfragen mit 44 Prozent. Darüber hinaus werden Sprachassistenten auch als Unterstützung
bei Organisationsaufgaben, wie bei der Terminplanung und Terminverwaltung (37%) oder Planung
von Fahrten und Routen (31%), eingesetzt. Von besonderem Interesse ist der Einsatz der Sprachas-
sistenten bei der Smart-Home-Steuerung, wo knapp ein Drittel der Deutschen Interesse an der
Nutzung zeigt.
Insgesamt werden die intelligenten Lautsprecher bzw. Sprachassistenten vor allem also für Basis-
Funktionen eingesetzt59. Ihr Einsatz bei komplexen Aufgaben, wie bspw. die Durchführung von
Bankgeschäften oder die Buchung von Tickets, findet derzeit noch eher selten statt60. Nutzer sehen
die Sprachassistenten stattdessen größtenteils als unterhaltsames Gimmick, das hauptsächlich für
59 Eresult GmbH (2017b), S. 11 60 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 5
37
einfache Aufgaben verwendet wird61: "[...] they did not attempt complex tasks (particularly without
visual confirmation) or tasks where they perceived a high social cost to failure":
In Bezug auf Nutzerzahlen lässt sich beobachten, dass die Anzahl der Alexa Skills in den letzten
Jahren zwar enorm angestiegen ist, jedoch nur ein geringer Teil dieser tatsächlich verwendet wird.
Die Anzahl der Skills für Alexa ist von etwa 1.000 Skills im Juni 2016 auf rd. 25.000 Ende November
2017 angestiegen62 (für eine Darstellung der Entwicklung von Alexa Skills vgl. Abb. 10). Nur 31
Prozent der Skills weisen jedoch mehr als einen Nutzerreview auf, was Analysten als Anzeichen dafür
sehen, dass es sich bei vielen der Skills um nicht genutzte "Zombie Skills“ handelt63. Es besteht
demnach eine große Diskrepanz zwischen Quantität und Qualität.
Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017
Quelle: Vgl. Kinsella (2017)
4.1. 2 MARKTPOTEN TIALE
Eine im Jahr 2017 von Accenture durchgeführte Nutzerbefragung in 26 Ländern bestätigt die Ver-
mutung, dass KI bereits jetzt eine zentrale Rolle im Leben vieler Konsumenten spielt und Sprachas-
sistenten routinemäßig in den Alltag integriert werden64. Als größte Nutzergruppe identifizierte die
Studie die Altersgruppe der 14- bis 17-Jährigen, bei denen mehr als die Hälfte (51 Prozent) anga-
ben, sprachgesteuerte digitale Assistenten in Smartphones und Laptops zu nutzen. Die Befragung
zeigte, dass sich innerhalb der Altersgruppen deutliche Unterschiede erkennen lassen: Je älter die
befragten Teilnehmer waren, desto geringer die Anzahl der Sprachassistentennutzer. Während es
bei den 18- bis 34-Jährigen noch 38 Prozent waren, lag der Anteil der PVA-Nutzer bei den 35- bis
55-Jährigen nur noch bei 27 Prozent und bei den über 55-Jährigen lediglich bei 15 Prozent. Doch
bereits ein Drittel (31 Prozent) der 14- bis 17-Jährigen gab an, Sprachassistenten bereits regelmäßig
zu nutzen.
61 Luger & Sellen (2016), S. 5291 62 Alpine.AI (2017), S. 6 63 Vgl. ebd. S. 8 64 Sovie et al. (2017), S. 3
38
Laut Accenture sei dies ein positives Zeichen für die Entwicklung zukünftiger Nutzerzahlen. Eben-
falls auf einen zukünftigen Anstieg der Nutzerzahlen deutet das Interesse über alle vier Altersgrup-
pen an der neuen Technologie hin. So gab in allen Segmenten etwa ein Drittel der Befragten an,
dass sie sich für eine zukünftige Nutzung von Sprachassistenten interessieren65. Auch der "Com-
manding Media"-Report des Marktforschungsunternehmens GfK kam zu dem Ergebnis, dass 76
Prozent der befragten US-Bürger bereits Sprachsteuerung auf verschiedenen Geräten ausprobiert
haben und eine von neun Personen einen digitalen Sprachassistenten besitzt. Von den Personen,
die einen Sprachassistenten besitzen, beschreiben 19 Prozent ihr Nutzungsverhalten mit rund um
die Uhr und 46 Prozent als sehr regelmäßig bis fast jederzeit66. Die Ergebnisse zeigen: Wer einen
Sprachassistenten besitzt, nutzt diesen meist auch regelmäßig.
Auch in Deutschland führte der Digitalverband BITKOM im Oktober 2016 zum Thema Sprachassis-
tenten eine repräsentative Befragung unter Bundesbürgern ab 14 Jahren durch. Sieben von zehn
Personen gaben bei der Befragung an, bereits von Sprachassistenten gehört zu haben, und 39 Pro-
zent, dass sie sich vorstellen könnten, Sprachassistenten in Zukunft zu nutzen67. Somit scheint auch
in Deutschland das Interesse an Sprachassistenten zu wachsen und einen Punkt erreicht zu haben,
"an dem ein Produkt wie der Echo mit dem Assistenten Alexa bereits eine recht breite Käuferschicht
erreichen kann"68. Prognosen gehen davon aus, dass sowohl die Bedeutung als auch die Nutzer-
zahlen von Sprachassistenten in Zukunft stark ansteigen werden. Während die Nutzerzahl laut Prog-
nosen weltweit zurzeit etwa auf 710 Mio. Nutzer geschätzt wird, soll sich diese Zahl bis 2021 mehr
als verdoppeln, womit die prognostizierte Nutzerzahl bei 1,8 Mrd. Nutzern läge69.
Ein ähnliches Potential lässt sich auch auf finanzieller Ebene beobachten: Experten erwarteten, dass
der Umsatz mit Personal Voice Assistants weltweit von rd. 90 Mio. Euro im Jahr 2016 auf rd. 590
Mio. Euro im Jahr 2017 steigen wird. Bis 2021 sollen digitale Assistenten sogar einen Umsatz von
bis zu zehn Mrd. Euro erwirtschaften. VoiceLabs prognostizierte für 2017, dass weltweit insgesamt
25 Mio. Geräte mit integrierten PVA verkauft wurden70. Damit würde sich der Absatz gegenüber
2016 versechsfacht haben.
Unter allen angebotenen PVA-Lautsprechern dominiert in den USA laut einer eMarketer Umfrage
der Amazon Alexa Echo mit rd. 70 Prozent Marktanteil71. Mit 24 Prozent folgt darauf das Konkur-
renzprodukt Google Home. Da der Amazon Alexa Echo und der Echo Dot in Deutschland bereits
seit 2016 verfügbar sind, der Google Home sowie der Google Home Mini aber erst in der zweiten
Hälfte 2017 in den Handel kamen, kann angenommen werden, dass die Marktanteile ähnlich verteilt
sind wie in den Vereinigten Staaten.
65 Vgl. ebd. S. 3-5 66 Vgl. GfK (2017) 67 Vgl. Prescher & Lutter (2016) 68 Vgl. Tißler (2017) 69 Vgl. Tractica (o. D.) 70 Alpine.AI (2017), S.4 71 Vgl. eMarketer (2017)
39
4.1. 3 NUTZERAKZEPTANZ
Da der Mensch schneller spricht als er schreibt72, bedeutet eine Interaktion durch die Stimme einen
"raschen Zugriff auf Informationen und eine deutlich leichtere Bedienung vieler technischer Ge-
räte"73. Laut der Bevölkerungsbefragung des Unternehmens PwC sind dies aus Sicht der Befragten
die beiden Hauptvorteile von intelligenten Lautsprechern: der schnelle Zugang zu Informationen
(46 Prozent Zustimmung) und die bequeme Sprachsteuerung (43 Prozent Zustimmung)74. Dass die
Bedienung per Sprache als so angenehm empfunden wird, könnte daran liegen, dass die "Nutzung
von Sprache als Eingabe- und Ausgabesignal eine nahezu [syntaktisch] bruchlose und somit natür-
liche Kommunikation mit Computerprogrammen ermöglicht"75. Sprache als intuitive, universelle
Bedienschnittstelle offeriert viele neue Möglichkeiten und ist besonders für Menschen, die in ihrer
Mobilität eingeschränkt sind, von großem Vorteil. Freihändige Bedienbarkeit ist für viele Nutzer laut
Umfragen ein großer Komfortgewinn und für 70 Prozent der Befragten der Hauptgrund für die
Nutzung von Sprachassistenten76. Wenn die Hände anderweitig in Benutzung sind, beispielsweise
beim Autofahren oder Kochen, können Sprachassistenten eine große Unterstützung sein und Mul-
titasking ermöglichen77. Für den Großteil der Nutzer stellt auch die Zeitersparnis einen Hauptvorteil
von Sprachassistenten dar78.
Sprachassistenten lassen sich also zusammenfassend nicht nur einfach bedienen, sondern erleich-
tern für Nutzer den Alltag und für Anbieter den Zugang zu ihren Dienstleistungen. In manchen
Aspekten bevorzugen Menschen sogar die Interaktion mit computerbasierten Applikationen, wie
eine Befragung von Accenture im Jahr 2017 zeigt. Vorteile gegenüber der Interaktion mit Menschen
sehen 84 Prozent der Befragten darin, dass die Sprachassistenten jederzeit verfügbar sind, 68 Pro-
zent, dass sie weniger voreingenommen sind, und 64 Prozent empfinden die Kommunikation mit
Sprachassistenten sogar als höflicher79. Auffällig ist, dass sich viele der genannten Vorteile unter
dem Stichwort "Benutzerfreundlichkeit" zusammenfassen lassen. Der Erfolg von Sprachassistenten
scheint zum großen Teil vom Ausmaß der Benutzerfreundlichkeit abhängig zu sein. Marktexperten
schätzen, dass PVA sich nur dann im Massenmarkt durchsetzen werden, wenn die Nutzung der
Assistenten eine positive, überzeugende Nutzererfahrung mit sich bringt und auch die Integration
von digitalen Inhalten wirklich gelingen sollte80.
Doch nicht alle sind von den Vorteilen der Sprachassistenten überzeugt. Eine Studie des Marktfor-
schungsunternehmens YouGov im Jahr 2017 zeigt, dass der "Gedanke an eine Zukunft mit digitalen
Assistenten [...] nur bei einem von fünf Deutschen (21 Prozent) positive Gedanken hervor[ruft]",
72 Vgl. Thomas (2017) 73 BfDI (2017), S. 1 74 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 75 Ferdinand & Jetzke (2017), S. 2 76 Eresult GmbH (2017b), S. 5 77 "As one might expect, the principle use-case for the CA was ‘hands free’, which was tied strongly to the
theme of timesaving and convenience", vgl. dazu Luger & Sellen (2016), S. 5291 78 Eresult GmbH (2017b), S. 5 79 Sovie et al. (2017), S. 3-5 80 Vgl. Eresult GmbH (2017a)
40
knapp die Hälfte der Befragten (47 Prozent) sieht einer solchen Zukunft negativ gestimmt entge-
gen81. In Bezug auf Sprachassistenten scheint in der deutschen Bevölkerung also eine gewisse Skep-
sis zu herrschen. Auch der weltweite Vergleich deutet darauf hin: Laut der Befragung von Accenture
im Jahr 2017 zählt Deutschland mit 28 Prozent zu den sog. "low-usage countries". Im Vergleich
hierzu liegt der Nutzeranteil von PVA in den USA, die zu den "high-usage countries" gezählt werden,
bei rd. 46 Prozent. Diese Unterschiede lassen sich durch die spätere und teilweise noch nicht er-
folgte Markteinführung in Deutschland erklären.
Doch die nachfolgend zitierten Studien zeigen, dass auch besonders Datenschutz, Privatsphäre und
Sicherheit eine große Rolle bei der Ablehnung von Sprachassistenten in Deutschland spielen. Laut
der repräsentativen Umfrage des Digitalverbands BITKOM im Jahr 2016 hängen die Hauptbedenken
vieler Nutzer gegenüber Sprachassistenten mit ihrer Datensicherheit zusammen. So begründen 73
Prozent der Befragten, die kein Interesse an der Nutzung von Sprachassistenten haben, ihren Ent-
schluss damit, dass sie ihre Daten nicht an Unternehmen abgeben wollen82. Aber auch die Daten-
sicherheit gegenüber Dritten spielt eine Rolle, und 61 Prozent sorgen sich, "dass Hacker die Geräte
manipulieren und mithören konnten"83.
Ähnliche Befunde zeigt auch die PwC-Befragung aus dem Jahr 2017, bei der als Hauptbedenken
die Angst vor Datenmissbrauch und vor zu hoher Transparenz genannt wurden. Fast drei Viertel der
Befragten sorgten sich vor Datendiebstahl, Manipulation und Missbrauch zum Beispiel durch Ha-
cker. Aber auch die Angst, abgehört zu werden, spielte für zwei Drittel eine entscheidende Rolle84.
Die Bedenken zum Datenschutz begründen sich in der Funktionsweise der Sprachassistenten: Damit
diese auf Zuruf reagieren können, müssen sie omnipräsent eingeschaltet sein und das Gesagte auf-
zeichnen: "Sprachassistenten hören permanent die Umgebung ab und zeichnen Befehle über Mik-
rofone auf"85. Man müsse sich der Dauerüberwachung im Klaren sein, schreibt die Bundesbeauf-
tragte für Datenschutz und Informationsfreiheit, und sich mit den damit verbundenen Nachteilen
beschäftigen86. Denn häufig ist für den Nutzer nicht nachvollziehbar, wie und wo erfasste Informa-
tionen gespeichert und genutzt werden: "Das wohl größte Problem ist nach Meinung vieler Kritiker
die 'Black Box', also die fehlende Transparenz darüber, wann die Geräte was und wieviel aufzeich-
nen, wohin die Daten übermittelt werden, wer sie für welche Zwecke analysiert, wer welche Schlüsse
daraus zieht, welche Konsequenzen sich daraus für den Anwender ergeben und ob die Daten bzw.
die daraus generierten Bewegungs- und Persönlichkeitsprofile überhaupt jemals wieder gelöscht
werden."87
Man muss nicht einmal selbst aktiv Sprachassistenten nutzen, um mit den Problemen konfrontiert
zu sein. Personen, die Sprachassistenten im Haushalt oder im öffentlichen Raum nutzen, könnten
unbeabsichtigt und unwissend Daten von unbeteiligten Dritten aufzeichnen und speichern88. Ihr
81 Vgl. Inhoffen (2017) 82 Vgl. Prescher & Lutter (2016) 83 Vgl. ebd. 84 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 85 Vgl. BfDI (2017) 86 Vgl. ebd. 87 Vgl. Lederer (2017) 88 Vgl. BfDI (2017)
41
Einsatz sollte also immer "umfassende Informiertheit aller Anwesenden und echte Wahlfreiheit vo-
raus[setzen]"89.
Sprachassistenten basieren ihre Funktionalität auf einem stetigen Zufluss an Informationen, und je
mehr Daten sie über ihre Nutzer haben, desto besser funktionieren sie. Es besteht eine "Ambivalenz
zwischen latenter Verfügbarkeit auf der einen sowie einer etwaigen Einbuße von Privatsphäre auf
der anderen Seite"90. Gespeicherte Daten sind insofern ein Problem, als dass es für Konzerne wie
Amazon oder Google besonders leicht ist "Sprachinformationen [...] mit Daten aus anderen Online-
Quellen zu detaillierten Nutzerprofilen für Marketing und Marktforschung [zusammenzuführen]"91.
Besonders für Amazon ist es durch Alexa und den Amazon Echo möglich "einzigartige Daten über
die Nutzer zu sammeln und auszuwerten" und in ein "stark individualisiertes Voice Marketing flie-
ßen" zu lassen92. In den Medien wurden PVA in diesem Zusammenhang mit dem Begriff "Trojani-
sches Pferd" bedacht93. Denn um funktionieren zu können, müssen Sprachassistenten dauerhaft mit
dem Internet verbunden sein. Dies schürt bei vielen Nutzern die Angst, sie könnten von Unterneh-
men oder Hackern abgehört und manipuliert werden94, und Experten warnen vor Cyberkriminalität
wie Identitätsdiebstahl oder Bankkontobetrug95.
Dagegen fand eine BITKOM-Studie zu dem Thema Datenschutz in der digitalen Welt heraus, dass
viele Deutsche Online-Dienste nutzen, obwohl sie Bedenken bezüglich ihrer Datensicherheit ha-
ben96. So nutzen laut der Untersuchung 87 Prozent der Befragten solche Dienste, obwohl sie kein
volles Vertrauen haben, dass der Dienst die gesetzlichen Vorgaben in Deutschland zur Verarbeitung
persönlicher Daten einhalte. Als Begründung, die Personal Voice Assistants trotzdem zu verwenden,
nennen hier 72 Prozent, dass sie diese nützlich finden, und 21 Prozent, dass ihnen der Datenschutz
einfach nicht so wichtig ist97. Nimmt man diese Befunde als Indikator, könnte sich das Verhalten
vieler in Bezug auf Sprachassistenten ähnlich entwickeln: Man ist sich der Gefahren bewusst, nimmt
diese jedoch aufgrund des Komfortgewinns und der Bequemlichkeit in Kauf.
4.1. 4 ZUSAMMENFASSUNG UND AUSBLICK
Selbstlernenden Personal Voice Assistants sprechen Technologiekonzerne wie Google oder Apple
ein großes Potential zu, die Gesellschaft und ihre Interaktion mit Computern vollkommen zu revo-
lutionieren und zu einer ähnlich großen Umwälzung zu führen wie zu ihrer Zeit Touchscreens oder
das Mobile Web98. Tißler betrachtet in diesem Zusammenhang die Entwicklung der Benutzerober-
flächen von Computern und kommt zu dem Schluss, dass diese sich mit Hilfe von SNLP- und KNN-
89 Vgl. Thomas (2017) 90 Ferdinand & Jetzke (2017), S. 1 91 BfDI (2017), S. 2 92 Mendet (2017), S. 19 93 Vgl. Schmundt (2015) 94 Vgl. Prescher & Lutter (2016) sowie PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017) 95 Vgl. BfDI (2017) und Mendet (2017) 96 Rohleder (2015), S. 12 97 Vgl. ebd. 98 Vgl. Tißler (2017)
42
gestützten Techniken immer mehr der Art annähern, wie Menschen miteinander und mit ihrer Um-
gebung interagieren. Sprachen und Gesten als Bedienform wären seiner Ansicht nach ein logischer
und natürlicher Entwicklungsschritt in diese Richtung99.
Es wird davon ausgegangen, dass Spracherkennung und Sprachsteuerung in den Bereichen Auto-
mobilindustrie, Smart Home, Unterhaltung, Shopping, Gesundheitswesen und Übersetzung zu um-
fangreichen Neuerungen und Transformationen führen werden. Bei dem aktuellen Marktkampf der
großen Technikfirmen geht es langfristig gesehen um Kontrolle (z.B. durch Lock-in-Effekte) und
Macht (in Bezug auf den Wettbewerb): "Wer den Assistenten kontrolliert, kontrolliert auch den Zu-
gang der Nutzer zum Internet – und damit mittelfristig auch den Zugang zu Informationen, E-Com-
merce, Marketing-Botschaften und der Produktion"100. Hierbei zeigen aktuelle Studien, dass es zu-
gleich eher unwahrscheinlich ist, dass ein Haushalt mehrere Sprachassistenten beziehungsweise
smarte Lautsprecher unterschiedlicher Anbieter verwenden wird und vermutlich das "Winner Takes
It All"-Prinzip greifen wird101. Fraglich bleibt jedoch, ob es tatsächlich, wie multilateral prognosti-
ziert, zu Voice-First kommt und grafische Benutzeroberflächen wie der Touchscreen oder die Tas-
tatur in Zukunft durch Sprache ersetzt werden.
Spracherkennungssysteme stoßen heute in noch vielen Bereichen an ihre Grenzen, wie die Nutzer-
befragung von PwC zeigt. Zwar können sie bei einer Vielzahl von Aufgaben im Alltag unterstützen
und durch Zeitersparnis und das Ermöglichen von Multitasking eine große Hilfe darstellen, jedoch
reicht der Funktionsumfang in vielen Bereichen noch nicht aus. Auch die Unsicherheiten potentieller
Nutzer in Bezug auf Datensicherheit und Schutz der Privatsphäre führen dazu, dass von einer all-
gemeinen Akzeptanz im Alltag und einer regelmäßigen Nutzung von Sprachassistenten 2017 noch
nicht die Rede sein kann. Dennoch sind die Verkaufszahlen für Sprachassistenten in den letzten
Jahren angestiegen (von 6,5 Mio. Einheiten auf 24,5 Mio. Einheiten weltweit102), und immer mehr
große Technikunternehmen wie Apple investieren in diesen Bereich. Auf der Seite der Nutzer sind
es nicht mehr nur die sogenannten Early-Adopter, die sich für das Thema interessieren, sondern
eine immer breiter werdende Masse aus allen Altersschichten.
Auch wenn in vielen Aspekten, wie beispielsweise dem Datenschutz, noch Klärungsbedarf besteht,
werden Sprache und Sprachassistenten in der Zukunft sehr wahrscheinlich eine wichtige Rolle bei
der Interaktion mit smarten Endgeräten einnehmen. Kritisch zu betrachten bleibt weiterhin die Aus-
sage, dass Sprache zur ausschließlichen Bedienschnittstelle wird. Stattdessen kann eher davon aus-
gegangen werden, dass sie eine wichtige Ergänzung zu bisherigen Benutzeroberflächen darstellen
wird.
99 Vgl. ebd. 100 Vgl. Thomas (2017) 101 Vgl. Klotz (2017) und VoiceLabs (2017a) 102 Vgl. Alpine.AI (2017)
43
4.2 CHATBOTS UND SOCIAL -B OTS: AUTOMATIS IERTE
(MASSEN - ) KOMMUNIKAT ION
Im Bereich der digitalen KI-gesteuerten Assistenz existiert neben der Kategorie der Personal Voice
Assistants ebenfalls die Kategorie der sog. Chatbots, mit welchem Nutzer ebenfalls direkt kommu-
nizieren und interagieren können, wenn auch zumeist in Schriftform. Generell ist unter dem Begriff
Chatbot eine Softwareanwendung zu verstehen, welche während einer direkten oder indirekten
Interaktion mit einem Nutzer online interpersonelle Kommunikation imitiert. Chatbots werden da-
bei von Personal Voice Assistants anhand der folgenden Aspekte unterschieden:
Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants
Quelle: Goldmedia Analyse (2018) nach: VDZ (2017), S. 15
Diese Art von Kommunikation wird in der Wirtschaft vor allem im Rahmen von Customer-Relati-
onship-Management (kurz CRM) angewendet: Chatbots nehmen online erste Anfragen von Kunden
entgegen und beantworten simple Fragen zum Unternehmen oder zu Produkten. Sie werden oft
aus ökonomischen Gründen eingesetzt, um Kosten für Call-Center-Angestellte einzusparen und um
die Erreichbarkeit zu erhöhen.
Darüber hinaus existiert im Markt für Social-Media-Dienstleistungen eine Subkategorie von Chat-
bots, die speziell für Massenkommunikation konzipiert ist und in kurzer Zeit ganze Nutzergruppen
erreichen soll. Solche automatisierten Agenten werden auch als Social Bots bezeichnet. Die Funkti-
onsweise basiert zumeist auf einer Texteingabemaske, in der ein Nutzer seine Nachricht oder Frage
verfasst. Der Social Bot analysiert mit Hilfe von KNN-basierten Datenbanken (etwa durch KNN Mus-
tererkennung bzw. "Pattern Matching“-Algorithmen) die Eingaben und gibt auf Basis seiner Analyse
eine Antwort an den Nutzer wieder. In sozialen Netzwerken fungieren sie oftmals nicht als Kunden-
betreuer, sondern als Bewerber von Dienstleistungen und Services. So sind Social Bots im Zuge der
US-Präsidentschaftswahl in die Schlagzeilen geraten, weil mehreren politischen Organisationen vor-
geworfen wurde, mit Hilfe solcher Chatbots maßgeblich die Wahl beeinflusst zu haben.
KRITERIUM CHATBOTS PVA
Plattformzugang Offene Technologie Geschlossene API-Plattformen
Technik Scripted-KI, Applet, Datenbank KI, Deep Learning, KNN
Personalisierung Kaum/Nicht vorhanden Stark/Kernelement
Use Cases Wenige (v.a. monothematisch) Viele (selten monothematisch)
Service Fokus auf den Service Fokus auf den Nutzer
Zugang Auffindbarkeit herausfordernd Integriert in digitale Ökosysteme
Nutzer Lock-In Gering Potentiell stark
44
4.2. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE
Chatbots kommen in vielen Variationen vor und können anhand unterschiedlicher Merkmale wie
z.B. ihres wirtschaftlichen Zwecks, ihres technischen Grundgerüsts oder durch ihre Performanz un-
terschieden werden. Da Chatbots in ihrer grundlegenden Funktion aktiv Inhalte produzieren müs-
sen und responsiv sein sollen, werden sie in der Sozialwissenschaft durch die Komponente der Hy-
peraktivität klassifiziert: Das definitorische Identifikationskriterium für einen Chatbot ist derartig an-
gesetzt, dass ein Bot auf Twitter mehr als 50 Tweets pro Tag generieren muss103. Neben diesem
relativ simplen Kriterium existieren auch differenziertere Definitionen, die nicht nur die Frequenz
der Bot-Aktivität berücksichtigen, sondern Chatbots nach ihrer soziopolitischen Funktion, Ziel-
gruppe und eingesetzten Technologie klassifizieren. Demnach existieren Gruppen von
1. legitimen Chatbots, die sich bzw. ihr Unternehmen hauptsächlich selbst vermarkten (Mar-
keting-Bots),
2. hochaktiven Accounts mit einer geringeren Anzahl von Followern,
3. plattformübergreifenden Sharing-Bots, die Inhalte von anderen sozialen Netzwerken oder
Websites kopieren, und
4. hochentwickelten Bots, die auch mit Halb-Mensch-Halb-Bot-Konten gemischt werden
(nach Ferrara al. 2017).
In der Informatik werden Chatbots in Form von automatisierten Agenten definiert, die durch einen
Algorithmus gesteuert werden, um Nachrichten zu verbreiten und menschliches Verhalten nachzu-
ahmen, während sie ihre Bot-Identität verbergen können104. Technisch betrachtet, kann ein Chatbot
mehrere Social-Media-Accounts kontrollieren, um simultan eine große Menge an Menschen oder
Gruppen zu erreichen. Als Kommunikationskanal können hierbei Messenger-Anwendungen, Web-
suchmaschinen, Unternehmenswebseiten, Apps, PVA oder soziale Netzwerke dienen. Durch die zu-
grundeliegende Technik können Chatbots in einfache und fortgeschrittene Exemplare aufgeteilt
werden.
Als einfache Bot-Plattformen fungieren dabei meist Scriptsprachen-Applets (z.B. "python" oder
"VBA"), die auf eine finite, vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem er-
folgreichen Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren
fortgeschrittene Bot-Plattformen, die auf Algorithmen mit Künstlicher Intelligenz aufbauen. Sie
greifen zurück auf Elemente des maschinellen Lernens und dahinter geschaltete künstliche Neuro-
nale Netzwerke in der Deep-Learning-Anordnung. Der audio-textuelle Input und Output wird durch
NLP-Mechanismen organisiert und verarbeitet. Ihre Funktionalität geht über das simple Beantwor-
ten von Fragen hinaus und ermöglicht eine fortgeschrittene Mensch-Maschine-Interaktion mittels
Sprache oder Texteingaben. Im Idealfall soll der Mensch nicht merken, dass er sich mit einem Chat-
bot unterhält.
Inhaltlich lassen sich Bots in unterschiedliche Kategorien gliedern, z.B. Informieren über das Wetter
oder Verkehrsverspätungen, ein Unternehmen, ein Produkt oder eine politische Partei zu fördern.
103 Vgl. Howard & Kollanyi (2016) 104 Vgl. dazu Ferrara et al. (2017) und Bessi & Ferrara, (2017)
45
Daher arbeiten nicht alle Bots interaktiv oder beteiligen sich an Diskussionen. Sie können auf legi-
time Weise als Dienstwerkzeuge verwendet werden, z.B. für die Öffentlichkeitsarbeit, und sind per
se nicht schädlich105.
Quelle: VDZ (2017), S.10
4.2. 2 MARKTPOTEN TIALE
Offiziell werden in Deutschland von zahlreichen Unternehmen, Institutionen und sogar Parteien
Chatbots in unterschiedlichem Umfang betrieben. So nutzt z.B. die CSU bei Facebook den Social
Bot "Leo Bot". Auf der Homepage der Bundesregierung gibt es einen virtuellen Chatbot-Adler. Die
FDP und SPD setzen wiederum Chatbots ein, die über Amazons Sprachassistenten Alexa zu errei-
chen sind. Das konkrete Marktpotential wurde noch nicht offiziell erhoben. Analysten haben jedoch
geschätzt, dass 2016 der US-Wirtschaft durch den theoretischen Ersatz von Arbeitsplätzen mit Chat-
bots ein Einsparpotential in Höhe von 65 Mrd. Dollar entstanden wäre (vgl. Abb 12).
Wie im vorangehenden Kapitel beschrieben, hat sich in den letzten Jahren besonders die Kategorie
der fortgeschrittenen Bot-Plattformen mit Hilfe von maschinellen Lerntechniken und Verbesserun-
gen in der Verarbeitung natürlicher Sprache stark weiterentwickelt. Das Marktpotential und die mit
dem Einsatz von Chatbots verbundenen Einsparungen sind für Technologiekonzerne sehr groß, da
sich autonome Agenten in die meisten Interfaces wie Websites, mobile Anwendungen wie Messen-
ger, Assistant Devices u.v.m. integrieren lassen (vgl. Abb. ). Vor diesem Hintergrund erscheint es
plausibel, dass Tech-Riesen wie Google, Amazon, Apple etc. (vgl. Abb. 13) viele Ressourcen darauf
aufwenden, Bot-Plattformen zu trainieren und zu perfektionieren. Berichten zufolge arbeiten allein
bei Amazon rund 5.000 Entwickler daran, Alexas KI zu trainieren und auszubauen106. Die wirtschaft-
lichen Perspektiven für den Einsatz von Chatbots sind groß: Gartner prognostizierte bereits 2011,
105 Vgl. Ferrara et al. (2016) 106 Vgl. Buxton (2017)
Abb. 11: Taxonomie von Chatbots
46
dass 2020 bereits 85 Prozent aller Kunden-Unternehmen-Interaktionen durch Chatbots erfolgen107.
2016 betrug das Investitionsvolumen durch Risikokapitalgeber in Chatbot-Entwickler und Bot Start-
ups weltweit mindestens 170 Mio. Euro108.
Quelle: Vgl. Business Insider (2016)
Darüber hinaus sorgen Chatbots für eine neue Art von Kundenkonversionskanal im Rahmen des
"Sales-Funnel"-Ansatzes109, indem sie Nutzer direkt in die Onlineshops der jeweiligen Unternehmen
weiterleiten. Illustrative Beispiele sind der ChatShopper-Bot Emma von Zalando, Jana, der Chatbot
der Deutschen Post, der Ray-Ban Chatbot auf Facebook oder intelligente, persönliche Assistenten
wie Siri, Alexa oder Google Home. Nutzer haben die Möglichkeit, direkt über die Konversation mit
einem Chatbot zu einer Produktauswahl in einem Onlineshop zu gelangen oder sogar direkt in der
Konversation mit dem Bot ein Produkt zu erwerben.
Somit beginnen Chatbots und PVA im Marketing-Mix von E-Commerce-Unternehmen einen festen
Platz einzunehmen. Das Onlineverzeichnis Chatbots.org indexiert mittlerweile rund 1.338 aktive
Chatbots (Stand 03.01.2018). Rd. 500 davon sind der Kategorie "Branded Conversation" zugeordnet
- sie werden also im Zuge von gezielter Markenkommunikation für E-Commerce-Sales eingesetzt.
Zudem hat sich nach eigener Aussage die Anzahl von integrierten Facebook-Messenger-Bots von
11.000 Chatbots im Juni 2016 auf 100.000 im April 2017 fast verzehnfacht110.
Deren Funktionalität zielt ebenfalls darauf ab, entweder "Sponsored Messages" zu verbreiten oder
dem Nutzer direkt bzw. indirekt Waren zu verkaufen. Bei rund 23 Mio. aktiven Facebook-Nutzern
in Deutschland ergibt sich demnach für Händler ein enormes Marktpotential über einen komplett
neuen Absatzkanal.
107 Gartner Inc. Customer 360 Summit (2011), S. 2 108 Vgl. Rahgozar (2016) 109 "Ein Vertriebs- oder Sales-Funnel ist ein Trichter zur Identifikation von Verkaufsabschlüssen. Er stellt sicher,
dass die Umsatzplanung eines Vertriebsmitarbeiters oder -leiters mit einer Wahrscheinlichkeit von nahezu
100 Prozent auch in Vertriebserfolge umgesetzt wird", Vgl. dazu: Ahlers (2016) 110 VDZ (2017), S. 6
Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD
47
Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017
Quelle: VDZ (2017), S.14
4.2. 3 NUTZERAKZEPTANZ
Nutzer sehen Chatbots dagegen bisher noch skeptisch. 2016 gab bei einer Befragung von 1.500
Onlinekunden noch jeder zweite Nutzer an, Chatbots ungern zu nutzen. Als Gründe hierfür gaben
62 Prozent an, dass Chatbots zu unpersönlich seien; die dahinterliegende Technik der Text-/Sprach-
erkennung zu ungenau sei (41 Prozent), die Bedienung zu umständlich ist (25 Prozent) oder der
Nutzen hinter dem Chatbot-Konzept nicht erkannt wurde (24 Prozent). Ein Sechstel aller Befragten
gab an, dass sie sich beobachtet fühlten111.
In einer Umfrage des BITKOMs aus demselben Jahr112 zeigte sich ebenfalls, dass mehr als die Hälfte
aller Befragten (54 Prozent) Chatbots ablehnen. Davon kritisierten 63 Prozent, dass sie nicht mit
einem Computer kommunizieren wollen; 54 Prozent zweifelten, dass Chatbots ihre Anfragen zuver-
lässiger als Menschen bearbeiten würden; 49 Prozent zweifelten, dass Chatbots zuverlässig sind
und 47 Prozent fanden, dass die Technologie für Chatbots noch nicht ausgereift sei (vgl. Abb. 14).
Eine repräsentative Umfrage von YouGov zu "Vorbehalten gegenüber Chatbots aus Kundensicht"
ergab 2017, dass neben den oben genannten Kritikpunkten nunmehr auch die Gefahr von Falsch-
meldungen (45 Prozent), die Gefährdung von Arbeitsplätzen (41 Prozent) und die mangelnde Un-
terscheidung von Mensch vs. Maschine (32 Prozent) eine Rolle spielen113.
Trotz aller Vorbehalte finden sich in der YouGov-Studie auch Hinweise auf ein hohes Marktpoten-
tial: Von den 49 Prozent der Nutzer, die Chatbots akzeptieren, finden rund zwei Drittel, dass Chat-
bots ihnen eine gewisse Unabhängigkeit gegenüber Öffnungszeiten verschaffen und sich mit ihrer
Hilfe Warteschleifen vermeiden lassen. 40 Prozent der Befragten waren zufrieden, dass sie durch
Chatbots keinen Zeitdruck empfanden, wie sonst bei Service-Mitarbeitern.
111 Alle Angaben vgl. Fittkau & Maaß Consulting (2016) 112 Vgl. BITKOM (2016a) 113 Vgl. YouGov (2017)
48
Aber Nutzer sehen Chatbots nicht nur als Kundenservice-Tool: Laut einer Befragung des BITKOM
2016 gaben zwar 41 Prozent der Chatbot-Befürworter an, diese im Bereich des Kundenservice zu
sehen.
Quelle: Vgl. BITKOM (2016b)
Die Mehrheit der Befragten sah diese allerdings eher als Assistenten, welche die persönliche Ter-
minplanung übernehmen (68 Prozent), Veranstaltungstickets reservieren (64 Prozent) und Reisen
sowie Flüge online buchen (58 Prozent)114.
Im Gegensatz zu den legitimen Marketing-Bots (vgl. hierzu Kap. 4.2.1) kann die Funktion der sog.
Social Bots, die hauptsächlich in sozialen Netzwerken wie Facebook, Twitter oder Instagram anzu-
treffen sind, übergeordnet als öffentlichkeitswirksame Verstärkung der digitalen Agenda von Parti-
kularinteressen verstanden werden (im positiven als auch im negativen Sinne). Sie werden nicht nur
im Rahmen des politischen Framing eingesetzt, sondern auch für dezentrale Kampagnen von zah-
lenmäßig kleinen Interessensgemeinschaften. Da eine technisch fortgeschrittene Social-Bot-Platt-
form (vgl. Kap. 4.2.10) problemlos simultan mehrere (hundert) Social-Media-Accounts steuern kann
und damit potentiell Unmengen an negativen Inhalten über deren Ziele an eine digitale Öffentlich-
keit ausspielen kann, werden solchen Bot-Kategorien rufschädigende Meinungsbildung vorgewor-
fen115.
Nicht zuletzt vor dem Hintergrund des US-Wahlkampfs im Jahr 2016 und der Fake-News-Debatte
im Journalismus hat die Akzeptanz der Nutzer von Social Bots sehr gelitten. Bereits im Januar 2017
wurde im Deutschen Bundestag deswegen ein Thesenpapier des Büros für Technikfolgen-Abschät-
zung diskutiert, das unter anderem die Notwendigkeit einer Regulierung von Social Bots fordert,
da "Social Bots […] zur Veränderung der politischen Debattenkultur im Internet bei[tragen] und […]
114 Vgl. BITKOM (2016a) 115 Vgl. Woolley (2016)
Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016
49
durch die massenweise Verbreitung von (Falsch-)Nachrichten zu einer Desinformation und 'Klima-
vergiftung' im öffentlichen Diskurs führen [können]. Social Bots bergen das Potential, das Vertrauen
in die Demokratie zu unterlaufen"116.
4.2. 4 ZUSAMMENFASSUNG UND AUSBLICK
Chatbots stehen als kommerzielles Produkt vor einem großen Problem: Auf der einen Seite genie-
ßen sie als Kommunikationskanal nur eine schwache Nutzerakzeptanz, und auf der anderen Seite
genießen sie einen zweifelhaften Ruf als Manipulationswerkzeuge in sozialen Netzwerken. Laut ei-
ner repräsentativen Onlinebefragung der Developer Week aus dem Mai 2017 stoßen Chatbots als
Kommunikationskanäle im deutschen Markt kaum auf Interesse: 71 Prozent aller deutschen Inter-
netznutzer ab 18 Jahren wollten Chatbots 2017 noch nicht nutzen und 46 Prozent wussten gar nicht,
was Chatbots überhaupt sind. Darüber hinaus ist ein Drittel der Befragten der Meinung, dass Chat-
bots in ihrer Funktionalität unausgereift sind117.
Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018
Quelle: Übersicht von problematischen Dialogen mit Chatbots (#1: Shop Spring Bot, #2: Poncho.is, #3: 1–800-Flowers
Bot, und #4 SureBot), Vgl. chatbot.fail (2018)
Ihre Funktionalität zeichnet sich marktseitig als der zentrale Faktor ab, welcher für ihre geringe Ak-
zeptanz seitens der Kunden sorgt. Als neuartiger Kommunikationskanal für Kundenakquise soll ein
Chatbot im Sinne eines Sales-Funnel eine direkte Konversion schaffen118. Dieser Vorgang ist auf
116 Vgl. Kind et al. (2017) 117 Alle Statistiken der Developer Week (DWX) nach: Fitschen & Maaß Consulting (2017), S. 12, 13,16 118 In der Disziplin des Marketings die Bezeichnung der Veränderung des Status einer nicht zahlenden Person
zu einem (Marken-) Kunden. Vgl. dazu Patterson, L. (2007), S. 185ff.
50
allen Ebenen mit Akquisitionskosten verbunden, und nur ein kleiner Bruchteil der adressierten Ziel-
personen kommt durch einen Sales-Funnel und sorgt für ein positives Return-on-Investment für
das Unternehmen119.
Dabei ist entscheidend, dass der Konversionsvorgang optimal ablaufen kann, sodass negative Er-
fahrungen einen unentschlossenen Kunden nicht verprellen. Wenn jedoch ein Drittel aller deut-
schen Internetnutzer der Meinung ist, dass die Chatbot-Technologie noch nicht ausgereift ist, und
70 Prozent sie gar nicht erst nutzen möchten, dann stellt dies das grundlegende Konzept eines
Chatbots in Frage. Wenn ein Kunde mitten in einem Dialog mit dem Chatbot steht, welcher aber
nicht versteht, was der Kunde von ihm will oder demselben Kunden grundsätzlich falsche Informa-
tionen zuliefert, kann die Konversion nicht optimal ablaufen (vgl. dazu Abb. ).
Um eine optimale Qualitätskontrolle gewährleisten zu können, müssen die Chatbots durch Ser-
vicemitarbeiter überwacht werden, was wiederum für viel zu hohen Mehraufwand sorgen würde.
Aus diesem Grund hat bspw. Facebook beschlossen, seine sehr profilierte Chatbot-Plattform "M"
einzustellen120. Facebook-Messenger-Chatbots konnten automatisiert nur auf rd. 30 Prozent der
Kundenanfragen antworten121 und benötigten für die restlichen 70 Prozent der Anfragen einen
menschlichen Intermediär.
Während nutzerseitig die mangelnde Akzeptanz von Chatbots die Entwicklung aufhält, hindert un-
ternehmensseitig die mangelnde Erfolgs-Messbarkeit von Chatbots eine tiefergehende Integration
in den Marketing-Mix122. Bereits 2017 fand das Marktforschungsinstitut Forrester heraus, dass zwar
rd. 57 Prozent aller Unternehmen weltweit Chatbots für CRM-Prozesse nutzen oder zu nutzen pla-
nen123. Im Fazit aber kamen die Marktforscher zu dem Schluss, dass die meisten Unternehmen die
Chatbots schlecht und unwirtschaftlich betreiben würden124. Und in der Tat lässt sich ein Return-
on-Investment nicht genau kalkulieren, wenn man keine Ziele, Erfolgskennzahlen oder andere Met-
riken wie Verweildauer oder Konversationslänge quantifizieren kann. In ihrer gegenwärtigen Form
bieten die meisten Anbieter diese Tracking-Dienstleistungen nicht an125. Da die Implementierung
von Chatbots jedoch immer ein Budget voraussetzt, wird es für Werbungtreibende und Sales-Ab-
teilungen in Unternehmen schwer, ein Investment in eine Produktkategorie wie Chatbots zu ver-
antworten - insbesondere, wenn diese kaum Anklang beim Nutzer findet.
Von der Kategorie der Social Bots kann angenommen werden, dass sie ihr Nischendasein in dem
Bereich des politischen Microtargeting zum Zweck der gezielten Wähleransprache weiter fortsetzen
wird. Der oft mit dem Gesetz konfligierende Einsatz von Big-Data-gestützten Social-Bot-Plattfor-
men durch politische Randgruppen und die darauf folgenden staatlichen Ermittlungen126 haben
autonomen, KI-getriebenen Akteuren einen enormen Imageschaden verpasst. Der Technologiekon-
119 Vgl. Botteri (2008) 120 Vgl. Fiegermann (2018) 121 Vgl. Orlowski (2017) 122 Vgl. Porcellana (2018) 123 Vgl. Wang, X. et al. (2017) 124 Vgl. Boutin (2017) 125 Eine Ausnahme bilden externe Dienstleister wie z.B. "AirPR", die eine mediale Reichweite von Chatbots
messen können, vgl. dazu AirPR (2018) 126 Vgl. Holland (2017)
51
zern Microsoft war sogar gezwungen, seinen selbstlernenden Twitter-Social-Bot "TAY" abzuschal-
ten, nachdem dieser durch gezielte Manipulationen am Informationsinput durch eine organisierte
Randgruppe zu rassistischen und rechtsnationalen Äußerungen konditioniert wurde127.
Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017
Quelle: Vgl. Panetta (2017)
Insgesamt lässt sich zusammenfassen, dass Chatbots und Social-Bots zwar ein starkes Marktpoten-
tial aufweisen, dieses jedoch im Gegensatz zu PVA nicht so bald monetarisieren werden können, da
sie wenig akzeptiert sind und die Technologie hinter den Bot-Plattformen noch nicht gänzlich aus-
gereift ist. Zwar gibt es vereinzelt auch positive Beispiele wie den Microsoft XiaoIce Bot128, der in
China täglich eine Zielgruppe von 40 Mio. Nutzern erreicht, oder den preisgekrönten Mitsuku Bot,
welchem eine der fortschrittlichsten KI attestiert wird und der täuschend ähnliche Dialoge mit Men-
schen führen kann129. Gartner Inc. aber verortete die Technologie von Chatbots und Smart Robots
im Rahmen seiner Hype-Zyklus-Analyse für neue Technologien sehr nahe am Gipfel der überzoge-
nen Erwartungen (vgl. dazu Abb. ). Diese bedeutet, dass Chatbots und Social Bots voraussichtlich
schon sehr bald im Tal der Enttäuschungen landen werden, da sie nicht alle Erwartungen von Un-
ternehmen und Kunden gleichermaßen erfüllen können. Erst in fünf bis zehn Jahren ist laut Gartner
mit einer (für die Wirtschaft) erfolgreichen und produktiven Implementierung dieser Technologie
zu rechnen.
127 Vgl. Lee, P. (2016) 128 Vgl. Microsoft (2017) 129 Mitsuku Bot gewann in den Jahren 2013, 2016, und 2017 den Loebner Preis als menschenähnlichster Chat-
bot, vgl. dazu Mitsuku Bot (2018)
52
4.3 ALGOR ITHMISCHE OPTIM IERUNG VON
EMPFEHLUNGEN IN ON LINEMEDIEN UND IM E-
COMMER CE
Algorithmen gelten als unverzichtbarer Bestandteil für die Ordnung immenser Datenmengen. Im
Onlinemedien-Markt sind sie insbesondere für digitale Dienste relevant, die zwischen Inhaltsange-
boten und Nutzern vermitteln – sogenannte Intermediäre130. Sie üben mittlerweile einen großen
Einfluss auf viele Bereiche unseres Alltags aus und werden bereits in den verschiedensten Gebieten
eingesetzt131. Besonders bewusst sind uns Algorithmen bei der Informationssuche über bspw.
Google, Facebook oder YouTube132.
Diese Plattformen nutzen Prozesse der algorithmischen Entscheidungsfindung (algorithmic deci-
sion making, nachfolgend: ADM) für die nutzerspezifische Zusammenstellung von Informationen.
ADM umfasst dabei "den Gesamtprozess von der Datenerfassung über die Datenanalyse bis hin zur
Deutung und Interpretation der Ergebnisse und der Ableitung einer Entscheidung oder einer Ent-
scheidungsempfehlung aus den Ergebnissen"133. Lernende Algorithmen können durch die Be-
obachtung vieler Fälle dabei Regeln ableiten und auf neue Fälle anwenden134.
Nachfolgend wird anhand ausgewählter Beispiele erläutert, auf welche Informationen Algorithmen
im Bereich Onlinemedien und E-Commerce zugreifen. Anschließend wird auf die Akzeptanz von
ADM-Prozessen durch die Nutzer eingegangen, wobei auch die Konzepte Filter Bubble und Echo
Chamber beleuchtet werden. Darüber hinaus werden Potentiale auf dem Markt bewertet sowie ein
Ausblick gegeben.
4.3. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE
Generell stellen algorithmische Systeme zur Entscheidungsfindung proprietäre Technologien dar,
die von Medienunternehmen eingesetzt werden, um ihren Nutzern oder Kunden die Auswahl von
Produkten zu erleichtern. Onlinemedien setzen sie vornehmlich ein, um Nutzern auf Basis von be-
reits konsumierten Musikstücken, Filmen oder Artikeln inhaltlich ähnliche Vorschläge anzubieten,
damit diese im Endeffekt mehr Zeit auf den jeweiligen Plattformen verbringen. Im E-Commerce
dienen sie dazu, dem Kunden auf Basis von bereits gekauften Produkten und getätigten Suchan-
fragen, Produktvorschläge zu unterbreiten. Die Implementierung von ADM-Prozessen dient hier zur
Steigerung des Absatzes. Als Technologie hat ADM bereits die Marktreife erreicht und wird weit-
läufig im deutschen Markt für Onlinemedien eingesetzt. Darüber hinaus lassen sich durch ADM
auch weitere Probleme auf der Anbieterseite lösen.
130 Schulz & Dankert (2016), S. 17 131 Insbesondere in den USA bspw. in Universitäten (Vergabe von Hochschulplätzen), im Finanzsektor (Bestim-
mung von Kreditausfallrisiken, Portfoliomanagement für Finanzanleger), für Kriminalitätsprognosen und
Predictive Policing, in Smart Home-Anwendungen, für Einkaufsassistenten, automatisierte Preissetzung,
autonomes Fahren u.a. (vgl. Lischka & Klingel, 2017) 132 Ecke (2016), S. 21 133 Vieth & Wagner (2017), S. 10 134 Vgl. ebd., S. 10f.
53
Die Warenwirtschaftssysteme von Händlern sind z.B. immer häufiger an Onlineshops oder Markt-
plätze wie eBay oder Amazon angebunden, um neue Märkte und Regionen erschließen zu können.
Die Nutzer dieser Plattformen werden demzufolge mit einer stetig wachsenden Produktpalette kon-
frontiert, aus der die zu individuellen Bedürfnissen passenden Artikel gefunden werden müssen. Zur
Erleichterung der Auswahl werden insbesondere auf großen Marktplätzen verschiedene Algorith-
men eingesetzt, die auf Benutzerdaten basieren. Seit der erstmaligen Vorstellung derartiger Ent-
scheidungshilfen im Jahr 1992 durch Goldberg et al.135 wurden viele verschiedene Verfahren und
Technologien entwickelt. Die meisten aktuell angewandten Methoden empfehlen Artikel mit der
höchsten Kaufwahrscheinlichkeit.
Das gängigste Empfehlungssystem, genannt "Collaborative Filtering", gruppiert Personen mit ähn-
lichen Merkmalen und schlägt von dieser Kundengruppe gekaufte Produkte vor136. Annahme hier-
bei ist, dass Nutzer, die sich in der Vergangenheit beim Kauf von Artikeln einig waren, auch beim
Kauf anderer Produkte ähnliche Vorlieben haben. Neben diesem nutzerbasierten wird auch das ar-
tikelbasierte Verfahren angewendet. Das Verfahren führt zu Empfehlungen von mit bereits gekauf-
ten Produkten zu verwandten oder gleichartigen Erzeugnissen. Bekanntheit erwarb die Methode
durch die Plattform Amazon, welche mit dem Hinweis „Das konnte Sie auch interessieren“ weitere
Artikel anbietet. Diese Verfahren stoßen allerdings schnell an ihre Grenzen. Denn: Personen mit
gleichen Verhaltensmustern zu gruppieren, ist nur in einem gewissen Rahmen möglich und auch
bei sehr großen Gruppen ist schnell eine gewisse Berechnungsdauer erreicht. Sowohl die nutzer-
als auch die artikelbasierte Gruppierung sind Formen des sogenannten Collaborative Filterings. Bei
beiden Clustermethoden werden die Empfehlungen durch andere Nutzer beeinflusst137.
Eine weitere Methode stellt das sog. "Content-Based Filterings" dar. Dieser Algorithmus geht in-
haltsanalytisch vor und misst spezifische Eigenschaften bereits gekaufter Produkte. Auf Basis von
Parametern wie Größe, Farbe, Material oder Form werden ähnliche Artikel empfohlen. Ein Nachteil
hier ist, dass dem Nutzer dabei hauptsächlich bereits Bekanntes präsentiert wird. Zudem sind be-
stimmte Produktgruppen wie etwa Musik oder Bilder schwer zu analysieren. Zur Optimierung der
Empfehlungen werden die Verfahren des Collaborative und Content-Based Filterings daher häufig
zusammen angewendet – bspw. auch von Amazon. Noch einen Schritt weiter gehen Data-Mining-
Verfahren, welche auf den Filter-Methoden basieren und zusätzlich Assoziationsanalysen anwen-
den138. Aus diesen gehen Assoziationsregeln hervor, welche Korrelationen zwischen dem Kauf ver-
schiedener Produkte beschreiben. Eine weit verbreitete Methode zur Findung dieser Regeln ist der
Apriori-Algorithmus, welcher sich insbesondere bei kleinen oder mittleren Datenmengen anbietet.
Für sehr große Datensets führt die Komplexität der Assoziationsregeln allerdings zu langen Lauf-
zeiten, was zu den modifizierten Verfahren "AprioriTID" und "AprioriHybrid" führte139.
Bei Streamingdiensten wie Netflix, Amazon Video oder Spotify greifen aufgrund ihrer besonderen
Eigenschaften diese Methoden nur bedingt. Deshalb arbeiten Streaming-Media-Dienste an ande-
ren ausgeklügelten Empfehlungssystemen. Basierten bspw. die Empfehlungen von Netflix früher
allein auf der Nutzerbewertung ausgeliehener DVDs von eins bis fünf Sternen140, steht der Plattform
135 Vgl. Goldberg et al. (1992) 136 Linden et al. (2003), S.76f. und Guo et al. (2017), S. 2 137 Linden et al. (2003), S. 77. und Guo et al. (2017), S. 3 138 Guo e.a. (2017), S. 3 139 Lazcoretta (2008), S. 1422f. 140 Gomes-Uribe & Hunt (2016), S. 2
54
heute aufgrund umfangreicher Nutzerdaten ein Vielfaches mehr an Möglichkeiten zur Verfügung.
In der Regel halten die Unternehmen die Details der algorithmischen Entscheidungsprozesse aber
unter Verschluss (vgl. Kapitel 0). Der Musik-Dienst Spotify erklärt seinen Usern lediglich, dass das
Unternehmen die Musik-Empfehlungen auf Basis deren Geschmacks auswählt und sich dabei unter
anderem an Künstlern orientiert, die zuvor gehört wurden141. Für die nutzbringende Auswertung
von Userdaten gründete das Unternehmen eine speziell ausgerichtete Analyse-Abteilung und ar-
beitet mit vielen Datenspezialisten zusammen142. Netflix versucht, das Empfehlungsverfahren trans-
parenter zu gestalten und veröffentlichte Anfang 2016 die Funktionsweisen der Algorithmen des
unternehmenseigenen Empfehlungssystems (vgl. Tab. 3).
Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems
ALGORITHMUS FUNKTIONSWEISE
Personalized
Video Ranker
Sortiert Genres sowie der Videos darin mit Hilfe von persönlichen Nutzervorlieben so-
wie (unpersönlicher) Beliebtheit.
Top N Video
Ranker
Empfiehlt besonders gut zu persönlichen Vorlieben passende Filme innerhalb der ein-
zelnen Genres.
Trending Now Empfiehlt kurzzeitig spezifische Filme auf Grundlage von (1) saisonalen Effekten wie
etwa dem Valentinstag, der zu steigendem Interesse an Romantikfilmen führt, oder (2)
einmaligen Ereignissen wie bspw. Umweltkatastrophen, nach denen häufiger Doku-
mentarfilme zum Thema rezipiert werden.
Continue Wat-
ching
Empfiehlt kürzlich abgebrochene Filme, sofern diese anhand verschiedener Kriterien
darauf schließen lassen, dass der Nutzer sie gern weitersehen möchte (seit dem Ab-
bruch verstrichene Zeit, Zeitpunkt des Abbruchs im Film, Anzahl und Art der in der
Zwischenzeit gesehenen Videos, genutzte Endgeräte).
Video-Video-
Similarity
(Because You
Watched)
Der unpersonalisierte Algorithmus erstellt zu jedem Film einen Katalog ähnlicher Titel.
Dem Nutzer wird eine Auswahl davon mit Hilfe des Personalized Video Rankers ange-
zeigt.
Page
Generation
Unter Beachtung schwankender Interessen bei der Nutzung (etwa aufgrund der Tei-
lung von Accounts in einem Haushalt, Anlass und Zeitpunkt der Nutzung sowie ver-
schiedener Stimmungslagen) stellt der Algorithmus eine Filmauswahl zusammen, die
ein schnelles Überspringen eventuell uninteressanter Filme ermöglichen soll.
Evidence
Selection
Wählt personalisiert hilfreiche Informationen zu einem Film aus (bspw. Bilder, prog-
nostizierte Bewertung des Films oder Informationen zum Film wie Awards, Besetzung
oder andere Metadaten).
Search Mehrere Algorithmen optimieren die Suchfunktion. Zu dem eingegebenen Begriff
werden gesucht: (1) Filmtitel, (2) Konzepte wie z.B. Genres und (3) Filmtitel innerhalb
der identifizierten Konzepte.
141 Vgl. Spotify (2018) 142 Vgl. Seed Scientific (2015)
55
Quelle: Gomes-Uribe & Hunt (2016), S. 2ff.
Soziale Netzwerke nutzen Algorithmen für die Zusammenstellung des Newsfeeds – so auch die
Plattform Facebook, welche in Deutschland von rund 23 Millionen Menschen täglich und weltweit
von circa zwei Milliarden Menschen genutzt wird143. Um für den Nutzer interessante Inhalte zusam-
menzustellen, werden dessen Vorlieben analysiert. Dabei spielen insbesondere die Kontakthäufig-
keit mit Facebook-Freunden eine Rolle, das Liken und Kommentieren von Inhalten144 sowie die
Aktualität von Beiträgen145. Zudem können User durch verschiedene Auswahlmöglichkeiten in den
Einstellungen auch selbst Einfluss nehmen146. Es wird geschätzt, dass durchschnittlich nur 35 Pro-
zent der Freunde eines Nutzers dessen Post sehen können. In den Algorithmus, der ehemals unter
dem inoffiziellen Namen "EdgeRank" bekannt wurde, fließen vermutlich noch weitaus mehr Fakto-
ren ein147. Dass diese unter Berufung auf die Wahrung von Geschäftsgeheimnissen nicht offenge-
legt werden, steht unter starker Kritik (vgl. Kapitel 0). Fehlende Transparenz wird dabei nicht nur bei
Newsfeed-Algorithmen wie beispielsweise von Facebook oder Linked-In gesehen, sondern auch bei
Suchalgorithmen wie etwa von Google.
4.3. 2 MARKTPOTEN TIALE
Moderne Analysemethoden haben ein hohes Potential für die signifikante Verbesserung wichtiger
Unternehmenskennzahlen wie bspw. Wachstum, Effizienz und Effektivität148. In einer weltweiten Be-
fragung McKinseys gaben 43 Prozent der befragten Verkaufsorganisationen an, Analytics zur Opti-
mierung ihrer Geschäftsprozesse zu nutzen. Schnell wachsende Unternehmen149 nutzten derartige
Analyseverfahren dabei häufiger als langsam wachsende150 (53 Prozent im Vergleich zu 37 Prozent).
Die Kombination von Analytics und intelligenter Automation führt laut befragter Unternehmen zur
häufigeren Erkennung und Nutzung von Verkaufsmöglichkeiten. Denn so können insbesondere
Produkte mit der höchsten Verkaufswahrscheinlichkeit sowie der optimale Zeitpunkt der Kunden-
ansprache identifiziert werden. Ein IT-Dienstleistungsunternehmen gab bspw. an, mit Hilfe von Ana-
lytics die Lead-Conversion Rate um 30 Prozent gesteigert zu haben151. Zwar bezog sich die Befra-
gung auf Geschäftsbeziehungen im B2B-Bereich, jedoch lassen sich die Erkenntnisse auch auf den
B2C-Markt übertragen.
Auch Online-Shoppingportale setzen umfangreiche Analyseverfahren zur Umsatzsteigerung ein. Ei-
nem Interview mit dessen Vizepräsident Misra zu Folge beschäftigt Snapdeal ein Team von 50 In-
genieuren mit dem Schreiben von Algorithmen. So konnten die algorithmisch initiierten Verkäufe
innerhalb eines Jahres von 15 auf bis zu 40 Prozent gesteigert werden152. Das Verfahren hat das
Potential, das Kaufverhalten von Kunden vielleicht sogar besser vorhersagen, als der Kunde selbst.
So gab es bereits 2012 einen aufmerksamkeitsstarken Fall von prognostizierten Konsumwünschen
143 Vgl. Facebook (2017a) 144 Vgl. Facebook (2015) 145 Goldsborough (2017), S. 61 146 Vgl. Facebook (2015) 147 Goldsborough (2017), S. 61 148 Atkins et al. (2016), S. 1 149 Jährliche Wachstumsrate von über sechs Prozent 150 Jährliche Wachstumsrate von unter fünf Prozent 151 Atkins et al. (2016), S. 2f. 152 Vgl. Misra (2015) in: Singh (2015)
56
in den USA, als eine Supermarktkette die Schwangerschaft einer Minderjährigen erkannte noch be-
vor es der Vater tat. Aufgrund des Kundenkartensystems und implementierter Algorithmen wurde
das veränderte Konsumverhalten des Mädchens erkannt und an Schwangere gerichtete Werbung
an sie versandt153.
Auch für den Onlinemedien-Markt spielen Algorithmen eine wichtige Rolle, z.B. im Bereich des Be-
havioral Targetings. Automatisierte Werbung (oder auch "Programmatic Advertising") und Echtzeit-
Werbeauktionen (oder auch "Real-Time-Bidding") sind bereits seit einigen Jahren etablierte Ver-
fahren in der Werbeindustrie. Beim Programmatic Advertising werden automatisiert sehr zielgrup-
penspezifische und damit hochwertige Nutzergruppen auf Basis der Nutzerdaten von Publishern
über Nachfrageseiten-Plattformen angefragt und über Angebotsseiten-Plattformen vermarktet –
entweder über Festpreise oder über Real-Time-Bidding-Auktionen. Solche Werbeplatzierungen in
sehr spezifischen Zielgruppen konnten in der Vergangenheit nur über direkte (aufwändige) Ver-
handlungen mit Premium-Publishern und spezialisierten Werbenetzwerken realisiert werden154.
Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die First-Party-Daten des Publi-
shers in unterschiedlichem Umfang mit Third-Party-Daten zum Browserverlauf des Nutzers kombi-
niert, die Werbenetzwerke über Tracker-Cookies generieren. Abhängig vom Browserverhalten des
Nutzers wird Werbung eingeblendet, wodurch Streuverluste und Kosten minimiert werden können.
Mit Algorithmen kann berechnet werden, wie gut Werbeinhalte und Nutzer zusammenpassen. Chen
und Stallart zeigen in ihrer Studie, dass sich der Umsatz im Vergleich zu traditionellen Anzeigen
verdoppeln kann155. Für das Jahr 2017 wurde für automatisierte Werbung in Deutschland insgesamt
ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen Marktanteil von etwa 45 Prozent an digi-
taler Display-Werbung ausmacht156.
4.3. 3 GESELLSCHAFTL ICHER D ISKURS UM ADM -PROZESSE
Der Video-Streaming-Dienst Netflix verschaffte den Empfehlungs-Algorithmen bereits im Jahr 2006
internationale Aufmerksamkeit, indem er den Netflix Prize ausschrieb. Gegenstand des Wettbe-
werbs war die Verbesserung des Collaborative Filtering-Algorithmus zur Vorhersage der Nutzerbe-
wertung von Filmen. Rund 50.000 Teilnehmer bewarben sich und diskutierten im öffentlichen On-
line-Forum des Netflix Prizes Fortschritte und Probleme bei der Entwicklung. Drei Jahre später
wurde der Gewinner gekürt und erhielt eine Mio. US-Dollar157. Der öffentliche Diskurs um das ge-
naue Vorgehen der ADM-Prozesse erscheint als Ausnahme – häufiger wird mangelnde Transparenz
kritisiert.
Spätestens seitdem der Internetaktivist Eli Pariser im Jahr 2011 das Buch Filter Bubble veröffent-
lichte, werden algorithmische Empfehlungen kontrovers diskutiert. Laut Pariser würden mit Hilfe
von Personalisierungsalgorithmen Filterblasen geschaffen, in denen sich allein die Interessen des
Nutzers widerspiegeln und die Informationsvielfalt eingeschränkt wird158. In Bezug auf soziale Netz-
werke hat sich zudem das Konzept der Echokammer etabliert, welches eine Weltsichtverengung
153 Vgl. Duhigg (2012) 154 Vgl. Simons, J. (2016): Programmatic Advertising (Digitalwiki) und Absatzwirtschaft (2015): Werbebudgets
verlagern sich in Richtung Programmatic zulasten des TV 155 Vgl. Chen & Stallaert (2014) 156 Vgl. Gillner (2017) 157 Vgl. Netflix (2009) 158 Vgl. Pariser (2011)
57
aufgrund des Umgangs mit Gleichgesinnten beschreibt. Die im Online-Raum befindlichen Meinun-
gen würden so verstärkt werden, wobei der fehlende Widerspruch zu Gruppenpolarisierungspro-
zessen führen könne159.
In späteren Studien konnte die Filterblase allerdings weder in Bezug auf Google160, noch auf Face-
book161 festgestellt werden. Eine im Dezember 2017 auf dem Chaos Communication Congress vor-
gestellte Analyse von Twitter-Inhalten stellt das Konzept ebenfalls in Frage. Untersucht wurde die
Verbreitung von Fake News mit rassistischem Hintergrund. Dass deren Richtigstellung auch auf der
Timeline der eng vernetzten, politisch eher rechtsgesinnten Gruppe der Fake-News-Verbreiter auf-
taucht, spricht gegen eine Filterblase. Für den Austausch an Informationen sorgten vor allem klas-
sische Medien wie Spiegel Online oder die Welt, denen die Gruppe ebenfalls folgte162.
Pariser räumte in einem Interview im Mai 2017 ein, dass er beim Schreiben seines Buchs das Wachs-
tum der Medienorganisationen nicht ausreichend bedacht habe und dass diese die Blasen durchaus
durchdringen können163. Hinsichtlich der politischen Polarisierung konnte sogar ein negativer Zu-
sammenhang zur Internet- bzw. Social Media-Nutzung festgestellt werden. Zwar wird dem Internet
eine Rolle in Polarisierungsprozessen nicht abgesprochen. Eine Verstärkung von Meinungsunter-
schieden wurde allerdings vor allem bei Personen höheren Alters festgestellt – einer Gruppe, in der
die Internetnutzung am niedrigsten ist164.
Unabhängig von der Existenz von Filterblase und Echokammer werden Plattformen wie Google,
Facebook oder Linked-In als wichtige Quellen zur kulturellen und politischen Meinungsbildung be-
trachtet. Mit ihren Such- und Newsfeed-Algorithmen selektieren sie vor und nehmen somit Ga-
tekeeper-Funktionen ein165. Mögliche Auswirkungen der Algorithmen-Anwendung werden in der
Wissenschaft und Öffentlichkeit kontrovers diskutiert. Die Wissenschaftlichen Dienste des Deut-
schen Bundestags etwa gehen davon, dass "die Informationsbeschaffung und damit die Meinungs-
bildung durch nicht klar erkennbare algorithmische Mechanismen beeinfluss- und sogar manipu-
lierbar werden"166.
Tatsächlich machte der Facebook-Konzern im Jahr 2014 negative Schlagzeilen mit manipulierten
Timelines167. Wissenschaftler untersuchten, welchen Einfluss soziale Netzwerke auf die Emotionen
der User ausüben und reduzierten dafür bei rund 700.000 Usern eine Woche lang positive oder
negative Inhalte. Insbesondere die Verringerung negativ konnotierter Beiträge im Newsfeed wies
Effekte aus: Die Versuchsgruppe postete im Vergleich zur Kontrollgruppe mehr positive Inhalte168
und weniger negative169. Die Effektstärke ist zwar gering, doch durch die hohe Mitgliederanzahl
Facebooks sind durch derartige Emotionsübertragungen dennoch viele Menschen betroffen.
159 Vgl. Moscovici & Zavalloni (1969) und Sunstein (2009) 160 Vgl. Kraft et al. (2017) 161 Vgl. Stark (2017) 162 Vgl. Kreil (2017) und Meineck (2017) 163 Vgl. Pariser (2011) in: Hempel (2017) 164 Vgl. Boxell et al. (2017) 165 Vgl. ebd., S. 4 166 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 6 und Oertel (2017), S. 13 167 Vgl. dazu z.B. Dambeck (2014) 168 (t = −5.63; p<.001, Cohen’s d = 0,02) Vgl. dazu: Kramer et.al. (2014) 169 (t = +2,71; p<0.05; d = 0,001) Vgl. ebd.
58
Darüber hinaus können Algorithmen in sozialen Netzwerken auch demokratische Grundprinzipien
berühren. Im Rahmen eines Experiments im Jahr 2010 wurde beispielsweise festgestellt, dass über
Facebooks Newsfeed auch das Wahlverhalten beeinflusst werden kann. Konkret wurde von Face-
book zur Wahl aufgerufen, was 0,14 Prozent der Wahlberechtigten (340.000 Personen) animierte,
tatsächlich wählen zu gehen170.
In einer Studie der Bertelsmann Stiftung wird festgehalten, dass durch Algorithmen zum Teil "eine
massive Divergenz zwischen inhaltlicher Qualität und algorithmisch ermittelter Relevanz ent-
steht"171. Journalistische oder wissenschaftliche Qualitätskriterien würden sich in der Regel nicht
mit durch ADM-Prozessen Bedeutung verliehenen Kriterien decken. Die deskriptive Funktionsweise
der Algorithmen, das heißt die Orientierung an vergangenem Verhalten, wird von Nutzern zudem
häufig normativ wahrgenommen172. Es wird resümiert, dass Intermediäre "einen großen, aber bis-
lang nicht entscheidenden Einfluss auf die öffentliche Meinungsbildung" ausüben173.
Allerdings spielen ADM-Prozesse eine zentrale Rolle bei der Strukturierung von Öffentlichkeit und
beeinflussen auch die Arbeit klassischer Medien (vgl. Kapitel 0). Aktuell wird im Rahmen des Projekts
"Algorithmischer Strukturwandel der Öffentlichkeit" (AlgStrOeff) untersucht, inwiefern algorithmi-
sche Selektionsmechanismen die politische Informationskompetenz beeinflussen. Das Projekt ent-
stand aus dem durch das Bundesministerium für Bildung und Forschung veranstalteten Forum für
"Innovations- und Technikanalyse (ITA) 2017", welches Chancen und Risiken der Digitalisierung dis-
kutierte.
Insgesamt werden der mögliche Einfluss, den Intermediäre durch die Anwendung von Algorithmen
ausüben könnten, sowie die Notwendigkeit und deren Kontrolle zunehmend diskutiert. Heiko Maas,
Bundesminister der Justiz und für Verbraucherschutz, sprach sich bereits 2015 für die Einführung
eines "Algorithmen-TÜVs" aus, welcher zu mehr Transparenz und Vertrauen führen könne. "Jeder
Algorithmus basiert auf Annahmen, die falsch oder gar diskriminierend sein können", so Maas. Zu-
dem bestehe die Gefahr der Einschränkung von Handlungs- und Entscheidungsfreiheit174. Auch die
Verbraucherzentrale Bundesverband empfiehlt die Einrichtung eines staatlich legitimierten, umfas-
senden Kontrollsystems in seinem im Dezember 2017 veröffentlichten Positionspapier175.
Im Gegensatz dazu betont Matthias Spielkamp von der Institution Algorithm Watch in einem Inter-
view, dass verstärkt auf die Durchsetzung bereits bestehender Antidiskriminierungsgesetze geach-
tet werden müsse. Eine Institutionalisierung der Algorithmenkontrolle erachtet er als nicht notwen-
dig176. Ebenso weisen die Wissenschaftlichen Dienste darauf hin, dass das Telemediengesetz und
das Wettbewerbsrecht auf algorithmengesteuerten Plattformen bereits Anwendung finden. Den-
noch sehen sie einen Bedarf an zusätzlichen gesetzlichen Regelungen177.
Neben dem Einfluss, den ADM-Prozesse auf Meinungsbildung, Entscheidungsfreiheit und andere
Vorgänge ausüben könnten, wird häufig auch deren Funktionalität diskutiert und kritisiert. Der Net-
flix-Algorithmus schlage zum Beispiel monatelang die gleichen Inhalte vor und behalte auch Filme
170 Vgl. Bond (2012) 171 Vgl. Lischka & Stöcker (2017), S. 11 172 Vgl. Ebd. 173 Vgl. Lischka & Stöcker (2017), S. 61 174 Vgl. Maas (2015) 175 Vgl. Verbraucherzentrale Bundesverband e.V. (2017), S. 8 176 Vgl. Spielkamp in: Beuth (2017a) 177 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 16
59
in der Empfehlungsliste, die bereits gesehen wurden. Stern-Redakteur Fröhlich betitelte den Algo-
rithmus als "Zwangsbeglückung" und forderte eine Block-Funktion von Inhalten und die Möglich-
keit des gänzlichen Zurücksetzens. Zu Facebook lassen sich im Internet Beiträge finden, die zu er-
klären versuchen, wie der Newsfeed-Algorithmus umgangen werden könne178. Im Bereich des Mu-
sikstreamings scheinen algorithmisch optimierte Empfehlungen tendenziell besser anzukommen,
bspw. bei Spotify179. Öffentliche Umfragen zur Zufriedenheit der Nutzer mit Empfehlungen bzw.
der Auswahl an Informationen existieren derzeit noch nicht.
4.3. 4 ZUSAMMENFASSUNG UND AUSBLICK
Im Jahr 2016 wurde der globale algorithmische Handelsmarkt auf einen Wert von rund 9,5 Mrd. US-
Dollar geschätzt. Hinsichtlich der jährlichen Wachstumsrate schwanken die Schätzungen von Exper-
ten von 3,7 bis zu zehn Prozent innerhalb der nächsten drei bis sieben Jahre180. Laut Gartner sind
das automatisierte Preisgebungsverfahren und die Optimierung von Empfehlungen die bedeu-
tendsten algorithmenbasierten Möglichkeiten zur Umsatzsteigerung181. Insgesamt müssten bei Un-
ternehmensgründungen verstärkt algorithmische Geschäftsmodelle bedacht werden, so Steve
Prentice. Der ehemalige Vizepräsident Gartners geht davon aus, dass Algorithmen eine stärkere
Disruption hervorrufen werden als die Digitalisierung. Dabei zieht er einen Vergleich zu den Verän-
derungen, die mit dem Aufkommen von mobilen Geräten und Appstores im Softwaremarkt bewirkt
wurden182.
Speziell für den Onlinemedien-Markt können ein immer stärkerer Einfluss algorithmischer Selekti-
ons- und Empfehlungsmechanismen sowie eine zunehmend personalisierte Auswahl an Inhalten
erwartet werden. Nutzerreaktionen wie Kommentare, Likes oder das Teilen von Inhalten werden
eine immer größere Rolle bei der Themenauswahl klassischer Medien spielen. In Tab. 4 werden die
Veränderungen herausgestellt, die den Medienmarkt zum Teil bereits durch Digitalisierungspro-
zesse beeinflusst haben und durch ADM-Prozesse zunehmend beeinflussen werden. Dabei wird
sowohl auf potentielle Chancen als auch auf Risiken eingegangen.
Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse
ASPEKT BESCHREIBUNG CHANCEN RISIKEN
Entkopplung von
Veröffentlichung
und Reichweite
Jeder kann veröffentlichen.
Aber nicht jeder findet ein
Publikum. Aufmerksamkeit
entsteht erst durch das
Zusammenwirken von
Menschen und ADM-
Prozessen (Dobusch 2017).
Größere, leichter
zugängliche
Medienvielfalt, weil
Gatekeeper nicht über
Veröffentlichung
bestimmen.
Vielfaltsverengung bei
Filterlogik durch
Dominanz weniger
Intermediäre und ADM-
Prozesse.
178 Vgl. Fröhlich (2016) 179 Vgl. Ballein (2017) 180 Vgl. z.B.: QY Research Group (2017) oder Research and Markets (2017) oder TechNavio (2016) 181 Vgl. van der Meulen (2016) 182 Vgl. Prentice in: van der Meulen (2016)
60
Entbündelung
von
Publikationen
Reichweite wird auf
Beitragsebene
ausgehandelt, Platzierung
innerhalb einer Publikation
zieht Beiträge bei
Intermediären weniger mit.
Größere Medienvielfalt.
Chancen auf
Aufmerksamkeit breiter
gestreut. Medien
können diverses
Publikum segmentieren.
Schwächung von
Publikationen als
Qualitätsmarker.
Geringere Chancen für
unpopuläre, aber
relevante Themen.
Personalisierung
Nutzer erfahren mehr über
ihre Interessengebiete.
Vertiefte Information,
stärkere Mobilisierung.
Filterblasen
Echokammern
Größerer Einfluss
des Publikums
auf Reichweiten
Nutzerreaktionen
beeinflussen ADM-Prozesse
insgesamt und Reichweite
jedes Beitrags.
Demokratisierung durch
größeren
Publikumseinfluss.
Größere Dynamik der
Agenda.
Verengung der
Aufmerksamkeit auf in
ADM-Prozessen
chancenreiche Themen
und Tonalitäten.
Zentralisierung
der
Auswahlinstanzen
Weniger Intermediäre als
redaktionell kuratierte
Medien.
Leichter zugängliche
Medienvielfalt.
Vielfaltsverengung bei
Filterlogik.
Wechselwirkung
zwischen
redaktioneller
und maschineller
Kuratierung
Redaktionell kuratierte
Medien nutzen Reaktionen
in Intermediären als Signal
für Publikumsinteresse.
Größere Chancen auf
Verbreitung für neue,
nicht etablierte Themen
und Akteure in
redaktionell kuratierten
Medien.
Irrige Annahmen über
Repräsentativität der
algorithmisch
priorisierten Aussagen
und Akteure.
Quelle: Lischka & Stöcker (2017), S. 18
In Abb. 20 werden Zusammenhänge zwischen Intermediären, ADM-Prozessen und klassischen Me-
dien graphisch veranschaulicht. Dabei wird deutlich, wie algorithmisch strukturierte Plattformen wie
Facebook oder Google mit Hilfe von Personalisierungsprozessen Nutzerreaktionen beeinflussen
können. Beispielsweise erfährt ein Thema eine höhere Resonanz, wenn ihm durch den Intermediär
eine hohe Relevanz beigemessen und es vielen Nutzer an prominenter Stelle angezeigt wird.
Dadurch werden wiederum Medienhäuser beeinflusst, welche dem Thema ebenso ein höheres Ge-
wicht verleihen. Auf diesem Wege wirkt nicht mehr nur die Medienagenda, sondern in einem wei-
teren Schritt auch die Agenda der Intermediäre auf die Öffentlichkeit ein.
61
Abb. 14: Modell der Organisation algorithmisch strukturierter Öffentlichkeit
Quellen: Lischka & Stöcker (2017), S. 62 und Dobusch (2015)
62
5 AUSWIRKUNGEN VON MEDIENBEZOGENEN
BIG-DATA-ANWENDUNGEN IM B2B-MARKT
Schon heute finden sich zahlreiche automatisierte und durch Algorithmen gesteuerte Prozesse z.B.
bei der Evaluation von Bildungsangeboten, dem Aktienhandel, politischen Kampagnen oder der
öffentlichen Sicherheit aber auch im Sozialwesen. Und auch der heutige Journalismus und die deut-
sche Medienbranche werden maßgeblich von Big-Data- und KI-gestützte Anwendungen und
Dienstleister beeinflusst. Nachfolgend sollen die Wertschöpfungsprozesse und organisationalen
Bereiche im Business-to Business (B2C) Segment des deutschen Onlinemedienmarktes systematisch
untersucht werden, um das paradigmatische Potential von Big Data herauszuarbeiten.
5.1 TEIL - UND VOLLAUTOMA TIS IER TE PROZESSE BE I
DER PR ODUKTION VON M EDIEN INHALTEN
Mit zunehmender Digitalisierung etablierte sich der Begriff des Online-Journalismus, welcher sich
vordergründig auf den Übertragungsweg bzw. Vertriebskanal bezieht und Grenzen zu Rundfunk
und Print zog. Im Zuge voranschreitender Digitalisierungsprozesse unterliegt jedoch auch die jour-
nalistische Praxis zunehmend einem Wandel, da sich Berufsfelder stärker technisieren und zudem
die Interaktion mit Rezipienten eine immer größere Rolle spielt. Dieser Strukturwandel, welcher
auch unter dem Begriff des "Digitalen Journalismus" gefasst wird, birgt sowohl Chancen als auch
Herausforderungen. Veränderungen in journalistischen Prozessen wirken sich auf kommunikativer,
handwerklicher, technischer und wirtschaftlicher Ebene aus, und insbesondere die Ermöglichung
von teil- und vollautomatisierten Prozessen führt zur Veränderung von Abläufen innerhalb der Me-
dienhäuser183.
5.1. 1 DEFINIT ION UND ANWEN DUNGSBEREICHE
Generell wird der Umgang von Journalisten mit Datenbeständen zwecks Anfertigung von datenba-
sierten textuellen Beiträgen als "Data Driven Media" bzw. "Datenjournalismus" bezeichnet. Die
Kompetenz ist dem Bereich der Produktion zuzuordnen und beschreibt den "Hybrid an der Schnitt-
stelle zwischen (digitaler) Recherche, journalistischer Auswertung und digitaler Darstellung"184.
Hierunter zählen dementsprechend automatisierte Vorgänge in den Bereichen Recherche, Analyse
und Datenaufbereitung.
Dagegen kann die automatisierte Erstellung von Medieninhalten mit Hilfe von Algorithmen als weit-
gehend autonom betrachtet werden. Dem Menschen kommen hier in der Regel nur wenige vor-
oder nachgelagerte Aufgaben zu, bspw. die Erfassung der zu verwertenden Daten oder die Sichtung
und Kontrolle der erstellten Inhalte. Umgangssprachlich wird häufig auch von "Roboterjournalis-
mus" gesprochen. Das kann irreführend sein, da nicht menschenähnliche Maschinen, sondern Pro-
gramme für die Generation von medialen Produkten verantwortlich sind185. Im Folgenden werden
183 Lilienthal et al. (2015), S. 30 184 Vgl. ebd., S. 35 185 Vgl. Hestermann in: Tusch (2017)
63
grundlegende Techniken der computer-basierten Produktion verschiedener Medieninhalte sowie
automatisierte Analyseverfahren unter Einbeziehung von Anwendungsbeispielen erläutert.
A U T O M A T I S I E R T E T E X T - U N D V I S U A L P R O D U K T I O N
Für die automatische Generierung von Texten kommen NLP- und NLG-Prozesse zum Einsatz (vgl.
dazu Kap. 3.6). Im Rahmen von NLP folgt der Algorithmus den von Menschen definierten Vorgaben
und übersetzt Datensätze in verständliche Prosa. Entsprechend werden Textbausteine benötigt, die
mit Daten wie beispielsweise Sportergebnissen oder Wetteraussichten verknüpft werden. Bei NLG
handelt es sich um einen technisch weiterentwickelten Prozess: Das Programm wird befähigt, aus
großen Samples von Texten zu lernen, indem er sie auf Muster in der Sprachanwendung hin analy-
siert. Der selbstlernende Algorithmus kann diese Beispiele daraufhin anwenden (vgl. Kapitel 3.7).
Aktuell können durch Algorithmen vor allem Texte produziert werden, die sich auf strukturierte
Daten in maschinenlesbarem Format beziehen186. Die wiederkehrend verwendbaren Textfragmente
müssen zuvor durch Menschen verfasst und es müssen auch Anweisungen zur Verwendung gege-
ben werden. Dementsprechend wird das Verfahren vor allem in den informationsjournalistischen
Themenbereichen Sport, Finanzen, Wetter, Events oder für Geschäftsberichte sowie Produktbe-
schreibungen (vgl. Abb. 15) eingesetzt.
Abb. 15: AX Semantics Inputraster in drei Sprachen und Beispielartikel
Quelle: Vgl. AX Semantics (2017)
Erkennt der auf NLP basierende Algorithmus bspw. ein unentschiedenes Mannschaftsspiel, wählt er
automatisch die passende Formulierung für den Sportbericht wie etwa "Mannschaft 1 und Mann-
schaft 2 trennten sich X:X unentschieden". Mannschaftsnamen und die Anzahl der Tore werden
dabei automatisiert in vorgesehene Platzhalter eingesetzt187.
Standardisierte Nachrichten und Berichte, für die bei der Erstellung keine Kreativität erforderlich ist,
lassen sich so schnell und vollautomatisiert produzieren. Ein weiterer Vorteil der Algorithmen be-
steht darin, dass durch die Implementierung statistischer Methoden interessante Zusammenhänge
in den Daten gefunden werden können. Die sinnvolle Interpretation der Korrelationen ist allerdings
186 Graefe (2016), S. 8 187 Hestermann in: Tusch (2017)
64
nicht bzw. nur stark eingeschränkt möglich, da maschinell keine Sinnzusammenhänge hergestellt
werden können. Zudem stellen nicht hundertprozentig zuverlässige Datengrundlagen die automa-
tisierte Textproduktion vor eine Herausforderung188. Ebenfalls datenbasiert können auch Abbildun-
gen automatisiert erstellt werden, bspw. Tabellenübersichten mit Sportergebnissen189. Damit wir-
ken die Texte weniger einfach bzw. langweilig.
In der Massenproduktion schneiden durch ein Programm erstellte Texte insgesamt oft besser ab
als von Menschen produzierten Darstellungen, da Algorithmen u.a. systematisch Wiederholungen
vermeiden können190. Der Journalistik-Professor Hestermann stellte 2017 in einem Forschungspro-
jekt sogar fest, dass Rezipienten maschinell und von Menschenhand erstellte Texte z.T. nicht unter-
scheiden können191. Im Rahmen seiner Studie staunte eine Probandin über einen maschinell erstell-
ten Text derartig, weil dieser ihrer Meinung nach wie Shakespeare klinge. Und tatsächlich arbeitete
der Algorithmus der Software, die den Text erstellt hatte, mit Elementen des Werkes des Dichters
und mischte diese neu auf192.
Ebenfalls bestätigte eine Untersuchung des Forscherteams rund um Graefe, dass algorithmisch pro-
duzierte, datenbasierte Texte von durch Menschen erstellten nicht zu unterscheiden sind. In ihrer
Studie mit 986 Probanden fanden die Forscher sogar heraus, dass computergenerierte Texte glaub-
würdiger erscheinen und mehr Fachkenntnis bei der Erstellung vermutet wurde als in von Journa-
listen geschriebenen Artikeln. Dagegen wurde die Lesbarkeit, auf welche u.a. auch die Struktur und
sprachliche Gestaltung des Berichts Einfluss nahm, bei von menschlichen Autoren geschriebenen
Artikeln insgesamt höher bewertet193.
Ein weiteres Beispiel für den effizienten Einsatz von Algorithmen zur Textproduktion ist das Pro-
gramm "Quakebot", welches v.a. im Jahr 2014 Aufmerksamkeit erlangte. Direkt nach dem Erdbeben
in Los Angeles wurde automatisiert folgende Nachricht erstellt, die von Journalisten nur wenige
Minuten nach dem Vorfall veröffentlicht werden konnte:
"A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood,
California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time
at a depth of 5.0 miles. According to the USGS, the epicenter was six miles from Beverly Hills, Cali-
fornia, seven miles from Universal City, California, seven miles from Santa Monica, California, and
348 miles from Sacramento, California. In the past ten days, there have been no earthquakes mag-
nitude 3.0 and greater centered nearby. This information comes from the USGS Earthquake Notifi-
cation Service and this post was created by an algorithm written by the author. Read more about
Southern California earthquakes."194
In einem ähnlichen Verfahren erstellt die Software "Homicide Report" Texte für die Los Angeles
Times als Teil des Programms "Uniform Crime Report". Die Software listet alle Fälle von Mord und
Totschlag in Los Angeles auf und dient gleichzeitig als Datenbank, Blog und interaktive Karte. Mit
188 Graefe (2016), S. 27f. 189 Vgl. z.B. Norkon Computing Systems (2018) 190 Vgl. Hestermann in: Tusch (2017) 191 Vgl. New York Times (2015) 192 Vgl. Hestermann in: Tusch (2017) 193 Graefe et al. (2016), S. 10 194 Vgl. Holland (2014)
65
deren Hilfe können Tötungsdelikte in verschiedenen Gegenden angezeigt und nach Todesursache,
Ethnizität, Alter, Geschlecht, Wochentag und anderen Variablen gefiltert werden195.
Abb. 16: Ausschnitt aus der Datenbank „Homicide Report"
Quelle: Vgl. Cruz (2017)
Auch im Bereich der visuellen Kunst entstehen mit Hilfe von Algorithmen neue Inhalte. Aufsehen
erregte Anfang 2016 das kunsthistorische Projekt „The Next Rembrandt", in welchem 350 Original-
Werke des Malers aus dem 17. Jahrhundert durch 3D-Scans analysiert wurden.
In Zusammenarbeit mit dem Museum Het Rembrandthuis und Microsoft gelang es Wissenschaft-
lern und Ingenieuren der Delft University of Technology Rembrandts Malstil, Farben, Formen und
typische Attribute so zu erfassen, dass ein 3D-Drucker ein komplett neues Werk erschaffen konnte.
Auf dem mit dreizehn Farbschichten erstellten Bild im Rembrandt-Stil ist ein Mann in der Mode des
17. Jahrhunderts zu sehen – in schwarzer Kleidung mit weißer Halskrause, großem Hut und Bart196.
A U T O M A T I S I E R T E V I D E O P R O D U K T I O N
Auch im Bereich der Videoproduktion hat sich in den letzten Jahren einiges entwickelt. Plattformen
wie Wochit und Wibbitz197 erlauben es, entweder komplett automatisiert oder mit wenigen Arbeits-
schritten Videobeiträge auf Grundlage von Artikeln zu erstellen. Durch eine Kombination der NLP-
und KNN-Verfahren können derartige Softwareplattformen Texte nach Stichwörtern durchsuchen.
Aus verschlagworteten Videodatenbanken wie bspw. Getty Images oder The Associated Press wer-
den kontextuell passende Bilder und Clips ausgesucht und ein Video erstellt. Zum Teil ist es auch
möglich, animierte Bildunterschriften einzubauen – ein Format, welches insbesondere für content-
basierte soziale Netzwerke wie Instagram oder Snapchat interessant sein dürfte, da Rezipienten
195 Vgl. Los Angeles Times - The Homicide Report (2018a) 196 Vgl. The next Rembrandt (2018) 197 Vgl. Wochit (2018) und Wibbitz (2018)
66
Videos häufig auch ohne Ton ansehen. Auch computergestützte oder menschliche Voice-Over-Op-
tionen werden angeboten198. Der Grad an Automatisierung ist variabel: Es sind sowohl kleine als
auch umfangreiche Bearbeitungen, das Einfügen von zusätzlichem Original-Material oder auch die
gänzlich automatisierte Erstellung möglich.
Auf diese Weise können Medienorganisationen ohne großen Zeitaufwand und zusätzliche Video-
bearbeitungskenntnisse Artikel oder andere Texte multimedial und für verschiedenen Plattformen
aufbereiten. Michael Ferro, Vorsitzender der US-Zeitung und des Zeitschriftenverlags Tronc (ehe-
mals Tribune Publishing), erwähnte in der New York Times, dass im Unternehmen täglich zwar nur
einige hundert Videos produziert werden, aber ein Bedarf an rund 2.000 bestehe199. Derartige Grö-
ßenordnungen verdeutlichen das enorme Potential, das durch Videoautomatisierung entsteht. Wei-
tere Unternehmen, die die Möglichkeit der automatisierten Videoproduktion bereits nutzen, sind
bspw. Time Inc., The Huffington Post, CBS Interactive, Rotten Tomatoes, NowThisNews, Bonnier
Magazines und Hearst200.
A U T O M A T I S I E R T E A U D I O P R O D U K T I O N
Ähnlich wie bei der automatisierten Produktion von Videocontent ist es mit Hilfe von Algorithmen
möglich, Audioclips zu erstellen, bspw. als Begleitung für Nachrichtenstrecken oder Sportinforma-
tionen. Die Methode hinter der Automatisierung ist dieselbe wie in der Texterstellung: Auf Basis
von Schlagwörtern, die in einem Artikel vorkommen, können algorithmenbasierte Angebote eine
Zusammenfassung des Artikels erstellen und sie über NPL-gestützte Prozesse zu einem Audiobei-
trag synthetisieren. Mit Hilfe großer Datenbanken mit populären Texten und Musiknotationen kön-
nen KNN darüber hinaus auch Muster in Kompositionen identifizieren, die für das menschliche Ohr
harmonisch klingen. Die automatisierte Audioproduktion wird aktuell insbesondere für musikali-
sche Werke genutzt.
Als Beispiel hierfür kann Plattform IBM Watson genannt werden, über welche Künstler ihre Musik-
kompositionen optimieren oder sogar vollständig automatisieren können201. Mit Hilfe einer Sprach-
API wurden dafür zunächst nicht nur musikalische sondern auch kulturelle Inhalte der letzten fünf
Jahre analysiert. Aus Songtexten, Filmzusammenfassungen, Reden von Nobelpreisträgern oder Ar-
tikeln der New York Times wurden so zentrale Themen identifiziert. Um Meinungen und Stimmun-
gen zu diesen Themen zu erfassen, erfolgte die zusätzliche Analyse von Inhalten aus sozialen Netz-
werken mit einer weiteren API. Für sog. kognitive Musik wurden neben diesen textbasierten Inhalten
auch musikalische Werke analysiert. Mit Hilfe der Plattform bzw. des Programms "Watson Beat"
konnten Musiktrends untersucht werden, wobei Machine-Learning-Algorithmen Faktoren wie Ton-
art und -höhe, ganze Tonfolgen, Anschlagsstärke und andere Bestandteile in beliebten Liedern auf-
schlüsseln. Auch musikpsychologische Theorien über Reaktionen auf Musik flossen schließlich in
die Komposition gänzlich neuer Stücke, welche je nach gewünschter Stimmung variieren können.
Mit Hilfe von Markov-Ketten (vgl. Kapitel 3.7) ist es außerdem möglich, automatisiert semantisch
kohärente Texte zu produzieren, die in ihrem Charakter zur vordefinierten Musik passen (vgl. Abb.
17). Der amerikanische Musikprofessor David Cope nutzte diese bereits in den 1980er Jahren für
198 Vgl. z.B. Wibbitz (2018) 199 Vgl. Ferro in: Herrman (2016) 200 Vgl. Herrman (2016) 201 Vgl. Amini (2016)
67
seine Software "Experiments in Musical Intelligence" (EMI), durch die er bekannt wurde. Die Soft-
ware untersuchte Symphonien auf Gesetzmäßigkeiten und erstellte neue Stücke im gleichen Stil.
Heute läuft der Prozess mit Hilfe von Programmen wie Alda, Avid Sibelius First oder Liquid Notes
sehr viel schneller ab202. Letzteres bietet besonders viele Funktionen aus einer Hand und beschreibt
das Tool als Instrument, das "Komponisten, Songwriting-Partner, Arrangeur, Electronic Artist, Pro-
ducer und Live DJ"203 vereint.
Abb. 17: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die
auf Prosa trainiert wurde
Quelle: Vgl. McDonald (2017)
Obwohl die Erzeugung von Tonabfolgen durch Algorithmen auch kritisch betrachtet wird – hier
wird v.a. die fehlende Innovation und Kreation von Neuartigem missbilligt 204 – heben andere Stim-
men hervor, dass musikalischer Erfolg u.a. auch stark mit statistischen Zusammenhängen einher-
geht. Denn auch Musik folgt bestimmten Regeln wie z.B. der Harmonielehre, welche Ton- und Ak-
kordfolgen beschreibt, oder der Kompositionstechnik des Kontrapunkts, welche die Gegenstimme
zu einer Melodie regelt205.
A U T O M A T I S I E R T E P R O D U K T I O N V O N W E R B E I N H A L T E N
Mit Hilfe von Big Data und maschinellem Lernen ist es nunmehr möglich, detaillierte Nutzerprofile
zu erstellen, die Informationen über Affinitäten zu speziellen Produktgruppen oder Services enthal-
ten. Auf dieser Grundlage wird sog. Programmatic Advertising möglich, also das programmatisch
gesteuerte, zielgerichtete Ausspielen von Werbeinhalten an bestimmte Nutzer. Mit Hilfe neuer
Technologien können Onlinebesucher bestimmter Web-Services in ihrem unmittelbaren Nutzungs-
kontext erreicht werden. Die Produktinformationen werden dabei in Echtzeit ausgeliefert und sind
in Inhalt und Design an die Nutzungssituation bzw. Umgebung angepasst bzw. personalisiert. Die-
ses Prinzip der direkten Erstellung von Werbeinhalten heißt "Programmatic Creation". Die Gestal-
tung funktioniert wie ein automatisierter modularer Kreationsbaukasten ("Atomic Design") und
konfiguriert die einzelnen Elemente des Mediums. Homepages können so in bis zu fünf Ebenen
202 Vgl. Alda (2018), Avid Sibelius First (2018), Liquid Notes (2018) 203 Vgl. Liquid Notes (2018) 204 Vgl. Lanz (2017) 205 Vgl. Scherer (2017)
68
unterteilt werden: Atome (1) sind die Grundelemente wie bspw. Schriften oder Farben und bilden
gruppiert Moleküle (2), die kleine Bedienelemente wie Suchfelder oder Buttons beschreiben. Aus
diesen setzen sich wiederum Organismen (3) zusammen, z.B. eine Leiste aus Bedienelementen. Auf
diesen Ebenen basierend, existieren ganze Vorlagen (4) und fertige Produkte (5). Im Rahmen von
Programmatic Creation wird die Werbebotschaft in diese Ebenen gegliedert und mit Hilfe von Big
Data und KI in Echtzeit modifiziert, konfiguriert und an den Nutzer angepasst.
Zudem können Daten zu Ort und Geschlecht des Nutzers, Uhrzeit und Wetter mit in die Erstellung
einbezogen werden (vgl. Abb. 18). So kann einer Person zu einem bestimmten Zeitpunkt an einem
bestimmten Ort z.B. ein Museum empfohlen werden, sofern es regnet, oder ein Biergarten, wenn
die Sonne scheint. Mit Hilfe von NLP werden darüber hinaus auch automatisierte Videos und Audi-
ospuren ermöglicht. Aktuell werden zunehmend programmatische Werbeinhalte gebucht. Für
Google, YouTube und Facebook ist Programmatic Creation bereits ein Standardverfahren206.
Abb. 18: Schematische Darstellung der Funktionsweise von Programmatic Creation
Quelle: Diffferent Strategieagentur (2015), S. 24
Auf diesem Prinzip aufbauend, soll in einigen Jahren zudem die "Programmatic Orchestration" er-
möglicht werden, wodurch Werbung kanalübergreifend, interaktiv und selbstlernend wird. Mit Hilfe
von Algorithmen wird aus Reaktionen des Nutzers auf gesehene Inhalte gelernt und zukünftige
Werbemaßnahmen werden variiert. Die Synchronisation der Touch Points ermöglicht so transme-
diales Storytelling: gefällt dem Nutzer Gesehenes nicht, kann bei der nächsten Interaktion auf eine
andere Storyline mit variierender Tonalität oder Botschaft oder ganz auf andere Produkte gesetzt
werden (vgl. Abb. 19).
Für eine Etablierung des selbstlernenden iterativen Systems ist zunächst der weitere Ausbau der
technischen Infrastruktur notwendig, um die eindeutige Nutzeridentifikation über Gerätegrenzen
hinweg zu gewährleisten. Darüber hinaus müssen gesellschaftliche und juristische Bedenken gere-
gelt werden207.
206 Vgl. Petereit (2016), Prien (2017) 207 Diffferent Strategieagentur (2015), S. 25
69
Abb. 19: Schematische Darstellung der Funktionsweise von Programmatic Orchestration
Quelle: Diffferent Strategieagentur (2015), S. 26
A U T O M A T I S I E R T E A N A L Y S E V O N M E D I E N I N H A L T E N
Durch moderne Technologien wird auch die Extraktion relevanter Informationen aus Medieninhal-
ten optimiert. So können mit Hilfe von Schlagwörtern Zusammenfassungen von Texten und Audi-
ospuren rasch maschinell produziert werden. Derartige Analysen beziehen sich auf Wörter und
Phrasen, wobei auch Verbindungen erkannt werden können. Die automatisierte Bild- und Video-
analyse bietet sehr viel mehr Möglichkeiten, was aufgrund der zunehmenden Kommunikation über
Bilder – bspw. in sozialen Netzwerken – besonders relevant erscheint. Die automatisierte Analyse
von Bewegtbild-Inhalten ist besonders komplex, da Bilder, Sprache und Text über einen längeren
Zeitraum hinweg gleichzeitig analysiert werden müssen. Sie wurde algorithmisch bereits Anfang
der 2000er Jahre ermöglicht. Das Forscherteam um Ekin stellte schon 2003 ein System zur voll au-
tomatisierten Erfassung von Fußballspielen in Echtzeit vor, wobei die Präsentation von Zusammen-
fassungen auch an Nutzervorlieben angepasst werden konnte208. Algorithmen dienten dabei vor
allem der Wahrnehmung und Erfassung von Bewegungen.
In Verbindung mit KI wird das Interpretieren und Schlussfolgern sowie das Lernen aus dem Erfassten
möglich. So können Bewegungen einem Objekt zugeschrieben und auch der Kontext verstanden
werden. Seit einigen Jahren wird die Video Content Analysis (VCA) bereits auch zur Objektüberwa-
chung eingesetzt, da auffällige Aktivitäten von Personen oder Fahrzeugen erkannt werden können
und die automatisierte Meldung an Sicherheitspersonal möglich ist. In verschiedenen Verarbei-
tungsschritten werden dafür einzelne Bildausschnitte analysiert und auf Veränderungen hin unter-
sucht209. Die Möglichkeit der Gesichtserkennung und der automatische Abgleich mit Fotos in einer
Datenbank stellt eine weitere Möglichkeit der VCA dar, auch das Zählen von Menschen bspw. in
Warteschlangen oder die Analyse der Frequentierung von Verkaufsflächen210.
Auf Grundlage von VCA-Techniken wurde die Methode des Content-based Video Retrieval entwi-
ckelt, die der textuellen Zusammenfassung von Videoinhalten dient. Dafür werden zunächst soge-
208 Vgl. Ekin et al. (2003) 209 Vgl. Gagvani (2008) 210 Vgl. Artech Technologies AG (2018)
70
nannte Keyframes ermittelt, das heißt Bildausschnitte aus jeder Kameraeinstellung, die diese opti-
mal wiedergeben. Die Bilder werden mit Hilfe von Bildverarbeitungsalgorithmen analysiert und vi-
suelle Merkmale erfasst, die mit Hilfe einer Datenbank indexiert werden. Auf diese Weise müssen
Schlagworte und Metainformationen von Videos nicht mehr manuell erzeugt werden, was den Vor-
teil der höheren Objektivität bietet. Zudem kann mit Hilfe der Keyframes bei Recherchen schnell die
Relevanz von Videos ermittelt werden. Sie können entweder als Mosaik dargestellt oder auf tem-
porär-visueller Ebene gemappt werden (vgl. Abb. 20)211. Darüber hinaus wird an intelligenten Sys-
temen gearbeitet, die multimodal vorgehen und gleichzeitig Video sowie Tonspuren und Textele-
mente analysieren. So können sogar Emotionen von Personen untersucht werden, welche in Videos
auf Plattformen wie Facebook oder YouTube eine zunehmende Rolle spielen, etwa im Rahmen von
Influencer-Beiträgen. Erreicht werden kann dies vordergründig durch die zusätzliche Implementie-
rung der Analyse von Gesichtsausdrücken, welche mit Ton, Kontext und Metainformationen kom-
biniert wird212.
Abb. 20: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert)
Quelle: Borth e.a. (2009), S. 51
Auf der Entwicklerkonferenz "Microsoft Build" wurde im Mai 2017 der "Video Indexer" für Azure
vorgestellt, mit welchem Keyframes extrahiert und Szenen, Personen sowie Sprachen analysiert wer-
den können. Das Programm ist in der Lage, Gesichtern Sprache zuzuordnen, diese zu transkribieren
und zu übersetzen. Außerdem kann es Gesichter erkennen und diesen positive oder negative Stim-
mungen zuordnen213. Ähnliche Funktionen bietet Googles Cloud Video Intelligence API, welche nur
wenige Wochen vor Microsofts Dienst angekündigt wurde214.
Mit Hilfe solcher automatisierter Analyseverfahren können inzwischen Projekte mit außerordentli-
chem Umfang realisiert werden. Ein Beispiel jüngerer Vergangenheit sind die sog. Panama Papers,
211 Vgl. Borth et al. (2009) 212 Vgl. Poria et al. (2015) 213 Vgl. Gada (2017) 214 Vgl. Li (2017)
71
welche kürzlich rund 400 Journalisten in 80 Ländern beschäftigten. 2,6 Terabyte umfassten die 11,5
Mio. Dokumente, die weltweite Strukturen von Steuerhinterziehungen aufdeckten. Ohne Big-Data-
Analysen wäre die detaillierte Auswertung der unstrukturierten Inhalte nicht möglich gewesen. Für
die Aufbereitung der Daten, also das Auslesen gescannter Ausweise, unterschriebener Verträge
usw., wurde die Software "Nuix"215 genutzt, welche auch international in Ermittlungsbehörden zum
Einsatz kommt216. Ebenfalls wurden mit derselben Software die maschinenlesbaren Inhalte inde-
xiert, wodurch die systematische Suche nach Personen und Firmen ermöglicht wurde.
Abb. 21: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious
Quelle: Vgl. Linkurious (2018b)
Das "International Consortium for Investigative Journalists" (ICIJ) setzte weitere Tools für die Da-
tenverarbeitung und -konvertierung ein, mit welchen das gemeinsame Arbeiten an Dokumenten
ermöglicht wurde und auch Verwandtschaftsverhältnisse schneller aufgedeckt werden konnten. So
wurde schnell erkannt, dass Politiker zwar selten selbst Scheinfirmen in Steueroasen gründeten,
jedoch häufig deren Angehörige. Die Nutzung der Graphdatenbank "Neo4j"217 sowie der Visuali-
sierungssoftware Linkurious218 (vgl. Abb. 21) ermöglichten darüber hinaus die Veranschaulichung
der komplexen Beziehungen der Akteure untereinander. Noch vor zehn Jahren wären derartig de-
taillierte Analysen dieser enormen Datenmengen unmöglich gewesen219.
Durch diese Anwendungen werden Trends erkennbar, die auf einen starken Einfluss der automati-
sierten Medieninhalts-Analyse auf journalistisches Arbeiten hindeuten. Aktuelle Entwicklungen zie-
len z.B. auf die Erkennung von Fake News ab. Mit diesem Phänomen kämpft u.a. das soziale Netz-
215 Vgl. Nuix (2018) 216 Vgl. Torinus (2016) 217 Vgl. Neo4j (2018) 218 Vgl. Linkurious (2018a) 219 Vgl. Torinus (2016)
72
werk Facebook und will daher verstärkt auf eventuelle Falschmeldungen hinweisen und Gegendar-
stellungen anzeigen, wenn der Wahrheitsgehalt einer Nachricht angezweifelt wird220. Aktuell wird
hinter vermeintlich anzweifelbaren Texten auf Facebook (in den USA) ein rotes Warndreieck ange-
zeigt. Dafür arbeite Facebook mit externen Nachrichtenseiten zusammen221.
In eine ähnliche Richtung geht das "Social Listening Tool" namens Crowdalyzer von Wafana. Die
erste digitale Fact-Checking-Agentur Deutschlands beschäftigt sich mit Verifizierungsstrategien
und wird dabei vom Media Lab Bayern unterstützt. Der Crowdalyzer identifiziert mit Hilfe von Al-
gorithmen nachrichtenrelevanten User-generated Content und überprüft die Glaubwürdigkeit zu-
gehöriger Accounts222.
Auch das vom Bundesministerium für Wirtschaft und Energie und der EU geförderte Projekt Scat-
terBlogs widmet sich der Extraktion relevanter Nachrichten. Mit Hilfe des Tools können soziale Platt-
formen wie Facebook, Twitter und Co. in Echtzeit überwacht und wichtige Ereignisse lokalisiert wer-
den. Im Anschluss werden Nutzer und Ort verifiziert und die Erstellung eines Lagebilds ermöglicht
(vgl. Abb. 22)223.
Abb. 22: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016
Quelle: Vgl. Scatterblogs (2018b)
In Bezug auf das Rezeptionserleben und Personalisierung von Medieninhalten antizipieren Bran-
chenexperten starke Entwicklungstendenzen in den kommenden Jahren. Je nach persönlichen Ei-
genschaften des Konsumenten können schon heute verschiedene Inhalte erstellt und angezeigt
werden. Doch der Strategiechef der Washington Post etwa geht davon aus, dass durch die auf ein-
zelne Kunden zugeschnittene Personalisierung von Inhalten Leser im Rahmen von Kundenbin-
dungsmaßnahmen länger an Onlinemedienangeboten interessiert bleiben.
Mit Hilfe von Nutzerdaten könnten z.B. der Bildungsstand erkannt und die passende Version eines
Artikels eingeblendet werden224. Mit der Weiterentwicklung der automatisierten Textproduktion
220 Vgl. dpa (2017) 221 Vgl. Karon (2017) 222 Vgl. Crowdalyzer (2018) 223 Vgl. Scatterblogs (2018a) 224 Vgl. Gilbert in: Jannasch (2017)
73
muss diese Optimierung nicht zwingend Mehrarbeit für die Medienhäuser bedeuten, bietet aber
Mehrwert für die Kunden.
A U T O M A T I S I E R T E P R O D U K T I O N V O N V I D E O S P I E L - W E L T E N
Der Games-Writer Chet Faliszek, der durch das Schreiben von Handlungssträngen kommerziell er-
folgreicher Spiele Bekanntheit erlangte, arbeitet aktuell an KI-getriebenem Storytelling225. Damit
soll die Geschichte und Struktur eines Spieles nicht mehr festen Vorgaben folgen, sondern sich auf
Grundlage der Handlungen des Spielers entwickeln. So könnte bspw. ein mit einer anderen Figur
im Spiel gestarteter Konflikt das Spiel eines Nutzers über Wochen oder Monate beeinflussen, wäh-
rend ein anderer Nutzer, der diesem Charakter einen Gefallen erwies, diese Figur vielleicht niemals
wiedersähe226. Konsequenzen sollen auf die verschiedensten Handlungen erfolgen.
Laut Faliszek ist es dafür aber zunächst wichtig, die Wahrnehmung des Spielers zu verstehen. Mit
Hilfe analytischer Verfahren ist es bspw. sehr einfach, zu definieren, ob ein Spieler kämpft oder nicht.
Inwiefern er aber glaubt, in einer Liebesgeschichte zu sein, ist sehr viel schwieriger. Insbesondere
Nuancen und Konnotationen bei Dialogen stellen eine große Herausforderung dar. Auch der Infor-
mationsübermittlung kommt zunehmende Bedeutung zu, denn auch das bewusste Entscheiden
gegen Optionen und Konsequenzen stellt eine Handlung dar. Derartige Personalisierungen sind in
Spielen bisher kaum implementiert, da das Erstellen der Inhalte kostspielig ist. Zukünftig ist laut
Faliszek KI-basiert das automatisierte Entstehen personalisierter Geschichten denkbar227. Derartige
Spiele sollen durch tiefgründigere Geschichten einen größeren Umfang aufweisen als bisher Be-
kannte und auf spezielle Nutzer zugeschnitten sein228.
Doch auch mit den neuesten Techniken stellt das Modellieren von virtuellen Umgebungen Spiele-
entwickler vor große Herausforderungen. Auch unter Zuhilfenahme umfangreicher Algorithmen
sind geomorphologische, landformende Prozesse nur schwierig nachzuahmen. Verschiedene exis-
tierende Methoden generieren entweder geologisch fehlerhafte Modelle, erlauben eine nur unge-
nügend Nutzerinteraktion oder replizieren ausschließlich importierte Beispiele. Problematisch ist
zum Teil auch die Berechnungsdauer. Fortschritte im Bereich Deep Learning ermöglichten es einem
Forscherteam jedoch kürzlich, derartige Probleme zu minimieren. So müssen in dem von ihnen
entwickelten Programm nur einige grundsätzliche Anforderungen durch den Menschen angegeben
sowie einigen Linien eingezeichnet werden. Auf diesen Grundlagen erstellt das Programm selbst-
ständig Flächenprofile (vgl. Abb. 23)229.
225 Vgl. Zelada (2017) 226 Vgl. Faliszek in: Zelada (2017) 227 Vgl. ebd. 228 Vgl. Cornillon in: Zelada (2017) 229 Guérin et al. (2017), S. 1f.
74
Abb. 23: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung
Quelle: Guérin e.a. (2017), S. 2
A U T O M A T I S I E R T E A N A L Y S E D E S M E D I E N N U T Z U N G S V E R H A L T E N S ,
S P E Z I E L L : I N D E R S P I E L E - I N D U S T R I E
Mit der zunehmenden Nutzung von Smartphones und sozialen Netzwerken breiten sich auch neue
Spieleplattformen aus, insbesondere kostenfreie Spiele etablieren sich zunehmend. Gewinn wird
bei den sog. Free-to-Play-Spielen mit Hilfe von In-Game-Verkäufen generiert, mit denen bspw. Le-
benszeit oder Ressourcen für das Spiel erworben werden können. Während des Spielens hinterlas-
sen Nutzer Unmengen an Daten. Hierbei ist die Herausforderung, die Informationen automatisiert
zu protokollieren und auszuwerten, die dem Spielehersteller tatsächlich von Nutzen sind, um etwa
die In-Game-Performance und Nutzererfahrung zu verbessern, die Spieldauer zu verlängern oder
mehr Verkäufe zu erzielen230.
Zwischen 40 und 60 Prozent der Spieler von kostenfreien Anwendungen wenden sich nach nur einer
Session bereits wieder vom Spiel ab. Gründe dafür liegen im ungenügend ausbalancierten Schwie-
rigkeitsgrad und zu aufdringlichen In-App-Kaufangeboten231. Die Nutzung moderner Analytics-An-
gebote ermöglicht Aufschluss darüber, ob Nutzer die ersten Level zu schwierig finden – oder spä-
tere Level zu einfach. So können auch zu schwierige Stellen, die zur Aufgabe des Spiels führen (sog.
Flaschenhälse), aufgedeckt werden. Besonders unbeliebte und optimierbare Elemente werden
ebenso ersichtlich wie sehr beliebte. Peaks in der Serverauslastung werden mittels Nutzerdaten-
Auswertungen vorhersehbar und ein plötzlicher Anstieg an Online-Spielern nicht mehr zu Kapazi-
tätsproblemen hinsichtlich der Serverauslastung. Schließlich wird auch Aufschluss ermöglicht, in-
wiefern die Nutzung verschiedener Endgeräte (Tablet oder Smartphone, XBox oder PlayStation) die
Spielerfahrung beeinflusst und ob Anpassungen im Spiel vorgenommen werden sollten232.
5.1. 2 MARKTPOTENT IALE
Spätestens seit Associated Press, eine der weltweit größten Nachrichten- und Presseagenturen, au-
tomatisch generierte Nachrichten in Quartalsberichten verwendet, setzt sich die automatisierte Pro-
duktion von Inhalten immer stärker durch. Mit dem Automated Insight-Programm Wordsmith pro-
duziert AP derzeit rund 15.000 Berichte pro Jahr – ungefähr 14-mal mehr, als die Redakteure zuvor
produzieren konnten233. Inzwischen arbeiten Unternehmen weltweit an Softwarelösungen zur au-
tomatisierten Erstellung von Nachrichten, darunter unter anderen Forbes, The New York Times, Los
Angeles Times und ProPublica. Da Nachrichtenorganisationen in aller Regel Kostenminimierung bei
230 Vgl. Gutierrez (2016) 231 Vgl. ebd. 232 Vgl. van Rijmenam (2017) 233 Vgl. Wölbert (2017)
75
gleichzeitiger Erhöhung der Nachrichtenanzahl anstreben, ist zu erwarten, dass sich die maschinelle
Produktion weiter in Redaktionen etablieren wird. Auch die zunehmende Verfügbarkeit strukturier-
ter Datengrundlagen gilt als Treiber der automatisierten Contentproduktion234.
Insbesondere aufgrund der vermehrten Entwicklung intelligenter Gegenstände wird die systemati-
sche Erfassung verschiedenster Arten von Daten zunehmen235. Im Rahmen des sogenannten Inter-
net of Things (IoT) werden physische Objekte mit Technologien wie Mikroprozessoren und Senso-
ren ausgestattet, die dem Messen des Zustandes von Gegenständen oder deren Umwelt dienen.
Damit werden auch Alltagsgegenstände dazu befähigt, weitestgehend autonom Daten über Netz-
werke weiterzuvermitteln236 – von Waschmaschinen über Straßenbahnen, Autos, Straßenlaternen,
Fabriken bis hin zu ganzen Städten. Im Jahr 2020 sollen weltweit rund 21 Mio. Gegenstände vernetzt
sein237. So können vor allem verstärkt Nachrichten automatisiert erstellt werden, in denen aufgrund
der verschiedensten intelligenten Objekte eine enorme thematische Breite erreicht werden kann.
Vordergründig wird zwar zunächst das verarbeitende Gewerbe von IoT profitieren, da vernetzte
Maschinen und Geräte sowie Kontrollsysteme große Effizienzgewinne mit sich bringen. Doch auch
industrieübergreifend wird ein erheblicher Mehrwert erwartet. Für das Jahr 2020 wurde vom Markt-
forschungsunternehmen Deloitte für das Industriesegment Kommunikation, Medien und Service
ein durch IoT generierter Umsatz von rund 880 Mio. Euro prognostiziert238. In der Vergangenheit
stieg die Anzahl der vernetzten Gegenstände im Medien- und Unterhaltungssektor um 120 Prozent
(2013 zu 2014), womit das Wachstum nur in der Fertigungs- (204 Prozent) und Finanzbranche (128
Prozent) noch höher lag239. Analysten erwarten, dass IoT-relevante Investments vor allem in Unter-
nehmen aus den Bereichen Reisen und Transport, Fertigung, Medien und Unterhaltung sowie Te-
lekommunikation getätigt werden.
Durch die intelligenten Gegenstände werden Datengrundlagen zunehmenden Umfangs erzeugt,
die für die automatisierte Contenterstellung genutzt werden können. Konkret sollen im Jahr 2025
IoT-getrieben 180 Zettabytes (180 Billionen Gigabytes) an Daten entstehen240. Generell wird der
maschinellen Produktion von Medieninhalten ein enormes Potential zugeschrieben. Maschinen er-
zeugen schneller und mit weniger Fehlern umfangreichere Inhalte als Menschen. Dabei kann eine
einzige Datenbasis als Grundlage für mediale Angebote in verschiedenen Sprachen dienen, wobei
Ausführungen aus unterschiedlichen Perspektiven erfolgen und diese zusätzlich an Nutzerpräferen-
zen angepasst werden können241. Die Digitalisierung, die seit Beginn der 2000er Jahre viele Medi-
enhäuser mit einem Rückgang der Leserzahlen und sinkenden Werbeeinnahmen konfrontierte,
könnte mit Hilfe von Automatisierung und Personalisierung so wieder neuen Aufschwung bringen:
Zum einen können Publisher durch die automatisierten Prozesse Kosten einsparen, zum anderen
besteht die Möglichkeit, Inhalte so zu personalisieren, dass bei Nutzern eine höhere Zahlungsbe-
reitschaft erzeugt wird242.
234 Graefe (2016), S. 9f. 235 Vgl. Press (2016) 236 Technologiestiftung Berlin (2017), S. 10f. 237 Vgl. Gartner (2015) 238 Deloitte (2016), S. 9 239 Verizon Communications (2015), S. 6 240 Vgl. Press (2016) 241 Graefe (2016), S. 10 242 Vgl. dazu Premium-Onlineangebote wie Bild+, Spiegel Plus, FAZ Plus etc.
76
Die Vorlieben der Nutzer wiederum können sowohl mit Hilfe von IoT als auch im Rahmen des On-
line-Nutzerverhaltens umfassend protokolliert werden, was eine zielgenaue Kreation und Einblen-
dung von Werbung ermöglicht. Mit Hilfe von Algorithmen kann zudem berechnet werden, wie gut
Werbeinhalte und Nutzer zusammenpassen, um Streuverluste zu minimieren. Chen und Stallaert
zeigen in ihrer Studie, dass sich bei personalisierter Werbung der potentielle Umsatz im Vergleich
zu traditionellen Anzeigen verdoppeln kann243. Das Verfahren der automatisierten Werbung, wel-
ches sich vor allem am jeweiligen Nutzungskontext der Personen orientiert, ist bereits seit einigen
Jahren ein etabliertes Verfahren der Werbeindustrie. Für das Jahr 2017 wurde für Programmatic
Advertising in Deutschland insgesamt ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen
Marktanteil von etwa 45 Prozent an digitaler Display-Werbung ausmacht244. Durch detailliertere
Profile potentieller Käufer könnte die automatisierte Werbekommunikation zukünftig noch effizi-
enter gestaltet werden.
Neben dem zielgerichteten Marketing werden automatisiert erfasste Nutzerdaten auch zu einem
besseren Verständnis der Kunden führen. Insbesondere im Videospiel-Sektor birgt die Analyse der
richtigen Daten enorme Umsatzpotentiale. Der weltweite Umsatz im Markt mit Videospielen wächst
stetig245, und insbesondere in China, den USA und Japan werden hohe Handelsumsätze erzielt.
Innerhalb Europas ist in Deutschland der größte Spielemarkt zu finden: Jährlich werden bis zu 3,3
Mrd. Euro mit digitalen Spielen erwirtschaftet. Damit liegt die Computer- und Videospielbranche
zwar hinter den Umsätzen des Buchhandels (9,2 Mrd. Euro), jedoch vor denen des Musikmarkts (1,6
Mrd. Euro) und des Kinofilmmarkts (1,2 Mrd. Euro)246. Die Nutzerdaten von weltweit rund zwei Mrd.
Spielern bieten das Potential, das Marktwachstum überproportional zu steigern.
5.1. 3 ZUSAMMENFASSUNG UND AUSBLICK
Dass sich die 47. IFRA World Publishing Expo (WPE) in Berlin im Oktober 2017 erstmals zusammen
mit der Digital Content Expo (DCX) präsentierte und dabei thematisch die Integration von KI domi-
nierte, verdeutlicht deren Relevanz in der Medienbranche. "Künstliche Intelligenz und Roboterjour-
nalismus erobern den Content-Markt" lautete die Schlagzeile der anschließenden Pressemittei-
lung247. Medienschaffenden und Content-Managern wurden zahlreiche, auf KI basierende Lösun-
gen und Angebote präsentiert. Die Messe verdeutliche, "wie Algorithmen und Automatisierungslö-
sungen den Markt der Medien, Nachrichten und Content-Provider aufmischen"248.
Es wird geschätzt, dass aktuell bereits rund 70 Prozent einer Tageszeitung automatisiert erstellt
werden könnten249. Allerdings stehen Rezipienten maschinell erstellten Inhalten bisher zum Teil
noch skeptisch gegenüber250, zudem sind auch Algorithmen fehleranfällig. Laut Tony Emerson, dem
Managing Director des Bereichs "Media and Cable" bei Microsoft, seien die Fehlerquoten aber
durchaus mit denen von Menschen zu vergleichen – so können Übersetzungsleistungen maschinell
243 Vgl. Chen, J./Stallaert, J. (2014) 244 Vgl. Gillner (2017) 245 Vgl. VentureBeat (2015) 246 Castendyk, & Müller-Lietzkow (2017), S. 89f. 247 Vgl. IFRA World Publishing Expo & DCX Digital Content Expo (2017) 248 Vgl. ebd. 249 Vgl. Alkan in: Meier (2017) 250 Vgl. z.B. Graefe et al. (2016)
77
derzeit mit rund 90 Prozent Genauigkeit geleistet werden251. Zudem kann erwartet werden, dass
sich die Qualität automatisierter Inhalte insbesondere durch Fortschritte im Bereich der NLG-Tech-
nologien noch weiter stark verbessern wird252. Die Associated Press bspw. will bis 2020 80 Prozent
ihres Nachrichtenangebots automatisiert erstellen und so Journalisten mehr Raum geben, sich in-
vestigativem Journalismus oder neuen Formen wie Virtual Reality zu widmen253.
Das größte Potential wird derzeit in der Automatisierung kleiner und einfacher Aufgaben gesehen,
und Computerprogramme werden vor allem als Zuarbeiter betrachtet254. Auf der anderen Seite
wurden mit Hilfe von KI in den USA bereits ein Drehbuch255, in Japan ein Roman256 und in Großbri-
tannien ein Marketing-Magazin verfasst257. Algorithmen können aktuell zwar keine neuen Phäno-
mene oder kausale Beziehungen erklären und sind in journalistischen Tätigkeiten nur begrenzt ein-
satzfähig258. Vermutlich können diese Einschränkungen aber mit der fortschreitenden technischen
Entwicklung in einigen Jahren aufgehoben werden.
251 Vgl. Emerson in: Leitner (2017) 252 Graefe (2016), S. 10 253 Lobe (2017), S. 1; Marconi in: Leitner (2017) 254 Lobe (2017), S. 2; Unsworth in: Leitner (2017) 255 Vgl. Neewitz (2016) 256 Vgl. Olewitz (2016) 257 Vgl. Writer (2016) 258 Graefe (2016), S. 10
78
5.2 INNERBETRIEBL ICHE PO TENTIALE VON B IG DATA
BEI MEDIENUNTERNEHME N
Mit der fortschreitenden Digitalisierung in den Onlinemedien verändert sich nicht nur die Art und
Weise, wie mediale Inhalte erstellt werden. Vor allem auf der Anbieterseite birgt Big Data das Po-
tential, die gesamte Organisationsstruktur der Medienbranche grundlegend und nachhaltig zu ver-
ändern. Wie in den vorangehenden Kapiteln beschrieben wurde, lassen sich KI-gestützte Anwen-
dungen und Prozessautomatisierung bereits in die meisten Bereiche der Wertschöpfungskette in-
tegrieren (vgl. dazu Kap. 5.1.2).
Analysten erwarten, dass in der Forschung und Entwicklung durch den Einsatz von KI Kostenreduk-
tionen in Höhe von zehn bis 15 Prozent realisiert werden können. Neue Produkte können so schnel-
ler konzipiert und auf ihre Qualität getestet werden, was dazu führt, dass sie rd. zehn Prozent früher
in den Markt eingeführt werden können259. Dadurch entwickeln sich Big-Data-Prozesse aus einer
strategischen Perspektive zu distinktiven Wettbewerbsvorteilen. Repetitive Arbeiten können ver-
mieden und durch die freigesetzten Ressourcen neue Wertschöpfungsfelder erschlossen werden.
Um die zukünftigen Auswirkungen innerbetrieblicher Big-Data-Optimierung auf den Onlinemedi-
en-Markt abschätzen zu können, werden nachfolgend datenbasierte B2B-Angebote als Schlüssel-
aktivitäten untersucht260.
5.2. 1 BIG-DATA-PROZESSE ALS NEUE SCHLÜSSELAKTI VITÄT
Als Schlüsselaktivitäten werden die primären Tätigkeiten eines Unternehmens bezeichnet, die dazu
dienen, Kernprodukte und Dienstleistungen zu erstellen. Im Kontext von Onlinemedien handelt es
sich dabei vor allem um die Bereiche der Anfertigung von Inhalten, Kundenmanagement und des
Verkaufs von Werbung zur Refinanzierung. Doch auch andere Schlüsselaktivitäten werden von Big-
Data-gestützten Anwendungen erfasst.
Big-Data-Recherchen und Analysen wurden in den letzten Jahren im Kontext von Wikileaks-Veröf-
fentlichungen zur NSA-Spionage261 oder dem Wirtschaftsskandal um die sog. Panama Papers (vgl.
Kap. 5.1.1) zu den wichtigsten Werkzeugen des investigativen Journalismus. Neue, ortsungebun-
dene Datenanalyse-Abteilungen, bestehend aus internationalen Datenspezialisten, bieten das Po-
tential, journalistische Recherche- und Analysearbeit als Schlüsselressource für Medienunterneh-
men stark aufzuwerten. Zusammen mit Journalisten, Redakteuren und Grafikern können nunmehr
auch Datenwissenschaftler, Datentechniker und Big-Data-Analysten multidisziplinäre Teams für in-
teraktive Medienproduktionen bilden.
259 McKinsey & Company Inc. (2017), S. 35f. 260 In Anlehnung an die Methodik des Business Model Canvas Modell nach: Osterwalder & Pigneur (2010), S.
14ff. 261 Vgl. WikiLeaks (2016)
79
Einige solcher hybriden Onlinemedien-Magazine wie vox.com, fivefortyeight.com oder das New
York Times Datenjournalismus-Portal theupshot.com implementieren seit einigen Jahren erfolg-
reich dieses Geschäftsmodell262. Was sich im Rahmen von Big Data jedoch für Unternehmen ändern
wird, ist die Organisation und das Management dieser Schlüsselaktivität.
Über Plattformen wie z.B. "Kaggle" werden Gigabyte-große Datensets frei verfügbar gemacht und
können von Datenforschern aus unterschiedlichsten Redaktionen aus der ganzen Welt dezentral
bearbeitet werden263. Alle Schritte und Werkzeuge zur Erstellung, A/B Prototyp-Prüfung, Ausfüh-
rung und Wartung von datengesteuerten Anwendungen werden durch KI-Automatisierung in einer
Plattform vereint. Auch ein öffentlicher Austausch von selbst programmierten Analysepaketen ist
möglich. Da verteilte Dateimanagementsysteme (wie z.B. Apache Hadoop) und ihre respektiven
Analysesprachen (HIVE, R-Pakete oder SPARK) modular und geografisch dispers eingesetzt werden
können, bieten andere kollaborative Online-Plattformen wie z.B. "Dataiku"264 mehreren dezentral
organisierten Gruppen die Möglichkeit, gemeinsam und in Echtzeit an einer Analyse zusammenzu-
arbeiten (vgl. Abb. 24).
Zentral für das Versprechen der Automatisierung ist, dass innerhalb solcher Plattformen Datensets
aus allen verfügbaren Datenbanksystemen aggregiert, strukturiert und sortiert werden können. In
den vorangehenden Jahren mussten sich Unternehmen für einen Datenstandard entscheiden und
kostenintensiv durch IT-Firmen implementieren lassen. Heute können Programmierer diese Daten
mit Hilfe von relationalen oder unstrukturierten Datenbanken innerhalb von wenigen Stunden or-
ganisieren und allen Teammitgliedern verfügbar machen, sodass Webentwickler diese visualisieren
und interaktiv aufbereiten können. Entscheidend wird für Online-Publisher, dass diese Form von
datengetriebener Analyse ergebnisorientiert und dezentralisiert organisiert werden kann. Somit
können Medienhäuser schnell neue Formate testen, publizieren und ihre Performance überprüfen,
ohne eine neue Abteilung gründen und Personal dauerhaft einstellen zu müssen – was einen Vorteil
zugunsten von Kosteneinsparungen bietet.
Big-Data-gestützte Vermarktung und Smart Sales stellen zwei weitere aufkommende Schlüsselak-
tivitäten für Medienunternehmen dar. Um Streuverluste zu vermeiden und die identifizierten Ziel-
gruppen direkt erreichen zu können, existieren schon heute integrierbare Sales-Cloud-Anwendun-
gen (wie z.B. die "Salesforce Einstein"-KI265 oder Pipedrive266), die in Echtzeit Kundenverhalten ana-
lysieren und automatisch eine grobe Zielgruppe bestimmen, damit Vertriebsmitarbeiter ihre Res-
sourcen besser planen und organisieren können.
Smart Sales erweitern diese Vermarktungsprozesse für Verlage, indem sie durch Big-Data-Analysen
Fragen beantworten wie z.B., wer als Individuum im Markt welches Produkt des Verlages erwirbt
und zu welchem Zeitpunkt. Durch das Zusammenspiel von KI und Sensordaten aus dem IoT entste-
hen zunehmend intelligentere Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung
und des Vertriebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten auto-
matisieren.
262 Vgl. Ball (2014) 263 Vgl. Kaggle (2018) 264 Vgl. Dataiku (2018) 265 Vgl. Salesforce (2018) 266 Vgl. Pipedrive (2018)
80
Abb. 24: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics An-
bieters Dataiku
Quelle: Vgl. Dataiku (2018)
Organisiert als Cloud-Lösung, sind Smart Sales-Plattformen darauf ausgelegt, herauszufinden, wel-
che Faktoren für eine ideale Beziehung zum Kunden in Bezug auf das Zielunternehmen wie ausge-
prägt sein müssen. Die Algorithmen solcher Big-Data-Plattformen wie z.B. "Oracle Data Cloud"267
analysieren das Kundenverhalten, KNN-basierte Algorithmen lernen Muster in diesen Verhaltens-
daten zu erkennen und ermöglichen es dem Verleger, mehr über das Kundenengagement, die Kun-
denkonversion und das langfristige Erfolgspotential der eigenen (Online-) Publikationen herauszu-
finden. Diese KI-assistierte Vorgehensweise, um detaillierte Erkenntnisse zu generieren, hat in naher
Zukunft das Potential, zum Standardrepertoire von traditionellen Verlagen als auch von reinen On-
line-Publikationen zu werden, da bei jedem einzelnen Leser mit geringem Personalaufwand ein sehr
hoher Grad an Personalisierung erreicht werden kann.
Komplementär dazu existieren Big-Data-Anbieter, die unter Einsatz von maschinellem Lernen die
nachgelagerten Sales-Prozesse optimieren. Als Beispiel lässt sich das Unternehmen "Collective In-
telligence" anführen, welches Millionen von Aufzeichnungen über das B2B-Kaufverhalten aggre-
giert hat268. Der Anbieter bedient sich dieser Daten, der Methode des maschinellen Lernens und
multivariater Forecast-Modelle, um Mitarbeitern im Vertrieb Handlungsempfehlungen aufzuzeigen,
die direkt zu einem erhöhten Vertriebsumsatz führen sollen. Das Programm verbindet sich dazu
267 Vgl. Oracle Data Cloud (2018) 268 Vgl. Collective Intelligence (2018)
81
nach der Integration in die IT-Infrastruktur eines Unternehmens mit dem CRM-System und weiteren
relevanten Datenquellen, um diese in quantifizierbare Erkenntnisse und Prognosen umzuwandeln.
5.2. 2 MARKTPOTENT IAL UND ANWENDUNGSBE R EICHE
Mit der Implementierung von Daten-Abteilungen und der automatischen Erstellung von Medien-
inhalten durch Big Data kommt den deutschen Medienunternehmen die Aufgabe zu, die Infrastruk-
tur um diese neuen Prozesse als Schlüsselressourcen zu erkennen und zu managen. Künstliche In-
telligenz und maschinelles Lernen wurden in Kapitel 3.1 als technologische Grundlagen für Big-
Data-Analysen vorgestellt und gleichsam als hochkomplexe Lernanordnungen beschrieben, die in
selbstreflexiven Algorithmen zusammengefasst werden. Die Formulierung, Modellierung und Im-
plementierung der Kern-Algorithmen müssen in einem organisationalen Kontext sorgfältig geplant
und in der Regel durch eine eigene IT-Abteilung (konkreter: durch Computerwissenschaftler) aus-
geführt werden269.
Obwohl Medienunternehmen immer weniger auf diese Schlüsselressource verzichten können, ver-
fügen sie noch über zu wenig Expertise, um KI-basierte Prozesse wie Roboterjournalismus selbst zu
implementieren270. An dieser Stelle setzen KI-as-a-Service-Anbieter an und ermöglichen Unterneh-
men den Zugriff auf selbstlernende KI-Modelle in Form von Online-Plattformen, die mit dem Begriff
"Distributed Artificial Intelligence" (DAI) betitelt werden271.
Für diese Form der KI-Integration können Publisher auf den Aufbau von eigenen Server- und KI-
Training-Infrastrukturen verzichten. Als Beispiel kann das Unternehmen "Fluid AI" angeführt wer-
den272, das durch flexibel gestaltbare KI-Modelle versteckte Beziehungen, Muster, Korrelationen
und Ursachen innerhalb großer Datenmassen identifizieren kann. Durch solche Formen des Zugan-
ges zu neuen Schlüsselressourcen über Intermediäre kann, zumindest in der Theorie, jede Art von
Unternehmen auf bestimmte Zielaufgaben abgestimmte Deep-Learning-Algorithmen entwickeln.
Ein weiteres prominentes Beispiel stellt die Open-Source Machine-Learning-Lösung "H2O.ai" dar273.
Dabei handelt es sich um eine Plattform für Entwickler, die das Erstellen von intelligenten Anwen-
dungen vereinfacht und eine Integration der generierten Algorithmen in eigene Applikationen un-
terstützt. Unternehmen wie PayPal benutzen sie zur Mustererkennung bei Betrugsfällen und erstel-
len Prognosen über geografische Problemgebiete, um nachhaltig sich ähnelnden Betrugsmustern
vorzubeugen274. Millionen von Datensets können in kürzester Zeit über ausgelagerte Algorithmen
und Analysemodelle nach Auffälligkeiten gefiltert werden.
Zu den Einsatzbereichen gehören dabei nicht nur Marketing, Versicherung, Finanzwesen und Tele-
kommunikation, sondern auch auf die Medienindustrie abgestimmte Verfahren zur Reduktion von
Komplexität in Textdokumenten, relationalen Datenbanken und Videodatenbanken.
Dienstleister wie "Sentient Technologies" ermöglichen es, komplett autonome Systeme zu betrei-
ben, ohne dezidierte KI-Forschungsabteilungen aufbauen zu müssen275. Die auf Web-Entwickler
269 Vgl. Planung der Prozessinfrastruktur in z.B. Batista et al. (2016), S, 5ff. 270 McKinsey & Company Inc. (2017), S. 39 271 Bond & Gasser (2014), S. 3 272 Vgl. Fluid.AI (2018) 273 Vgl. H2O.AI (2018) 274 Vgl. Morisy (2016) 275 Vgl. Sentient Technologies (2017)
82
abgestimmte Schnittstelle lässt den Nutzer vollständig autonom agierende Systeme erstellen und
testen, wodurch sich u. a. im Bereich der digitalen Vermarktung Kampagnen optimieren, im E-Com-
merce höhere Konversionsraten erzielen und im Vertrieb Verkaufsstrategien automatisieren lassen.
Abb. 25: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017
Quelle: Vgl. Sentient Technologies (2017)
Im Rahmen einer solchen Vertriebsoptimierung konnte die eingesetzte KI bei einem Sonnenbrillen-
Online-Versand über eine Einkaufsmaske (vgl. Abb. 25) völlig automatisiert eine visuelle Konversa-
tion mit seinen Käufern führen. In Echtzeit konnte die KI verstehen, was den jeweiligen Kunden am
meisten interessierte, indem sie Hunderte verschiedener Vektoren (bzw. Bildpunkte) eines Bildes
analysierte, mit denen der Kunde in der Einkaufsmaske interagierte. So konnte die KI genau die
Präferenzen des Kunden als Faktoren bestimmen. Anstatt diese Präferenzen in Form von Kohorten-
basierter Personalisierung auszuwerten, um standardisierte Produktempfehlungen zu generieren,
konnte durch maschinelles Lernen ein Präferenzen-Modell des konkreten Katalogs des Händlers
erstellt werden.
Das Katalog-Modell enthielt hierbei nur die Bilderdateien und unstrukturierte Vektordaten von den
tatsächlich vertriebenen Modellen (was auch als Big Data bezeichnet werden kann). Auf diesem
Wege konnte die KI über die identifizierten Faktoren in Echtzeit eine Beziehung zwischen den Prä-
ferenzen des Kunden und den Eigenschaften der vorhandenen Artikel herstellen. Das Unternehmen
gibt an, damit den Verkaufsvorgang zwischen einem Menschen und einem ausgebildeten Laden-
mitarbeiter zu simulieren, der sich mit dem Angebot seiner Filiale auskennt. Als Resultat konnten
durch den Einsatz der KI der durchschnittliche Bestellwert um acht Prozent und die durchschnittli-
che Konversionsrate um 21 Prozent gesteigert werden276.
276 Vgl. ebd. S. 2
83
Auf der anderen Seite des Anwendungsspektrums existieren hybride DAI-Angebote, bei denen die
Anwendung von Künstlicher und menschlicher Intelligenz zusammen gebucht werden kann. Hyb-
ride Automations-Dienstleistungen wie Amazons "Mechanical Turk"277 oder die "WorkFusion"278
Online-Plattform bieten virtuelle B2B-Marktplätze, die es Unternehmen erlauben, zeitlich unbe-
schränkt KI-gestützte "menschliche Intelligenz" in Arbeitsabläufe zu integrieren und einfache Auf-
gaben zu automatisieren, die Computer bisher noch nicht im Stande sind zu erfüllen – wie z.B. von
Nutzern hochgeladene Online-Inhalte zu kuratieren. Durch ein derartig bedarfsorientiertes Arbeits-
kraft-Management besteht die Möglichkeit, mit hybriden DAI-Angeboten Lohnkosten erheblich zu
senken.
Big-Data-bezogene Geschäftsprozesse müssen deswegen auch nicht nur durch Outsourcing auf
Kosten der Arbeitnehmer optimiert werden, sondern können in Form von robotergesteuerter Pro-
zessautomatisierung, maschineller Analyse und Arbeitskraftorchestrierung realisiert werden. Solch
flexible Figurationen im Management von Schlüsselressourcen ermöglichen im Verlauf der Adap-
tation von Big-Data-Produkten der deutschen Medienbranche erhebliche Synergieeffekte. Der Ein-
satz von verlagsinternen Schlüsselressourcen wie menschlicher Intelligenz, Kreativität und Ästhetik
in Kombination mit zugelieferter Analysekraft von KI kann die Produktivität und Agilität bei der
Dienstleistungserbringung von Unternehmen enorm steigern. Multimediale Projekte, bestehend
aus Millionen von Video- und Textrohdaten, können mit Hilfe von Big-Data-Prozessen schnell ge-
sichtet, indexiert und bearbeitet werden, sodass die zuständigen redaktionellen Mitarbeiter mit den
kondensierten Ergebnissen in kurzer Zeit tiefgehende Analysen, Porträts oder Gutachten erstellen
können.
5.2. 3 ZUSAMMENFASSUNG UND AUSBLICK
Wenn es um die Implementierung von Big Data in innerbetriebliche Prozesse im deutschen Markt
für Onlinemedien geht, neigt der öffentliche Diskurs dazu, KI als Ursache für Filter Bubbles darzu-
stellen (vgl. Kap. 4.3.3), Prozessautomatisierung als Grundlage für Arbeitsplatzrationalisierungen279
und Chatbots als Instrumente für Wahlkampfmanipulationen280. Die Realität in Unternehmen, die
Big-Data-Initiativen gestartet haben, ist dagegen von eher sachlicher Natur. Von den rd. 40 Prozent
aller Unternehmen weltweit, die Big-Data-Projekte umsetzen, haben erst 18 Prozent diese als festen
Bestandteil in ihre innerbetriebliche Prozessstruktur implementiert (in Europa sind es sogar nur 16
Prozent)281. Von einer komplett autonomen Entscheidungsfindung in Medienunternehmen und ei-
ner daraus resultierenden systematischen Verzerrung der Meinungsbildung kann daher im Moment
nicht gesprochen werden.
Im normativen Mediendiskurs wird durch die Priorisierung der negativen Folgen von KI-gesteuerten
Prozessen eine zentrale Perspektive vernachlässigt: Im Fokus der innerbetrieblichen Optimierung
durch Big Data oder KI geht es nicht darum, Entscheidungen zu automatisieren oder sich der Ver-
antwortung zu entledigen. Marktstudien und Umfragen zur Big-Data-Nutzung in Unternehmen
277 Vgl. Amazon Mechanical Turk (2018) 278 Vgl. WorkFusion (2018) 279 Vgl. z.B. Hank & Meck (2016) 280 Vgl. z.B. Krempl (2017) 281 BARC (2015), S. 10
84
kommen oft zu demselben Ergebnis: Unternehmen investieren in Big Data, um Mitarbeiter zu ent-
lasten und nicht, um sie zu entlassen282. Mit Hilfe von Big-Data-Ergebnissen soll die Entscheidungs-
findung von Mitarbeitern nicht obsolet gemacht, sondern insofern erleichtert werden, als dass das
Geschäftsmodell in Bezug auf Gewinnmaximierung verbessert werden kann.
Diese Aussage lässt sich anhand des Einsatzes von Automatisierungsprozessen nach Branchen
überprüfen. Bei der Frage nach der Umsetzung von Entscheidungen auf Basis von Ergebnissen von
Big-Data-Analysen konnte im Rahmen einer BITKOM-Studie eine stärkere Zustimmung zu dieser
Aussage bei v.a. technischen und industriellen Branchen verortet werden, wie bspw. im Maschinen-
und Anlagebau oder in der Automobilindustrie. Im direkten Vergleich sieht man unter allen befrag-
ten Branchen die Medienwirtschaft als die Branche, die am allerwenigsten relevante Entscheidungen
auf Basis von Erkenntnissen aus Big-Data-Analysen umsetzt (vgl. Abb. 26).
Abb. 26: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data-
Analyseergebnissen zur Entscheidungsfindung in Unternehmen
Quelle: Erwin et al. (2016), S. 6; Mittelwerte auf einer Skala von 1 „Trifft voll und ganz zu“ bis 5 „Trifft überhaupt nicht
zu“ (gewichtet) der befragten Unternehmen, n=704
Im Rahmen derselben Untersuchung wurde jedoch auch festgestellt, dass trotz der unterdurch-
schnittlichen Nutzung von Analyseergebnissen zur Entscheidungsfindung die Medienwirtschaft
282 Vgl. z.B. ebd., S. 15 oder Erwin et al. (2016), S.15 ff.
85
über alle Branchen hinweg den größten Anteil von Unternehmen besitzt, die fortgeschrittene Ana-
lysemethoden zur freien bzw. explorativen Suche von Erkenntnissen in Datensets von unterschied-
lichster Herkunft und Struktur einsetzen283.
Wie auch in den meisten anderen Branchen geht es beim Einsatz von Big-Data-Analyseplattformen
in der deutschen Medienbranche eher darum, Erkenntnisse aus deskriptiven Analysen zu ziehen, als
Entscheidungen aus präskriptiven Analysen zu generieren284. Besonders der Erkenntnisgewinn im
Bereich Kundenverständnis und Verbesserung der Kundenerfahrung ist für jedes zweite Unterneh-
men entscheidend285, da über alle Unternehmensbereiche hinweg Big-Data-Analysen vor allem in
den operativen, auf Kunden fokussierten Marketing- und Vertriebs-Abteilungen realisiert werden
(vgl. Abb. 27).
Abb. 27: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland,
in Prozent
Quelle: BARC (2015), S. 17; Frage: „In welchen Bereichen nehmen Sie in Ihrem Unternehmen Big-Data-Analysen vor
bzw. planen Sie Big-Data-Analysen vorzunehmen?", n = 423
In diesem Kontext müssen Unternehmen, die ihre Abteilungen auf den Big-Data-Paradigmenwech-
sel vorbereiten, v.a. auf Folgendes achten: auf die Herausforderungen der unscharfen Analysetiefe,
den Aufbau von methodisch reliablen Vorhersagemodellen und die Analyse von polystrukturierten
283 Vgl. ebd. S. 11 284 Vgl. ebd. S. 9 285 BARC (2015), S. 15
86
Datenquellen286. Um diesen Herausforderungen gerecht zu werden, müssen Datenquellen richtig
aggregiert, verstanden und interpretiert werden. Die häufigsten Arten von Datenquellen stellen bei
Big-Data-Analysen vor allem Daten aus Transaktionssystemen, Log-Daten aus internen (CRM-) Sys-
temen und maschinelle Sensordaten aus dem IoT dar287.
Das zentrale Problem, das allen beschriebenen Herausforderungen innewohnt, ist die Erwartungs-
haltung des Managements, Big-Data-Analyseergebnisse aus der Perspektive von klassischen Busi-
ness-Intelligence Anwendungen zu betrachten. Klassische BI-Analysewerkzeuge sind wenig flexibel,
da sie auf relationalen Datenbankmanagement-Systemen aufsetzen. Big-Data-Initiativen generie-
ren stattdessen eher explorative Resultate, um komplett neue Wissenskontexte zu ermöglichen, die
bisher aufgrund der nötigen analytischen Rechenleistung nicht denkbar gewesen sind.
Gerade in der Medienbranche bestehen deshalb noch weitere Herausforderungen, die es zu über-
winden gilt. Fehlendes fachliches und technisches Know-how verhindern derzeit noch eine bran-
chenweite Implementierung von KI und maschinellem Lernen288. Doch nicht nur die Mitarbeiter
müssen in dem Umgang geschult sein, sondern vor allem auch die Entscheidungsträger in den
jeweiligen Abteilungen. Wie in den Kapiteln 5.1 und 5.2 beschrieben wurde, hat sich um KI-as-a-
Service bereits ein großes Ökosystem aus zahlreichen Big-Data-Dienstleistern gebildet. Ihr Ge-
schäftsmodell basiert darauf, als Intermediäre organisatorische und technologische Wissenslücken
zu schließen, indem sie on-demand und modular die Integration von Big-Data-Services anbieten
(vgl. dazu Übersicht im Anhang, Kap. 9.1 und 9.2).
Doch dazu muss der Wert von Big Data als Schlüsselaktivität und -ressource überhaupt von Ent-
scheidungsträgern anerkannt werden: Laut einer Umfrage unter Führungskräften aus allen Bran-
chensektoren aus dem Jahr 2016 gaben rd. 30 Prozent zu, dass das Management ihrer jeweiligen
Unternehmen Künstliche Intelligenz als Technologie prinzipiell nicht versteht289. Analog dazu sollte
sich auch auf der Arbeitnehmerseite das Verständnis durchsetzen, dass arbeitsethische Bedenken
beim Einsatz von KI und Algorithmen nicht der Technik per se gelten sollten, sondern eher den
Verantwortlichen. Die Zielsetzung hinter Innovationsprozessen ist stets, Arbeitsvorgänge zu kataly-
sieren, und menschliche Ressourcen effektiver einzusetzen, um bessere Produkte zu produzieren,
anstatt reine Kosteneinsparungen durch Automatisierung zu realisieren.
Wie in Kapitel 5.1.1 erläutert, liegt für die Medien- und Werbeindustrie das Big-Data-Potential darin,
explorative Erkenntnisse zu generieren, um den Kunden anhand seines Verhaltens und nicht wegen
seiner Demografie besser einschätzen zu können und basierend darauf Predictive-Analytics-Lösun-
gen zu erarbeiten. Vor allem im Marketing, der Akquise und im Vertriebs-/Sales-Bereich lassen sich
Konversionen gerade durch die allein menschlichen Eigenschaften wie Kreativität, Intuition und
Konsistenz erzielen290. Diese Eigenschaften werden auch in naher Zukunft nicht durch KI-gestützte
Algorithmen ersetzt werden können291. Hybride Big-Data-Lösungen bieten für diese Einsatzgebiete
286 Vgl. ebd. S. 13 und McKinsey & Company Inc. (2017), S. 40ff. 287 BARC (2015), S. 32 288 Vgl. ebd. S. 35 289 The Economist Business Intelligence Unit Ltd. (2016), S. 19 290 Vgl. Albrecht (2017) 291 Innovationen wie "Artificial General Intelligence" oder "Quantum Computing", die potentiell in der Lage
wären, menschliche Wesenszüge zu simulieren, werden noch länger als 10 Jahre vor der Markteinführung
entfernt eingestuft. Vgl. dazu Panetta (2017)
87
dagegen unter Einbezug von personenbezogenen Daten das größte Potential, menschlichen Mit-
arbeitern die Kundenansprache zu erleichtern – und nicht, sie ihnen komplett abzunehmen.
Dabei ergibt sich im Umgang mit personenbezogenen Daten die Herausforderung, Datensicherheit
als ernstes strategisches Problem zu beachten. Denn sobald Kunden und nicht Analyseergebnisse
in den Mittelpunkt von Big-Data-Auswertungen rücken, spielen sowohl der Datenschutz als auch
die Datensicherheit eine zentrale Rolle für Unternehmen. Rund die Hälfte aller Unternehmen, die
Big-Data-Initiativen gestartet haben in Deutschland, sieht Datenschutz als problematischste Kom-
ponente für die Implementierung von automatisierten Prozessabläufen. 48 Prozent sehen gleich-
zeitig die Datensicherheit als gleichwertig relevantes Problem an292. Datensicherheit ist als norma-
tive Vorgabe schwierig und vor allem kostspielig. Deswegen wird es in den kommenden Jahren für
Medienunternehmen, E-Commerce-Anbieter und Werbetreibende entscheidend, im Rahmen einer
konsistenten Datenstrategie möglichst früh Schutzklassen, Sicherheitszonen sowie -protokolle für
Maschinen-Datensets und personenbezogene Daten festzulegen.
Vor diesem Hintergrund zeichnet sich immer deutlicher ab, dass Big-Data-Datensets und perso-
nenbezogene Daten zu einer Schlüsselressource im Onlinemedien-Markt werden, die es zu über-
wachen und zu schützen gilt. Im folgenden Kapitel soll die Gewinnung und die rechtliche Situation
von personenbezogenen Daten in Deutschland untersucht und ihr Marktpotential dargestellt wer-
den.
292 BARC (2015), S. 35
88
5.3 DATENGEWINNUNG FÜR A KQUISE UND VER TRIEB
Die Identifikation neuer Kunden und die gerichtete Werbeansprache an passende Zielgruppen sind
von wesentlicher Bedeutung für den Vertrieb im deutschen Markt für Onlinemedien. Publisher, E-
Commerce-Firmen, Gaming-Anbieter können nur dann profitabel wirtschaften, wenn ihre Produkte
passend für Kunden gestaltet sind und diese kontinuierlich zu einem Wiederkauf motivieren. Noch
profitabler gestaltet sich das Abonnement-Geschäftsmodell, bei dem der Nutzer sowohl mit tradi-
tionellen Zeitschriftenverlagen als auch mit Onlinemedienanbietern wie Netflix oder Spotify eine
langfristige Geschäftsbeziehung eingeht. Damit kann der interne Cash-Flow eines Unternehmens
gesteigert oder zumindest konstant gehalten werden. Daher kommt der Akquise neuer Kunden und
dem Vertrieb von zeitlich ausgedehnten Abonnements in der Wertschöpfungskette von Medien-
unternehmen eine zentrale Rolle zu. Für diese Art von gezielter Nutzerakquise benötigen Unter-
nehmen nicht nur qualifizierte Vertriebsmitarbeiter und computergestützte Analysemethoden, son-
dern vor allem auch den Zugang zu potentiellen Kunden durch aufbereitete Personendaten, Kun-
denprofile und Bonitätsauskünfte. Wie eingangs in Kapitel 3.2 beschrieben, stellen sie die Grund-
lage für den Gegenstand von Big Data dar.
Der Markt für solche Verbraucher- bzw. Nutzerdaten hat sich durch die steigende Nachfrage von
Medienunternehmen, Werbetreibenden, E-Commerce-Anbietern, Politik und Marktforschern im
Segment des Online-Marketings sowie der (digitalisierten) Bonitätsauskünfte stetig weiterentwi-
ckelt293. Personenbezogene Konsumentendaten und digitale Verhaltensprofile dienen nicht mehr
nur der Werbewirtschaft, sondern liefern mittlerweile die Grundlage für ein wachsendes Ökosystem
an Listbrokern, Datenhändlern, Auskunfteien und weiteren Anbietern, die sich auf die Anreicherung
von Big-Data-tauglichen Datenclustern spezialisiert haben (vgl. Abb. 28).
Abb. 28: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personenbezoge-
nen Verbraucherdaten (vereinfachte und beispielhafte Darstellung)
Quelle: Goldmedia Analyse (2016/2017) nach: Eigenangaben der Unternehmen (2016/2017)
Dabei wirken zwei zentrale Treiber für das Marktwachstum: einerseits der Siegeszug des datenba-
sierten Marketings und andererseits die zunehmend durch KI automatisierten Kreditvergabe- und
293 Vgl. Absatzwirtschaft (2015)
89
Bonitätsprüfungsdienste. Beide Branchen versprechen ihren Unternehmenskunden durch die auto-
matisierte Analyse, Auswertung und Ansprache von Kunden Kosteneinsparungen, die vor allem
durch den Erwerb und die Anreicherung von Kundendaten funktionieren.
5.3. 1 DEFINIT ION VON PERSO NENBEZOGEN EN DATEN
Das Bundesdatenschutzgesetz definiert personenbezogene Daten generell als "Einzelangaben über
persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Per-
son"294. Grundsätzlich gelten damit sämtliche Daten als personenbezogene Daten, die es ermögli-
chen, einen Personenbezug direkt oder indirekt herzustellen. Ein direkter Personenbezug erfolgt
über den Namen, ein indirekter Bezug kann bspw. über eine Kreditkarten- oder Telefonnummer
hergestellt werden (personenbeziehbare Daten). Anhand dieser Definition kann eine Vielzahl an
unterschiedlichen Arten von Datenkategorien identifiziert werden:
Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl)
KATEGORIE PERSONENBEZOGENE DATEN
Soziodemografische/
-ökonomische Angaben
Alter, Geschlecht, Bildung, Beruf, Einkommen, Familienstand etc.
Geografische Angaben Standort, Anschrift etc.
Sensible Daten Ethnische Herkunft, politische Meinungen, Religionszugehörigkeit,
Gesundheitsdaten, Sexualleben, biometrische Daten etc.
Persönlichkeitsprofil Extraversion, Gewissenhaftigkeit etc.
Angaben über Konsumverhalten Getätigte Einkäufe etc.
Interessen Produkte, Marken, Musik, Film etc.
Technische Angaben Browser, Endgerät, IP-Adressen, Nutzungs-/Surfverhalten (Web-
Tracking) etc.
Audiovisuelle Daten Videoaufzeichnungen, Fotos, Audio-Mitschnitte etc.
Indirekte bzw.
personenbeziehbare Daten
Personalausweisnummer, Versicherungsnummer, Kreditkartennum-
mer, Kfz-Kennzeichen, Telefonnummer, E-Mail-Adresse etc.
Quelle: Goldmedia Analyse (2018)
Seit der Novellierung des Bundesdatenschutzgesetzes 2009 können zum Zwecke der Werbung oder
des Adresshandels personenbezogene Daten – sofern keine explizite gesetzliche Regelung existiert
– grundsätzlich nur mit Einwilligung der betroffenen Person erhoben werden (Opt-In)295.
Für die Datenerhebung und -speicherung im Rahmen der eigenen Geschäftstätigkeit von Unter-
nehmen sowie der geschäftsmäßigen Datenübermittlung legen die §§ 28 und 29 BDSG die rechtli-
chen Rahmenbedingungen für den Umgang mit personenbezogenen Daten und Ausnahmen vom
294 § 3 Abs. 1 Bundesdatenschutzgesetz (BDSG) 295 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG)
90
Einwilligungsvorbehalt fest. Personenbezogene Daten können daher ohne Einwilligung der be-
troffenen Person erhoben, verarbeitet und genutzt werden, sofern sie beschränkt sind auf Name,
Titel, akademischer Grad, Anschrift, Geburtsjahr und ein Listenmerkmal, das die betroffene Person
als zu einer Gruppe zugehörig definiert (bspw. Online-Käufer, Pkw-Besitzer, etc.)296.
Nicht unter das Listenprivileg fallen damit bspw. E-Mail-Adressen und Telefonnummern. Im Rah-
men der listenmäßigen Erhebung können die personenbezogenen Daten zum Zwecke der Eigen-
werbung (an Bestandskunden oder Interessenten), für berufsbezogene Werbung und Spendenwer-
bung genutzt und für Zwecke der Werbung für eigene Angebote auch mit weiteren Merkmalen und
Daten (sowohl aus internen als auch externen Quellen) angereichert werden. Ausdrücklich gesetz-
lich erlaubt ist der Adresshandel mit Listendaten (auch "Listbroking"), sofern in der Werbung kennt-
lich gemacht wird, welche Stelle die Daten ursprünglich erhoben hat297. Unter diesen Transparenz-
vorschriften können die Listendaten dann an Dritte für Werbezwecke übermittelt werden. Ebenso
können Unternehmen den eigenen Listenbestand nutzen, um im Auftrag Dritter zu werben298.
Für die Erhebung von personenbezogenen Daten im Internet liefert das Telemediengesetz (TMG)
eigene Regularien: Auch hier gilt grundsätzlich, dass personenbezogene Daten nur mit Einwilligung
des Nutzers erhoben und gespeichert werden dürfen299. Eine gesetzliche Erlaubnis zur Erhebung
und Speicherung der Daten besteht – wie im Offline-Bereich auch – im Zusammenhang mit Be-
standsdaten (Vertragsdaten, Kundendaten etc.). Darüber hinaus ist es Online-Anbietern ohne Ein-
willigung des Nutzers gesetzlich erlaubt, Nutzungsdaten (u.a. Identifikation des Nutzers, Umfang
der Nutzung) zu erheben und zu verwenden, sofern diese benötigt werden, um das bereitgestellte
Online-Angebot zu ermöglichen bzw. die Dienstleistung abzurechnen300.
Am 25. Mai 2018 tritt die Europäische Datenschutz-Grundverordnung (EU-DS-GVO, kurz: DS-GVO)
in Kraft. Damit ändert sich die Rechtslage für Unternehmen innerhalb der Europäischen Union er-
heblich. Die Anpassung an nationales Recht ist in Deutschland restriktiv ausgefallen. Dies wird so-
wohl von der Wissenschaft als auch in der Wirtschaft kritisiert, während Verbraucherschutzverbände
die Verordnung begrüßen301. Die Richtlinien der DS-GVO werden vor allem deshalb kritisiert, weil
sie für datenverarbeitende Dienstleister den Nachweis eines aufwändigen Double-Opt-In der Nut-
zer vorschreiben. Konkret müssen Nutzer ab Mai 2018 nicht nur den jeweiligen Datenschutz- und
Datensammelerklärungen auf den Webseiten der Betreiber zustimmen, sondern auch explizit der
Verarbeitung ihrer Daten via E-Mail302.
Die DS-GVO will durch einen einheitlichen Datenschutz innerhalb der EU-Mitgliedsstaaten mehr
Datensicherheit und Datenhoheit für natürliche Personen schaffen. Dabei geht es vor allem um die
automatisierte Verarbeitung, Verwendung und Speicherung personenbezogener Daten. Betroffen
sind dabei alle (Online-)Unternehmen, die personenbezogene Daten von deutschen Bürgern verar-
beiten303.
296 Vgl. Jüngling (2013b) 297 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG) 298 Vgl. BfDI (o. D.) 299 § 12 Telemediengesetz 300 § 15 Abs. 1 Telemediengesetz 301 Vgl. Käfer (2017) 302 Art. 7 Abs. (1) und Abs. (4) ebd.; Ebenfalls zu beachten: Erwägungsgrund 33 ebd. 303 Art. 3 Abs. (2) und Abs. (3) sowie Art. 44 EU-DS-GVO
91
Die neuen Regelungen der DS-GVO verlangen, dass für den Nutzer durch klare Formulierungen
und eine einfache Sprache größtmögliche Transparenz gewährleistet ist305. Hinzu kommt eine ob-
ligatorische Datenschutzbelehrung, die jedes Unternehmen verbindlich präsentieren muss – inklu-
sive Links zu Datenschutzbelehrungen Dritter, die am Prozess der Datenverwertung beteiligt sind306.
Art. 7 Abs. 4 der DS-GVO sieht dabei ein strenges Kopplungsverbot im Zuge der Datenaggregation
vor. So dürfen Datenbestände mit personenbezogenen Daten nicht mehr für mehrere Maßnahmen
genutzt werden, sodass für jede Aktion eine separate Einwilligung eingeholt werden muss. Zudem
wird auch eine Speicherbegrenzung personenbezogener Daten mit unterschiedlichen Fristen vor-
geschrieben, um eine langfristige bzw. permanente Datennutzung zu begrenzen307.
Unternehmen, die mit Einwilligung eines Nutzers personenbezogene Daten erhoben haben, stehen
aufgrund der DS-GVO in einer umfangreichen Nachweis-, Dokumentations- sowie Meldepflicht ge-
genüber dem Nutzer308. Damit wird das Personenrecht gestärkt, da jeder Nutzer ab Mai 2018 ein
"Recht auf Vergessenwerden" hat: So müssen Unternehmen, die personenbezogene Daten vorhal-
ten diese nach einem Widerruf durch den Nutzer vollständig löschen309.
Im Bereich des Medienrechts ist in Art. 85 DS-GVO vorgesehen, dass der Schutz personenbezogener
Daten mit dem Recht auf freie Meinungsäußerung und der Informationsfreiheit (incl. der Verarbei-
tung dieser Daten für journalistische, wissenschaftliche, künstlerische und literarische Zwecke) in
Einklang gebracht werden müssen. Damit sind auch das deutsche Presse-, Rundfunk- und Tele-
medienrecht betroffen. Insbesondere müssen auch der Ausnahmetatbestand des Medienprivilegs
bei der Datenverarbeitung zu journalistischen Zwecken, (bspw. bei der namentlichen Nennung von
Personen in den Medien, vgl. § 57 im RStV bzw. § 41 im BDSG) und die Ausgestaltung der Rundfunk-
Aufsicht mit dem DS-GVO in Einklang gebracht werden zu müssen. Die Bundesländer sind hierbei
in ihren Gesetzgebungsprozessen unterschiedlich weit fortgeschritten und die vorgesehen Rege-
lungen dabei nicht einheitlich.310
Erlaubt bleibt weiterhin die Verwendung von Online-Nutzungsdaten für Werbe- oder Marktfor-
schungszwecke, wenn die Nutzerprofile durch Pseudonymisierung nicht auf die jeweilige Person
zurückzuführen sind und zuvor die Person dieser pseudonymisierten Weiterverarbeitung zuge-
stimmt hatte311. Die Pseudo- bzw. Anonymisierung großer Mengen personenbezogener Daten ist
für Onlinemedien-Anbieter von hoher Relevanz: Für die Personalisierung von Inhalten und Ange-
boten durch KI-basierte Algorithmen sowie für die Vermarktung der Reichweiten ist es entschei-
dend, die Präferenzen, das Surfverhalten oder sonstige Charakteristika des Nutzers zu kennen.
305 Art. 12 Abs. (1) ebd. 306 Art. 24 und Art. 26 Abs. (3) ebd. 307 Art. 5 Abs. (1) lit. e ebd. 308 Zu Nachweispflichten vgl. Art. 5 Abs. (2), Art. 7, Art. 12, Art 24. und Art. 35 ebd.; zu Dokumentationspflichten
vgl. Art. 26, Art. 28, Art. 33 und Art. 46 ebd.; zu Meldepflichten vgl. Art. 33 und Art. 34 Abs. (1) ebd. 309 Art. 17 ebd. 310 Vgl. EMR (2018): unter http://emr-sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsver-
trages-und-der-datenschutz-grundverordnung-der-eu/ 311 Vgl. zu Pseudonymisierung Art. 4 Abs. (5), Art. 6 Abs. (4) lit. e, Art. 25 Abs. (1) und Art. 40 Abs. (2) lit. e ebd.;
Der Diensteanbieter hat jedoch auf das Widerspruchsrecht des Nutzers nach § 13 Abs. (1) TMG hinzuwei-
sen. Vgl. § 15 Abs. 3 Telemediengesetz
92
In der Regel werden daher IP-Adressen in Deutschland vor der Speicherung anonymisiert und nur
zur Geolokalisierung eingesetzt312. Die Anonymisierung ist datenschutzrechtlich notwendig, da die
längerfristige Speicherung von IP-Adressen nur zu Abrechnungszwecken erfolgen darf313.
Für deutsche Unternehmen, die mehr als zehn Mitarbeiter beschäftigen und die direkt mit perso-
nenbezogenen Daten arbeiten, sie sammeln oder auf Basis solcher Datensets Big-Data-Analysen
durchführen, verlangt die Europäische DS-GVO, einen eigenen Datenschutzbeauftragten zu benen-
nen314. Während für kleinere Unternehmen die Vorschriften der DS-GVO mit erheblichem administ-
rativen Aufwand verbunden ist, wird sich für große Plattformanbieter vermutlich wenig ändern: Sie
erheben in der Regel bereits die Einwilligung zur Datenverarbeitung über das Log-In in das jeweilige
Nutzerprofil315.
Für Unternehmen, die Big-Data-gestützte Auswertungen anbieten, werden die Möglichkeiten des
Profilings, also die Erstellung psychometrischer Profile, die Rückschlüsse auf Nutzerverhalten, Inte-
ressen und Präferenzen erlauben, durch die DS-GVO stark eingeschränkt316. So kritisiert bspw. der
Bundesverband der Zeitungsverleger (BDZV), dass eine restriktive Auslegung der DS-GVO moderne
Online-Werbung und Algorithmen-gestützten E-Commerce, die auf personenbezogenen Daten ba-
sieren, erheblich einzuschränken drohe317. Auch der Deutsche Journalisten-Verband beklagt, dass
institutionelle Datenschützer Einblick in die (geschützte) Arbeit von Redaktionen nehmen könnten
und damit die Pressefreiheit gefährdet würde. Auch die Position von Intermediären und Suchma-
schinen, die nicht selbst dem Medienprivileg unterliegen, wird neu hinterfragt: So prüft das Bun-
desverfassungsgericht derzeit, ob das Medienprivileg eines öffentlich-rechtlichen Senders, der den
Name einer Person publiziert hatte, eine Einschränkung der Nennung auf Plattformen verhindert.
Doch trotz vielfältiger Kritik von Medienverbänden hat die öffentliche Diskussion zur Nutzung per-
sonenbezogener Profile im Zuge des "Cambridge Analytica-Skandals" Anfang 2018 bereits zu wei-
tergehenden Konsequenzen geführt: So erklärte Facebook in Folge des Bekanntwerdens der un-
kontrollierten Nutzung von rund 87 Mio. Nutzerprofilen durch Cambridge Analytica318, Werbepart-
nern in Zukunft weniger personenbezogene Datenkategorien anbieten zu wollen, den Zukauf von
Datensets von Drittanbietern zu begrenzen und vor allem Werbekategorien auf Basis der Vorher-
sage von Kundenverhalten einzudämmen319.
Gerade der Einsatz von personalisierten Inhaltsangeboten und automatisierten Werbekampagnen
könnte vor diesem Hintergrund durch die DS-GVO – je nach Auslegung der einzelnen Öffnungs-
klauseln320 – problematisch bis unmöglich gemacht werden: Ohne ausreichend historische Daten
und einer nur unzureichenden Profilbildung durch eine Limitierung von Drittdaten können KNN-
basierte Algorithmen nicht zureichend präzise trainiert werden, um dem Nutzer passende Inhalte
zu präsentieren oder Werbetreibenden verlässliche Vorhersagen liefern zu können.
312 Vgl. BVDW (o. D.) 313 Vgl. § 15 Abs. 4 Telemediengesetz 314 Art. 37 EU-DS-GVO 315 Vgl. Kafsack (2015) 316 Vgl. zum Begriff des Profiling in EU-DS-GVO Art. 4 Abs. 4, Art. 22 und Art. 35 ebd. 317 Vgl. BDZV (2016) 318 Vgl. Handelsblatt (2018) 319 Vgl. Collins/Buchanan (2018) 320 Vgl. Haufe Online Redaktion (2017)
93
5.3. 2 MARKTPOTENT IAL UND ANWENDUNGSBE R EICHE
In Anbetracht der steigenden Investitionen, die in Unternehmen für Adress- und Datenhandel seit
2012 getätigt wurden321, sowie des wachsenden Volumens an investiertem Risikokapital in neue
Big-Data-Unternehmen (vgl. Abb. 29) lässt sich eine hohe Gewinnerwartung gegenüber diesen
Branchen ablesen322. Bereits 2012 meldete der Weltmarktführer für personenbezogene Big-Data-
Datensets "Acxiom" rund 50 Trillionen Datentransaktionen auf seinen Servern323. Insgesamt gene-
rierte 2012 der Markt global einen Umsatz von rd. 150 Mrd. Dollar. 2013 waren es bereits rd. 200
Mrd. Dollar324. Und dieser Trend hält weiter an. Data-Mining und weitläufige Datenanalyse sind
bereits für viele Branchen zum zentralen Bestandteil ihrer Marketingkampagnen und Kundenkom-
munikation geworden. 2015 wurden entsprechend rd. 4.000 Anbieter weltweit registriert. Im Juni
2016 zählte Gartner Inc. bereits 5.000 Anbieter325.
Abb. 29: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz,
2011-2017, in Mio. US-Dollar
Quelle: Vgl. CB Insights (2016)
Der Handel mit Adressen und Big-Data-Datensets ist auch in der deutschen Werbe- und Medien-
landschaft etabliert: Das Ziel der meisten Werbetreibenden ist es, aufgrund von zunehmend KPI-
orientierten Marketingbudgets Streuverluste von Marketingkampagnen zu minimieren. Durch Da-
321 Bspw. Investitionen in das Unternehmen Datalogix in 2014, vgl. Constine (2014), und dessen Akquisition
von Oracle oder in den dt. Anbieter Blackbee in 2014, vgl. Postulka (2016) 322 Da Daten-Broker und Dialogmarketing-Firmen teilweise auch global agieren und Investitionsrunden me-
thodisch unterschiedlich durchgeführt werden, ist es nur begrenzt möglich, die konkreten Investitionen mit
einer Gesamtsumme zu beziffern. 323 Vgl. Singer (2012) 324 Vgl. Levine (2013) 325 Vgl. Moore (2016)
94
ten-Broker und Vermarkter von Kundenprofilen können sie konkrete Zielgruppen präzise eingren-
zen und adressieren. Auf dem deutschen Markt sind rd. 1.000 Anbieter im Bereich des Adress- und
Datenhandels aktiv326.
Eine Reihe von Unternehmen (wie bspw. Acxiom Deutschland, AZ Direct oder Schober Direct Media)
aggregiert Daten über Cashback-Karten, Online-Gewinnspielteilnahmen, Online-Anmeldungen auf
E-Commerce-Plattformen, digitale Webseiten-Tracker oder soziale Netzwerke wie Facebook, Y-
ouTube oder Instagram. Diese Daten werden dann von den Unternehmen als Intermediäre an Big-
Data-Dienstleister zur weiteren Nutzung vermarktet. Der deutsche Markt für Adress- und perso-
nenbezogene Verbraucherdaten wird von einigen wenigen Anbietern wie der Schufa, AZ Direct (Ar-
vato Bertelsmann) sowie der Deutschen Post dominiert (vgl. Tab. 6). Dialogmarketing-Spezialisten
wie AZ Direct sorgen auch dafür, dass sich technische Innovationen wie z.B. die programmatische
Aussteuerung von Online-Werbung (Programmatic Advertising, vgl. Kap.5.1.1) oder die automati-
sierte Werbebuchung (Real-Time-Bidding, vgl. Kap. 6.4) im Markt des Daten- und Adresshandels
weiter etablieren und in den kommenden Jahren branchenweit durchsetzen werden.
Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016
DATENVERMIETUNG ADRESSPFLEGE DATEN-
QUALIFIZIERUNG
VERKNÜPFUNG
OFFLINE-/ONLINE-
DATEN
RISIKO-
INFORMATIONEN
Deutsche Post
Direkt
Deutsche Post
Direkt
Deutsche Post
Direkt
AZ Direkt Schufa Holding
AZ Direct Deutsche Post
Adress
AZ Direkt Acxiom
Deutschland
infoscore
Consumer Data
Acxiom AZ Direkt Acxiom Creditreform
Boniversum
Schober Direct
Media
Acxiom Schober Direct
Media
Bürgel
Wirtschafts-
informationen
SAZ Services SAZ Services SAZ Services
Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)
Neben dem Verkauf von Daten und Datenvermietung zählt die Datenqualifizierung zu den wich-
tigsten Service-Leistungen der Big-Data-Händler. Auch hier besteht die stärkste Nachfrage auf Sei-
ten der werbetreibenden Unternehmen, die in erster Linie ihre Online-Marketing-Maßnahmen effi-
zienter und präziser gestalten wollen. Bei der Datenqualifizierung werden die bestehenden Kun-
dendaten von Unternehmen durch die aggregierten Datenbestände der Adress- und Datenhändler
weiter veredelt. Dabei werden die vorhandenen Kundendaten mit weiteren kontextuellen (Verhal-
tens-) Informationen ergänzt. Auf Grundlage der angereicherten Daten führen die Adress- und Big-
Data-Händler darüber hinaus Kundensegmentierungen oder Kundenwertanalysen durch327. Wäh-
rend im Bereich des Vertriebs in Medienunternehmen die Adressvermietung hauptsächlich für die
326 Vgl. Neuhaus (2012) 327 Vgl. AZ Direct (o. D.)
95
Neukundenakquise zum Einsatz kommt, zielt die Datenqualifizierung zunächst auf die Verbesse-
rung der Vertriebsprozesse für bestehende Kunden.
Durch die Big-Data-gestützte Kundensegmentierung und -analyse können individuelle und ziel-
gruppenspezifische Marketing-Maßnahmen durchgeführt werden, die letztlich die Response-Raten
erhöhen und eine wirtschaftlichere Kampagne ermöglichen sollen.328 Die Segmentierung und Ana-
lyse von Kundendaten können jedoch auch wertvolle Informationen über das weitere Kundenpo-
tential erbringen. So können auf Basis der bestehenden Kunden ähnliche Kundengruppen identifi-
ziert und angesprochen werden329. Als Beispiel kann die Personalisierungsplattform "Dynamic
Yield" angeführt werden, die es Unternehmen ermöglicht, neue Kundenprofile aus Big-Data-Daten-
sets zu filtern und Kampagnen nutzergerecht über alle Kanäle zu personalisieren. Durch eine mit
Hilfe von maschinellem Lernen optimierte Kundensegmentierung können in Echtzeit Produktemp-
fehlungen gegeben und verhaltensgerechte Nachrichten versendet werden, um dadurch Umsätze
und Konversionen zu steigern.
Um eine andere Form der Datengewinnung für datengetriebene Online-Kampagnen handelt es sich
bei der Verknüpfung von Online- und Offline-Datensets. Die Budgetverschiebungen der werbetrei-
benden Unternehmen hin zur Online-Werbung haben im Offline-Dialogmarketing (z.B. bei Wer-
bung in Postwurfsendungen, Beilagen, Prospekte etc.) zu einer sinkenden Nachfrage geführt330. Die
traditionellen Adress- und Datenhändler reagieren, indem sie ihre Kompetenzen aus dem klassi-
schen Dialogmarketing auch in den Onlinemedien-Markt übertragen und bspw. ihre mikrogeogra-
fischen Datenbanken über Kooperationspartner auch für die Online-Werbung bereitstellen. Das
zentrale Produktangebot ist hierbei die Verknüpfung der Offline- und Online-Daten, das sog.
Customer-Relationship-Management Data-Onboarding (kurz CRM Data-Onboarding).
Beim CRM-Data-Onboarding werden die Kundendaten der Unternehmen durch die Adress- und
Datenhändler über ein maschinelles Matching-Verfahren auch online nutzbar gemacht. Hierzu ko-
operieren diese mit all jenen Portalen und Netzwerken, die wiederum personenbezogene Daten
aggregieren, z.B. soziale Netzwerke, Online-Shops, Publisher, Online-Marktplätze, Mail-Anbieter o-
der Data-Management-Plattformen.
Die Adress- und Datenhändler führen zunächst einen Abgleich der (Offline-)Kundendaten eines
Unternehmens mit den Nutzerdaten der Online-Kooperationspartner durch und identifizieren die
Schnittmenge beider Datenbestände. Vor dem Matching-Prozess können die CRM Data-Onboar-
ding-Daten wiederum durch die mikrogeografischen Datenbanken der Adress- und Datenhändler
mit zusätzlichen Informationen angereichert oder spezielle Kundengruppen gebildet werden (vgl.
Abb. 30). So ist es möglich, dass ein Unternehmen eigene Kunden mittels personenbezogener On-
line-Nutzungsdaten gezielt über verschiedene Onlinekanäle ansprechen kann. Durch Kundenstruk-
turanalysen lassen sich weiterhin sog. statistische Zwillinge oder Lookalikes bilden, also Zielgrup-
pen, die den eigenen Kundengruppen in Hinblick auf Konsumeigenschaften, Produktaffinitäten o-
der anderen Merkmalen gleichen. Somit können durch das CRM Data-Onboarding neben den ei-
genen Kunden auch gezielt Neukunden mit Online-Kampagnen angesprochen werden.
328 Vgl. Acxiom (o. D.) 329 Vgl. Schober Direct Media (o. D.) 330 Vgl. Deutsche Post Dialog Marketing Monitor 2010-2016
96
Abb. 30: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene
Quelle: Vgl. microm Micromarketing-Systeme und Consult GmbH (2015)
In Unternehmen kann dieser mehrstufige Prozess mittlerweile durch KI-gestützte Bot-Plattformen
fast komplett automatisiert werden. Bspw. existiert mit Maia eine Bot-Plattform, die als virtueller
Assistent in Unternehmensabläufe integriert werden kann. Der Chatbot hat die Aufgabe, mit Hilfe
einer Mustererkennung Vertriebsmitarbeiter dabei zu unterstützen, große Datenmengen für das
CRM Data-Onboarding aus den jeweiligen Unternehmens-CRM-Systemen zu analysieren. Unter
Verwendung von natürlicher Sprachverarbeitung werden die gewonnenen Erkenntnisse in hand-
lungsorientierte Empfehlungen umgewandelt und dem Kunden vorgeschlagen.
Im Geschäft mit digitalen Medienabonnements und im E-Commerce zählen Risikoinformationen
wie Bonitätsauskünfte oder Score-Werte zu wichtigen Instrumentarien, um Zahlungsarten wie das
Bezahlen auf Rechnung anbieten zu können. Auskunfteien aggregieren Daten über das Zahlungs-
verhalten und die Kreditfähigkeit von Konsumenten und stellen diese Daten in Form von Bonitäts-
auskünften nachfragenden Unternehmen zur Verfügung. Ein berechtigtes Interesse besteht bspw.
bei einer Vertragsbeziehung mit dem Risiko eines Zahlungsausfalls. Entsprechend werden Bonitäts-
auskünfte vor allem von Banken und Kreditinstituten im Rahmen einer Kreditvergabe angefragt.
Neben den klassischen Produkten wie Bonitätsauskunft und Scoring, die zu den umsatzstärksten
Dienstleistungen zählen, bieten sog. Auskunfteien verstärkt auch weitere Big-Data-basierte Risiko-
management-Tools an. So werden zur Betrugsprävention im E-Commerce bspw. Geräte-, Identitäts-
oder Kontonummern-Checks angeboten331. Von den zehn umsatzstärksten Anbietern personenbe-
zogener Verbraucherdaten in Deutschland sind die Schufa Holding, infoscore Consumer Data, Cre-
ditreform Boniversum und Bürgel Wirtschaftsinformationen (vgl. Tab. 7) in diesem Geschäftsbereich
tätig.
331 Vgl. SCHUFA Holding AG (o. D.) und Creditreform Boniversum (o. D.)
97
Tab. 7: Relevante Datenbestände im Geschäftsbereich Risikoinformationen der untersuchten Adress-
und Datenhändler in Deutschland
ANBIETER VOLUMEN PERSONENDATEN VOLUMEN EINZELDATEN
BZW. DATENSÄTZE
Schufa Holding 66,4 Mio. Personen 797 Mio. Einzeldaten
infoscore Consumer Data >7,8 Mio. Personen 40 Mio. Einzeldaten
Creditreform Boniversum 61 Mio. Personen 79 Mio. Datensätze
Bürgel Wirtschaftsinformationen 39 Mio. Personen Keine Angaben
Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)
Die Übermittlung der Daten erfolgt bei geringen Anfragemengen i.d.R. über einen Kunden-Login
in ein Online-Portal, sodass die Daten über den Browser eingesehen und lokal gespeichert werden
können. Daneben bieten die Auskunfteien vor allem für Online-Anbieter und hohe Abfragemengen
die Bonitätsprüfung über eine Schnittstelle (bspw. XML-Anbindung) und integrierte Systemlösun-
gen in Echtzeit an. Denn der Erfolg des E-Commerce und der steigenden Online-Kreditnachfrage
lässt eine deutliche Tendenz zum automatisierten Abruf von Bonitäts- und Scoring-Informationen
in Echtzeit feststellen.
Die Bonitätsbewertung durch Big Data ist ein fester Bestandteil der Analyseprozesse von Auskunf-
teien geworden. Hierbei können die nachfragenden Online-Plattformen, Medienunternehmen oder
Kreditinstitute mittels einer Datenbank-Schnittstelle zu den Auskunfteien die Kunden-Bonitätsprü-
fung in die eigenen Systeme integrieren. Das deutsche Start-up "Kreditech" aggregiert bspw. bis zu
20.000 Datenpunkte über seine Nutzer, die von soziodemografischen Informationen über das Surf-
verhalten in sozialen Netzwerken bis zu installierten Schriftarten auf dem PC des Nutzers und der
Dauer der Ausfüllung eines Kreditantrages auf Webseiten von Kreditechs Tochterunternehmen
"Kredito24", "Zaimo" und "Flexinero" reichen332.
Durch die Anwendung von Deep-Learning-Methoden zur Profilbildung filtert das Unternehmen aus
der Masse aller Datenpunkte Aussagen und Merkmale, auf deren Grundlage Kreditech automatisiert
und in Echtzeit eine Bonitätsauskunft erstellt. Auf Basis des ermittelten Scorings erfolgt auf den
Tochterseiten des Unternehmens im Anschluss (bei positivem Ergebnis) ebenfalls die Kreditvergabe
in Echtzeit an den Endkunden333. Auf dem deutschen Markt ist das Unternehmen aufgrund daten-
schutzrechtlicher Bedenken derzeit jedoch (noch) nicht aktiv334.
5.3. 3 ZUSAMMENFASSUNG UND AUSBLICK
Insgesamt wird der Markt für Datengewinnung und Handel mit Daten in Deutschland dominiert
von einigen wenigen Marktteilnehmern. Den größten Umsatz im Handel mit personenbezogenen
Daten erzielten 2014 auf dem deutschen Markt die Unternehmen AZ Direct, Deutsche Post Adress,
332 Vgl. Seibel (2015) 333 Vgl. ebd. 334 BvD-News (2015), S. 22ff.
98
Deutsche Post Direkt, Acxiom Deutschland, Schober Direct Media und SAZ Services sowie die Aus-
kunfteien Schufa, Infoscore Consumer Data, Creditreform Boniversum und Bürgel. Die zehn größten
Unternehmen erzielten 2014 einen Gesamtumsatz von rund 450 Mio. Euro.
Die Anbieter agieren mit ihren Geschäftsmodellen auf unterschiedlichen Teilmärkten: Im Online-
Marketing vereinnahmen sie insgesamt einen Marktanteil von rund 65 Prozent, im Bereich der Ri-
sikoinformationen erreichen sie einen Anteil von 95 Prozent. Der Markt für personenbezogene Ver-
braucherdaten wird in beiden Teilmärkten in Deutschland durch nur wenige Anbieter beherrscht.
Die drei größten Anbieter Schufa, AZ Direct und Deutsche Post Adress decken mit den eigenen
Datenbeständen den deutschen Markt für den Handel mit personenbezogenen Verbraucherdaten
umfassend ab. So ist die Schufa im Besitz von 797 Mio. Einzeldaten zu 66,4 Mio. Personen, AZ Direct
verfügt über 600 Merkmale zu 70 Mio. Konsumenten, die Deutsche Post Adress hat Informationen
über 11,5 Mio. Umzüge, 7 Mio. Verstorbene und 9,5 Mio. unzustellbare Adressen335.
Vor dem Hintergrund des Voranschreitens der Digitalisierung und der zunehmenden Verlagerung
zahlreicher Geschäftsbereiche in das Internet kann erwartet werden, dass besonders die Umsatzvo-
lumina des Handels mit Big-Data-Datensets und der Risikoinformationen stark ansteigen werden.
Erste Indizien dafür liefern die stark wachsenden Branchen von Dienstleistungen wie Bonitätsbe-
wertungen und die in den vorangehenden Kapiteln beschriebenen automatisierten Online-Marke-
ting-Plattformen, die Programmatic Advertising sowie Predictive Analytics anbieten. Zentral für
beide Sektoren ist, dass Big Data nicht nur der hauptsächliche technologische Treiber ist, sondern
auch die zentrale Form der Datengewinnung für Akquise und Vertrieb beschreibt.
Generell erwarten Analysten, dass in den kommenden Jahren sowohl Datenhändler mit Fokus auf
Big-Data-basiertem Online-Marketing, als auch Anbieter digitaler Bonitätsauskünfte weiterhin kon-
stant wachsen werden. In den vergangenen Jahren ist das Marktvolumen im Bereich des klassischen
Offline-Datenhandels deutlich gesunken. Dies führte zu einem Verdrängungswettbewerb und ins-
gesamt zu einer Marktkonsolidierung und Erhöhung der Marktkonzentration. Ursächlich dafür war
einerseits die Novellierung des BDSG (2009), die zu einem geringeren Adressbestand im Markt
führte und einen Preiswettbewerb auslöste, zum anderen erfolgte bei den Werbetreibenden eine
zunehmende Verschiebung der Werbebudgets vom klassischen Postmarketing hin zu transaktio-
nellem Online-Marketing und weiter zum Big-Data-basiertem Online-Marketing.
Der Markt für Risikoinformationen verzeichnete hingegen ein stabiles Wachstum. Allein der Bran-
chenführer Schufa konnte seinen Umsatz von 2010 bis 2015 um rund 38 Mio. Euro steigern. Zu
dieser positiven Marktentwicklung trägt vor allem die steigende Nachfrage aus der Onlinemedien-
branche und dem E-Commerce bei. Von diesem Trend profitieren die Auskunfteien, die den Online-
Händlern im Zuge der Bestellungen (Rechnungskauf) entsprechende Risikoinformationen zur Boni-
tät der Konsumenten bereitstellen.
335 Eigenangaben der Unternehmen 2016/2017
99
6 AUSWIRKUNGEN VON BIG DATA AUF
ONLINEMEDIEN: BEISPIELE UND CASE STUDIES
Im Rahmen der Analysen des B2C- und B2B-Marktes in den vorhergehenden Kapiteln wurden be-
reits vielfach Big-Data-Anwendungen erläutert, um das Potential neuer Technologien praxisnah zu
veranschaulichen. In diesem Kapitel soll das Bild der diversen Anwendungsmöglichkeiten vervoll-
ständigt werden. Nachfolgend werden weitere Einsatzmöglichkeiten Künstlicher Intelligenz be-
schrieben, welche den Markt der Onlinemedien nachhaltig beeinflussen können.
6.1 CASE STUDY: K I IM JO URNALISMUS
Der Einsatz von Künstlicher Intelligenz im Journalismus hat das Potential Probleme zu lösen, die
von Menschen nur schwer zu bewältigen sind. Das Unternehmen Liquid Newsroom hat z. B. mit
dem "LNR Concept Mapper" (vgl. Abb. 31) ein Tool entwickelt mit dem es möglich ist, Nachrichten
und ganze Konversationsverläufe nicht nur auf bestimmte Stichworte hin zu untersuchen, sondern
gleich ganze Themenkomplexe und zusammenhängende Meinungscluster zu identifizieren. Damit
kann der Verlauf bestimmter politischer Themendiskussionen in der öffentlichen Meinungsbildung
besser nachvollzogen werden. Indem bestimmte Stichwörter aus Nachrichtenmeldungen und
Tweets in eine semantische Kontextanalyse einbezogen werden, kann ein bestimmter Themenkom-
plex visualisiert werden. Über kontextuelle Marker und Schnittmengen von Wörtern in anderen Dis-
kussionen können mehrere unterschiedliche Diskussionsströme zum selben Gegenstand parallel
verfolgt werden.
Abb. 31: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse
Quelle: Vgl. LiquidNewsroom.ai (2017)
Die Ergebnisse können verwendet werden, um zu verstehen, ob es eine Lücke zwischen den in öf-
fentlich sichtbaren Konversationen diskutierten Themen und der aktuellen Medienberichterstattung
gibt, wie etwa vor und nach Wahlen. Damit wird es möglich, alle (öffentlich verfügbaren) Positionen
eines politischen Diskurses zu kartieren und eventuelle Verzerrungen der digitalen Meinungsbil-
dung festzustellen.
100
6.2 CASE STUDY: K I -FACTCHECKING
Zu einem weiteren Anwendungsgebiet von Big Data im Rahmen der digitalen Meinungsbildung ist
das "Factchecking" geworden. Denn parallel zu der Entwicklung von sozialen Netzwerken zu den
relevantesten Massenmedien ist auch der Grad an inner- sowie außenpolitischer Desinformation in
den Onlinemedien stark angestiegen. Gerade außenpolitische Akteure haben ein hohes Interesse
daran, staatliche Propaganda an für sie empfängliche Zielgruppen im Ausland zu verbreiten, um
etwa Unmut über das politische Establishment zu schüren oder sogar gezielt Einfluss auf die öffent-
liche Meinungsbildung auszuüben. In diesem Zusammenhang können die russischen Wahlkampf-
manipulationen in den USA zu den Themen Gesundheitsversorgung oder Immigration angeführt
werden, die über Facebook und Instagram rund 146 Mio. Menschen erreicht haben336. Aus diesem
Grund existieren heute bereits zahlreiche Factcheck-Websites wie fullfact.com, factcheck.org oder
politifact.com, deren Funktion es ist, Falschaussagen bestimmter Medien oder Publikationen zu
überprüfen und gegebenenfalls deren Authentizität zu hinterfragen. Bisher ist diese Aufgabe vor
allem manuell (und oft auf freiwilliger Basis) von Journalisten bewältigt worden.
Mit dem KI-gestützten Webtool "Décodex" (vgl. Abb. 39) hat jedoch die französische Tageszeitung
"Le Monde" ein medienumspannendes Instrument entwickelt, das mit Hilfe einer Browsererweite-
rung und eines mobilen Facebook-Messenger-Bots automatisch die Authentizität von Websites
überprüft und diese in einer Farbskala darstellt. Darüber hinaus ist es Nutzern auch möglich, kon-
krete Medien und Websites online verifizieren zu lassen. Diese Abfrage ist datenbankgestützt und
bedient sich des Le Monde-eigenen Verzeichnisses von Medien, Artikeln und Webseiten, die ent-
sprechend von Le Monde-Journalisten als vertrauenswürdig oder unauthentisch klassifiziert wur-
den.
Abb. 32: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde
Quelle: Vgl. Les Décodeurs (2018)
Einen anderen Ansatz hat das britische Unternehmen Factmata gewählt, das ebenfalls Nachrichten
und Postings auf ihre Authentizität überprüft. Durch den Einsatz von maschinellem Lernen trainiert
das Unternehmen seine Algorithmen, Nachrichten auf ihren Wahrheitsgehalt und auf Fakten hin zu
336 Vgl. Keegan (2016)
101
überprüfen. Zugleich bietet das Unternehmen Werbungtreibenden einen Bewertungsindex an, da-
mit diese es vermeiden, auf Fake-News-Websites ihre Werbung zu platzieren. Das Unternehmen
bedient sich dabei internationaler statistischer Datenbanken wie Freebase, Eurostat oder der World
Bank Database. Durch diesen Zugriff ist es der Factmata KI möglich, Aussagen wie “The UK is not a
prime suspect; greenhouse gas emissions have fallen by 6.2% this year alone”, “The United States
cares about its energy sector— this administration has invested $4.5bn this year alone”, oder “Our
aid work in Somalia is paying dividends - only 0.2% of the population is severely malnourished”337
auf die Korrektheit der jeweiligen Angaben hin zu überprüfen.
6.3 CASE STUDY: CONTENT BLOCKCHAIN
Mit Hilfe neuer Technologien und Automatisierungslösungen wird bereits jetzt eine zunehmende
Anzahl digitaler Inhalte produziert. Durch die Weiterentwicklung der vollautomatisierten Erstellung
von Inhalten kann weiterhin ein starker Anstieg der Produktionsleistung erwartet werden. Dadurch
stellen sich auch neue Anforderungen hinsichtlich zunehmender Verwaltungsaufgaben. Deren Pro-
zesse sollen zukünftig mit Hilfe neuer Verfahren ebenfalls zum Teil automatisiert erfolgen. Derartige
digitale Lösungen finden sich aktuell bspw. im Rahmen des Content Blockchain Projects. Dafür wird
an drei aufeinanderfolgenden Prozessen gearbeitet, die das einfache Identifizieren von Inhalten
(Bilder, Videos) und deren unkomplizierten Handel ermöglichen sollen.
Der entscheidende erste Schritt ist dabei das eindeutige Kennzeichnen der Dateien, wofür ein stan-
dardisierter Code entwickelt wird – der International Standard Content Code (ISCC). Anders als be-
reits bestehende Identifier wie bspw. ISBN (International Standard Book Number), ISSN (Internati-
onal Standard Serial Number) oder ISCR (International Standard Recording Code) ist der ISCC von
Einzelpersonen kostenlos algorithmisch erstellbar. Die Identifikationsnummer wird dabei generisch
auf Grundlage des Inhalts selbst sowie anderer Metadaten kreiert.
Weiterhin sollen Lizenzierungsvorgänge vereinfacht werden, sodass auch Nutzer ohne Fachwissen
ihre Inhalte unkompliziert und schnell lizenzieren können338. Mit Smart Licenses bzw. Smart
Contracts werden komplexe Gesetze und Vorgaben in praktisch anwendbare Lizenzierungsprofile
umgewandelt, was den Verkauf an Handelspartner und Endnutzer enorm erleichtert. Verschiedene
Module beschreiben dabei unterschiedliche Anwendungsfälle – etwa Vervielfältigung oder Veröf-
fentlichung – und können individuell zusammengesetzt werden. Zusammen mit anderen Modalitä-
ten wie bspw. Preis oder Laufzeit entstehen sog. Smart Licenses339.
Schließlich werden der Code sowie die Lizenzbedingungen auf einer Blockchain eingetragen und
der Öffentlichkeit zur Verfügung gestellt. Maschinenlesbare Blockchains sichern weltweit die tat-
sächliche Existenz von Inhalten oder Transaktionen ab und bieten dabei den Vorteil, nahezu fäl-
schungssicher zu sein340. Ermöglicht wird dies über die virtuelle Infrastruktur des Blockchain-Sys-
tems. Sämtliche Blockchain-Aktionen werden statt an einem zentralen Knotenpunkt dezentral auf
allen Rechnern gespeichert, die mit dem Blockchain-Netz verbunden sind341.
337 Vgl. Beispiele aus Ghulati, D. (2016) 338 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 339 Vgl. Content Blockchain (2018b) 340 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 341 Vgl. Contentpepper (2017)
102
Durch diese Verfahrensweise wird der Handel mit digitalen Inhalten stark gefördert, da zeitintensive
Verhandlungen mit verschiedenen Interessenparteien entfallen. Zudem stehen Informationen über
Metadaten und Lizenzierungen zuverlässig tagesaktuell und weltweit zur Verfügung. Eine derartige
dezentrale Infrastruktur für digitale Daten wird von verschiedenen Plattformen als Open-Source-
Software zur Verfügung gestellt, bspw. auch von "Po.et"342 und "Decent". Ein funktionsfähiger Pro-
totyp des Content Blockchain Projects ist für März 2018 geplant343, aktuell steht bereits eine erste
Testversion zur Verfügung, mit welcher verschiedene Funktionalitäten geprüft werden (vgl. Abb.
33). Die Decent-Entwickler kündigten für das Jahr 2018 ebenfalls das Erreichen weiterer wichtiger
Meilensteine an, die die Funktionsweisen der Plattform vervollständigen sollen344.
Abb. 33: Menüansicht der Content Blockchain Testversion
Quelle: Vgl. Content Blockchain (2018c)
Neben der Nutzung derartiger Plattformen als Urheber-Register und Handelsplatz ist ein besonde-
rer Vorteil auch die Möglichkeit dynamischer Bezahlmodelle. Aktuell stehen viele Medienhäuser vor
dem Problem der Refinanzierung digitaler Angebote, da Finanzierungsstrategien wie Abonnements
oder die Paywall bisher nur bedingt von Kunden akzeptiert werden. Die Monetarisierung über
Micropayments, mit denen einzelne Artikel oder Videos erworben werden können, ist aufgrund
hoher Transaktionskosten bisher kaum rentabel. Mit Hilfe digitaler Zahlungssysteme wie Bitcoin,
Ethereum oder Litecoin werden aufgrund der dezentralen Blockchain-Struktur Kleinstzahlungen in
hoher Anzahl bei geringem Kostenaufwand möglich345.
342 Vgl. Po.et (2018) 343 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 344 Vgl. Decent (2018) 345 Vgl. Contentpepper (2017)
103
6.4 CASE STUDY: VON PR OGRAMMATI C ZU PREDICT IVE
ADVER TIS ING
Der Trend der Budgetverschiebung in Medienhäusern vom Offline-Marketing hin zum Big-Data-
gestütztem Online-Targeting wird technisch getrieben durch die neuen "Programmatic Adverti-
sing"-Plattformen. Beim Programmatic Advertising werden automatisiert sehr zielgruppenspezifi-
sche (und damit hochwertige) Nutzersegmente auf Basis der First-Party-Daten von Publishern mit
Hilfe von Big-Data-Analysen erstellt. Über Auktionsplattformen auf der Nachfrageseite (auch "De-
mand Side"-Plattformen) werden diese Segmentprofile angefragt und über Anbieterseiten-Platt-
formen (auch "Supply Side"-Plattformen) vermarktet – entweder über Festpreise oder über Auktio-
nen in Echtzeit, die in der Werbebranche als "Real-Time-Bidding"-Plattformen bezeichnet werden
(vgl. dazu Abb. 34).
Solche Werbeplatzierungen für sehr spezifische Zielgruppen konnten in der Vergangenheit nur
über direkte (aufwändige) Verhandlungen mit Premium-Publishern und spezialisierten Werbenetz-
werken realisiert werden. Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die
First-Party-Daten des Publishers in unterschiedlichem Umfang mit Third-Party-Daten zum Browser-
verlauf des Nutzers kombiniert, die Werbenetzwerke über Tracking-Cookies generieren.
Abb. 34: Übersicht über die Struktur des Programmatic-Buying-Ökosystems
Quelle: Vgl. IAB Spain (2014)
Darüber hinaus ermöglichen über soziale Netzwerke (wie etwa Facebook) erhobene, kontextuelle
Nutzerdaten zunehmend psychometrische Analysen, die weitere neue Formen des Targetings er-
lauben. Ein aktueller Trend ist hier das sog. Predictive Behavioral Targeting: Mit dieser Technik wird
es Werbetreibenden mit Hilfe von KNN und Deep-Learning-Methoden ermöglicht, aus selektiven
Nutzerbefragungen, Nutzerdaten und externen Datenquellen statistische Prognosen zu Verhaltens-
mustern der Nutzer zu erstellen (vgl. dazu Abb. 35). Im Zuge der Personalisierung der ausgespielten
104
Werbung wird es möglich, durch Predictive Advertising und selbstlernende Algorithmen Nutzerver-
halten auch ohne durch Drittanbieter angereicherte Datenprofile oder Nutzerbefragungen vorher-
zusagen. Durch die allgemeine Verunsicherung der Nutzer zu Privatsphäreneinstellungen und den
wachsenden Trend zum Opt-Out aus den Datenaggregationsprozessen von Marketing- und Ana-
lytics-Firmen wie Acxiom, Oracle oder RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen
immer schwieriger. Die Auswertung von Tracking-Cookies erlaubt dagegen die Vorhersage von
Nutzerverhalten allein anhand ihrer Suchverläufe – ohne die Integration von weiteren kontextuellen
Persönlichkeitsdaten wie Alter, Geschlecht oder der geografischen Position. Aus der Bildung von
Profilen, bestehend allein aus Suchwörtern und Big-Data-gestützten Auswertungsalgorithmen,
können Online-Plattformen wie z.B. Microsoft so die Wahrscheinlichkeiten für anstehende Kaufent-
scheidungen approximieren. Anstatt große Datensets zum Offline- und Online-Verhalten spezifi-
scher Nutzergruppen und -segmente zu erwerben, können Werbungtreibende stattdessen ihre
Kampagnen mit Hilfe der zukünftig nachgefragten Suchwörter optimieren und dabei vergleichbare
Resultate erzielen, indem sie abhängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost-
per-Lead Preise anpassen.
Verbrauchern werden dabei Eigenschaften zugeordnet, die als Grundlage für eine auf Verbraucher-
interessen orientierte Aussteuerung von Werbung dienen. Der wesentliche Vorteil dieses Verfah-
rens besteht darin, dass auch solche Produktinteressen eines Internetnutzers identifiziert werden
können, die sich nicht unmittelbar aus den vorliegenden Verhaltensdaten ableiten lassen. Daraus
ergibt sich im Vergleich zum Behavioral Targeting eine größere Anzahl an Zielpersonen und somit
eine höhere Kampagnenwirksamkeit.
Abb. 35: Datenquellen im Werbenetzwerk von Facebook, Stand 2016
Quelle: Goldmedia Analyse (2017) nach: Angwin (2016)
Im Zuge der Personalisierung der ausgespielten Werbung wird es möglich, durch Predictive Adver-
tising und selbstlernende Algorithmen Nutzerverhalten auch ohne durch Drittanbieter angerei-
cherte Datenprofile oder Nutzerbefragungen vorherzusagen. Durch die allgemeine Verunsicherung
der Nutzer zu Privatsphäreneinstellungen und den wachsenden Trend zum Opt-Out (vgl. Kap. 5.3.1)
aus den Datenaggregationsprozessen von Marketing- und Analytics-Firmen wie Acxiom, Oracle o-
der RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen immer schwieriger. Die Auswertung
von Tracking-Cookies erlaubt dagegen die Vorhersage von Nutzerverhalten allein anhand ihrer
105
Suchverläufe – ohne die Integration von weiteren kontextuellen Persönlichkeitsdaten wie Alter, Ge-
schlecht oder der geografischen Position. Aus der Bildung von Profilen, bestehend allein aus Such-
wörtern und Big-Data-gestützten Auswertungsalgorithmen, können Online-Plattformen wie z.B.
Microsoft so die Wahrscheinlichkeiten für anstehende Kaufentscheidungen approximieren346.
Anstatt große Datensets zum Offline- und Online-Verhalten spezifischer Nutzergruppen und -seg-
mente zu erwerben, können Werbetreibende stattdessen ihre Kampagnen mit Hilfe der zukünftig
nachgefragten Suchwörter optimieren und dabei vergleichbare Resultate erzielen, indem sie ab-
hängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost-per-Lead Preise anpassen.
346 Bilenko & Richardson (2011), S. 418ff.
106
6.5 FÖRDER IN IT IATIVE N :
GOOGLE DIGITAL NEWS IN IT IAT IVE
Neben zahlreichen anderen Non-Profit Förderinitiativen wie z.B. "OpenAI"347 oder politischen För-
derinitiativen348, rufen vermehrt auch Technikkonzerne KI-Förderfonds ins Leben. Die "Digital News
Initiative" (kurz DNI) von Google hat bis 2018 rund 450 Projekte in 29 Ländern Europas gefördert,
die zu einem erheblichen Ausmaß auf Big-Data-Ansätze abstellen349. So entstehen personalisierte
Newsfeeds in sozialen Medien oder personalisierte Ergebnisansichten in Suchmaschinen sowie al-
gorithmisch optimierte Nachrichtenangebote bis hin zu vollständig automatisch generierten Pres-
seberichten350, deren Hintergründe und Entstehungsformen oftmals wenig bekannt sind. Der För-
derprozess wurde bisher im Rahmen von vier Förderrunden zwischen den Jahren 2016 und 2017
durchgeführt. Das Ziel der Initiative ist es nach eigener Aussage, Forschungs- und Entwicklungs-
prozesse in den europäischen Nachrichtenredaktionen voranzutreiben und Innovationsimpulse in
neue journalistische Instrumente umzusetzen.
Abb. 36: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent
Quelle: Google DNI Innovation Fund (2017), S. 18
Bereits im Jahr 2016 wurden 252 Projekte mit einem Fördervolumen in Höhe von 51 Mio. Euro
finanziert. In den ersten zwei Förderrunden belegten dabei die Big-Data-relevanten Innovations-
projekte in den Bereichen "Analytics/Research" (16 Projekte), "Data Journalism" (15 Projekte) und
"AI/Bots/Machine Learning" (14 Projekte) die Top 5 der am stärksten geförderten Projektkategorien
347 Vgl. OpenAI (2018) 348 Vgl. Lucas (2018) 349 Vgl. Google DNI Projects (2018) 350 Vgl. Retresco (2018) und AX Semantix (2017)
107
(vgl. dazu Abb. 36). In Deutschland wurden insgesamt 59 Projekte mit einer Summe in Höhe von
rund 15 Mio. Euro unterstützt. Nachfolgend wird je Größenkategorie ein aus Deutschland stam-
mendes Projekt vorgestellt:
6.5. 1 FAZ9
Im Zuge der DNI-Förderung entwickelte z.B. die Frankfurter Allgemeine Zeitung in der Kategorie
"Large Project" mit "FAZ9" einen Big-Data-basierten Personalisierungsalgorithmus für seine Leser,
der in der mobilen FAZ-App zum Einsatz kommt. Durch das Entwickeln und Testen von drei unter-
schiedlichen Varianten des Algorithmus konnten die FAZ-Entwickler mit der erfolgreichsten Version
das Nutzer-Engagement und die Lesezeit um 36 Prozent verlängern. Dabei zeichnet die App das
Nutzerverhalten sowie seine Interaktionen auf und transformiert diese Handlungspräferenzen in
mehrere Indikatoren. Mit Hilfe von maschinellem Lernen und der gesammelten Indikatoren wird im
nächsten Schritt der jeweilige Nachrichtenfeed eines Nutzers trainiert. So kann die FAZ einen hohen
Grad an Affirmation des Nutzers gegenüber seinem Nachrichtenfeed erreichen351.
6.5. 2 ACT2ACCESS
Mit "Act2Access" entwickelt das deutsche IT-News Online-Portal Golem.de im Rahmen einer "Me-
dium Project"-Förderung ein alternatives Modell zur Refinanzierung von journalistischen Online-
Angeboten. Im Gegensatz zu herkömmlichen Paywalls, bei denen Nutzer gegen eine Zahlung Zu-
gang zu exklusiven Premiuminhalten bekommen, arbeiten die Entwickler von Golem.de an einer
API-Schnittstelle, über die Unternehmen den Golem.de-Lesern Aufgaben anbieten können. Werden
diese gelöst, erhalten die Nutzer Zugang zu den Premiuminhalten. Dabei handelt es sich bei den
Aufgaben laut Entwickler um "spielerische Aufgaben" im Big-Data-Umfeld, bei denen möglichst
viele Nutzer dezentral und in einem sehr kleinen Umfang Daten verarbeiten oder KI-Algorithmen
trainieren müssen. Somit haben auf der einen Seite Nutzer keinerlei monetäre Ausgaben und Un-
ternehmen können Rechenleistung über verteilte Dateisysteme auslagern352.
6.5. 3 JOURNALISM F IRST
"Journalism First" bietet als "Prototype Project" des Res Publica Verlags das Konzept einer unab-
hängigen Echtzeit-Auktionsplattform, die den journalistischen Long-Tail bedient. Damit sind klei-
nere Verlage und Publisher gemeint, die nicht unbedingt reichweitenstark sind im Vergleich zu
etablierten Online-Publikationen. Durch ihre aggregierte Anzahl erreichen sie in der Summe den-
noch werberelevante Zielgruppen und vor allem Nischengruppen, die nicht unbedingt durch reich-
weitenstarke Publikationen bedient werden. Kleinere Publisher können durch "Journalism First" un-
abhängig von Werbeagenturen agieren, die normalerweise die Werbeplanung und Werbekunden-
akquise übernehmen. Die Belegung des angebotenen Werbeinventars wird durch Algorithmen
übernommen, und Zielgruppen werden durch maschinelle Mustererkennung über mehrere Publi-
kationen simultan angeboten. So können Verleger die Auslastung ihres Inventars in Echtzeit nach-
verfolgen und Preise selbst automatisiert anpassen353.
351 Vgl. Google DNI 1 (2018) 352 Vgl. Google DNI 2 (2018) 353 Vgl. Google DNI 3 (2018)
108
7 HANDLUNGSEMPFEHLUNGEN
FÜR DIE POLITIK & FAZIT
Das vorliegende Gutachten zeigt systematisch auf, dass der deutsche Markt für Onlinemedien durch
den zunehmenden Einsatz Big-Data-basierter Anwendungen wie Sprachassistenten, Chatbots,
Social-Bots und weiteren Automatisierungsprozessen einen Transformationsprozess durchläuft.
Durch die Integration Künstlicher Intelligenz und der massenhaften Verarbeitung von Daten ent-
stehen neue Kommunikationskanäle, Schlüsselressourcen und Schlüsselaktivitäten, die neue Orga-
nisationsstrukturen sowohl im Journalismus als auch in der Medienwirtschaft hervorrufen. Hierbei
wird der Kommunikationsfluss zwischen Politik, Journalisten und Medienrezipienten mit deutlichen
Effekten auf die öffentliche Meinungsbildung neu miteinander verwoben. Einen besonderen Ein-
fluss auf die ökonomische Entwicklung hat hierbei die zunehmende Prozessautomatisierung, die
sich in Zukunft noch stärker durchsetzen wird. Ob die automatisierte Erstellung oder Distribution
von Inhalten, Online-Marketing oder Targeting, Unternehmensorganisation oder -optimierung: Alle
für die Wertschöpfung relevanten Prozesse werden durch Big Data, KI und Algorithmen verändert.
7.1 HANDLUNGSEMPFEHLUNGE N FÜR DIE POLIT IK
Mit dem wachsenden Einfluss von Big Data auf die Medienbranche stellen sich aus Sicht der Medi-
enpolitik neue Fragen. Künstliche Intelligenz und selbstlernende Algorithmen bergen auf der einen
Seite zwar ökonomisches Optimierungspotenzial, auf der anderen Seite sollte der Einsatz dieser
Technologien im Kontext der kritischen, medialen Infrastrukturen, die sie betreffen, nicht völlig au-
ßer Acht gelassen werden. Datensets und artifizielle kognitive Modelle werden im Rahmen auto-
matisierter Prozesse zu wertvollen und zugleich kritischen Ressourcen, wenn sie zum Zwecke der
Entscheidungsfindung und Analyse in meinungsbildenden Medien eingesetzt werden.
In einem organisationalen Kontext ist die Auslagerung von KI und datenanalytischen Ressourcen
zwar sinnvoll, jedoch bedeutet dies in den meisten Fällen die Abtretung der Datensouveränität an
einige wenige Privatunternehmen im Ausland354. Zusätzlich zur geopolitischen Verantwortung für
persönliche Nutzerdaten und Unternehmensdaten, deren Speicherung anwendungsbezogen im
Wesentlichen in den U.S.A. und China erfolgt355, steht nicht nur Deutschland vor der kulturellen
Herausforderung des Erhalts der publizistischen Vielfalt und zugleich der Meinungsvielfalt.
7.1. 1 S ICHER UNG DER PUBLIZ IST ISCHEN VIELFALT
Um die publizistische Vielfalt in Deutschland zu wahren, bietet es sich an, den Grad an Automati-
sierung von Medieninhalten in der Medienwirtschaft zu beobachten. Eine zunehmende Auslage-
rung der Anfertigung von standardisierten Artikeln ohne redaktionelle Anreicherung an einige we-
nige Firmen könnte potentiell die Konzentrationsvorgänge im publizistischen Markt ungünstig be-
schleunigen. Hier wäre zukünftig ein Kennzeichnungsgebot vorstellbar, mit dem zumindest Quali-
tätsmedien kenntlich machen, ob und in welchem Grad Inhalte automatisiert erstellt wurden.
354 Vgl. Papon (2017) 355 Vgl. Armbruster (2017)
109
7.1. 2 WAHRUNG DER MEINUNGS VIELFALT
Vorrausetzung für die Erhaltung von Meinungsvielfalt ist eine geistig-publizistische Konkurrenz von
Meinungen in der Öffentlichkeit. Die Beeinflussung durch autonome, KI-basierte Akteure wie Social-
Bots oder algorithmisches Gatekeeping stellt dieses Konzept auf den Prüfstand356. Unternehmen
dürfen zwar zwecks Umsatzoptimierung auf Automatisierungsvorgänge setzen und soziale Netz-
werke die freie Meinungsäußerung nicht unterdrücken. Auf der anderen Seite sollte die Meinungs-
vielfalt auch nicht von Gruppen zur Durchsetzung ihrer Partikularinteressen manipuliert werden
können.
Hierbei stellen die Nutzungsbedingungen der Social-Media-Plattformen wie Twitter oder Facebook
eine Herausforderung dar, da diese bislang keinerlei Einschränkungen für den (gewerblichen) Ein-
satz von Text-Bots vorsehen. Mit der Löschung von falschen Konten vor der Bundestagswahl, der
Bewertung der Seriosität von Nachrichtenquellen sowie der Beauftragung eines Recherchebüros
zur Verifizierung von Nachrichtenmeldungen ergreift zumindest Facebook jedoch bereits erste
Schritte zum Erhalt der Meinungsvielfalt357. Darauf aufsetzend könnte ein Dialog mit den größten
Informationsintermediären in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter358)
begonnen werden, in wieweit eine Kennzeichnung von autonomen Agenten/Social-Bots eingeführt
werden kann.
Darüber hinaus könnten öffentlich-rechtliche Onlinemedien und private Qualitätsmedien als Kor-
rektiv oder Trusted-Party-Medien/Unternehmen eine stärkere Rolle zur Eindämmung bot-basierter
Problematiken ausüben. Zudem existiert bereits eine Reihe privatwirtschaftlich geförderter Korrek-
tiv-Initiativen wie Google Fact Check, Correctiv, FlipFeed, Read Across the Aisles, Escape your
bubble, Filterbubblan, The Buzzard, Bot or Not etc., deren Erkenntnisse jedoch bislang in der Öf-
fentlichkeit wenig Verbreitung finden359.
7.1. 3 R ICHTLIN IEN ZUR DATE NSOUVERÄN ITÄT
Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur Da-
tenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschutzes an-
geregt werden. Ein solches Zertifikat könnte dem Endnutzer/Kunden signalisieren, dass eine Platt-
form, die personenbezogene Daten speichert, die Vorgaben der europäischen Datenschutzgrund-
verordnung sowie die in Deutschland geltenden Datenschutzrichtlinien über die gesamte Wert-
schöpfungskette hinweg einhält. Dementsprechend müsste die Einhaltung der Vorgaben sowie die
technische Absicherung der Daten (Verschlüsselung) auch bei allen kooperierenden Partnern (Start-
ups, Firmen im außereuropäischen Ausland) überprüft werden360.
Eine weite Möglichkeit der Stärkung der persönlichen Datensouveränität liegt in der Erweiterung
der heute bereits notwendigen Einwilligung zum Datenschutz und zur Datenverarbeitung auf jedes
neue Interface (wie z.B. PVA), das mit dem Nutzerkonto eines Online-Dienstes verbunden wird.
Konkrete Beispiele sind hier die Sprachassistenten sowie die damit verbundenen Geräte von
356 Vgl. Freedom House (2017) 357 Vgl. Wieduwilt (2017) und Facebook (2017) 358 Lischka & Stöcker (2017), S. 13 und S. 15 359 Vgl. Facebook (2017) 360 Vgl. Lenzen (2018)
110
Google, Apple und Amazon. Nur so kann man den Nutzern aktiv zu verstehen geben, dass sie sich
mit der Verarbeitung auch der über die Spracheingabe oder Videoaufzeichnung übermittelten per-
sonenbezogenen Daten einverstanden erklären.
7.1. 4 ALGOR ITHMEN - UND K I -AUDITS
Da Vorgänge in KNN und darauf aufbauend Algorithmen und KI-Prozesse nicht hinreichend genug
beschrieben werden können und Unternehmen diese Grundlagen nicht publizieren, empfiehlt es
sich für jedes stark datengetriebene Unternehmen, Strategien und Guidelines für den Umgang mit
algorithmenbasierten oder KI-assistierten Dienstleistungen nachzudenken.
Der BITKOM hat bspw. eine Stufenskala für die Klassifizierung von KI veröffentlicht, die sich am Grad
der Automatisierung von Entscheidungen orientiert361. Die höchste Stufe bedeutet dabei komplett
autonomes Entscheiden und die geringste Stufe signalisiert komplett menschliches Entscheiden.
Dazwischen liegen vier Stufen, aufsteigend mit immer mehr Autonomiezugewinn. Ein ähnlicher
Klassifizierungsansatz könnte ebenfalls für die Erstellung von automatisierten Texten und Analysen
überprüft werden. Der Einsatz von komplett automatisierten Big-Data-basierten Dienstleistungen
könnte ab den höchsten Stufen einer solchen Skala (bei denen Entscheidungen an digitale KI-As-
sistenten delegiert werden) nur genehmigt werden, wenn die entsprechenden KI-Prozesse, Trai-
ningsdatensätze und Modelle durch einen KI-Audit auf systematischen Bias sowie technische Fehler
überprüft wurden. Dazu existieren bereits KI-Prüfverfahren wie die "Layer-wise Relevance Propaga-
tion"-Methode362 oder das Displacement-Verfahren363. Solche KI-Audits sollten dabei nicht nur auf
einer rein technischen Ebene ablaufen, sondern auch Perspektiven der Sozialforschung, Rechtswis-
senschaft, Ethik und im Medienbereich vor allem der Kommunikationswissenschaft berücksichtigen.
Für Medienunternehmen gilt dies nicht nur für die automatisierte Erstellung von Inhalten sondern
u.a. auch für die weitere Verarbeitung von Kunden- und Nutzerdaten zur Steigerung von Werbeer-
lösen oder transaktionsbasierten Umsätzen.
7.1. 5 PVA -PLATTFORMREGULIERUN G
Die Landesmedienanstalten haben, abgeleitet aus dem Rundfunkstaatsvertrag, die Aufgabe, den
diskriminierungsfreien Zugang von Inhalteanbietern auf Medienplattformen sicherzustellen. Im
Rahmen dieser als Plattformregulierung bezeichneten Kontrolle wird überprüft, ob Anbieter von
Inhalten und Diensten zu gleichberechtigten Konditionen auf Plattformen wie Elektronischen Pro-
grammführern (EPGs), App-/Widget-Plattformen von Smart-TVs oder auch VoD-Plattformen ver-
treten sind. Diese Prüfung bezieht sich dabei sowohl auf den Zugang zur Plattform als auch auf die
Auffindbarkeit der Inhalte364.
Personal-Voice-Assistant-Plattformen wie Amazon Echo oder Google Home stehen derzeit noch
nicht im Fokus dieser Regulierung. Dabei werden gerade diese Plattformen zukünftig eine wichtige
Rolle bei der Auswahl von Medieninhalten spielen. Sofern diese Plattformen die Auswahl der Inhalte
auf wenige große Mediendienste (wie z.B. Spotify, Google Play und Amazon Music) einschränken
361 Holtel (2017), S. 14ff. 362 Vgl. Beuth (2017), Binder et al. (2016), S. 1f. und Shrikumar et al. (2017), S.1f. 363 Bojarski et al. (2017), S. 6 und Alvarez-Melis et al. (2017), S. 2f. 364 Die Medienanstalten (2018)
111
oder die zusätzliche Implementierung von Diensten erschweren, drohen etablierten Mediendiens-
tanbietern (z.B. Hörfunkprogrammanbietern) hier Wettbewerbsnachteile. Im Zuge der Plattformre-
gulierung können Probleme vielfach auch im Dialog geklärt werden, bevor es zu wettbewerbsrecht-
lichen Auseinandersetzungen kommt.
7.1. 6 ZUSAMMENFASSUNG DER
HANDLUNGSEMPFEHLUNGE N
Zusammenfassend lässt sich für die Politik ein hoher Grad an potenziellem Handlungsbedarf in
Bezug auf Big Data und KI-gestützten Algorithmen im Markt der Onlinemedien feststellen. Zahlrei-
che Institutionen sowie die Politik sehen ein klares Defizit in der Kennzeichnung von KI-basierten
Anwendungen wie PVA oder Chat- sowie Social-Bots365.
Die Einhaltung europäischer und nationaler Datenschutzvorgaben wird mit zunehmender Einbin-
dung internationaler Dienstleister und junger Start-ups, die Nutzerdaten der Medienunternehmen
verarbeiten, zu einer Herausforderung, die neue Compliance-Strukturen erfordert. In beiden Berei-
chen sind jedoch vor allem die Medienunternehmen selbst gefordert, Standards zu entwickeln und
deren Einhaltung zu prüfen, um das Vertrauen der Nutzer in Inhalte und die Sicherheit ihrer Daten
nicht zu verspielen.
Zur Sicherstellung eines fairen Wettbewerbs der Dienste auf neuen KI-basierten Plattformen (v.a.
PVA) müssen bestehende Instrumente der Plattformregulierung auf den Big-Data-Markt übertra-
gen und ggf. weiterentwickelt werden.
7.2 FAZ IT UND AUSBL ICK
Der deutsche Markt für Onlinemedien steht im Angesicht der Verbreitung von Innovationen um Big
Data und Künstlicher Intelligenz vor einem spannenden Paradigmenwechsel. Die Anzahl von ver-
fügbaren Daten wächst durch die Digitalisierung aller Lebensbereiche extrem stark an. Durch die
starke Penetration von Mobilen Endgeräten und die quasi ubiquitäre Anbindung ans Internet ge-
langen die meisten Datensets online. Bis 2025 erwarten Analysten einen Anstieg auf 180 Zettabytes
an für Unternehmen verfügbaren Daten (von rd. 10 Zettabytes in 2015). Stärkster Treiber sind dabei
vernetzte Mobilgeräte, Wearables, Haushaltsgegenstände und Fahrzeuge, die bis 2025 ein Volumen
von 80 Mrd. Einheiten erreichen sollten. Durch die massenhafte Aggregation und Auswertung die-
ser Daten wird es Medienunternehmen möglich, die Herstellung ihrer Inhalte in einem bisher un-
gekannten Maßstab zu automatisieren, inhaltlich mit Datenanalysen aufzuwerten und sie in neue
informationsjournalistische Formate einfließen zu lassen. Werbungtreibende profitieren bei der Im-
plementierung von Big Data in Marketingprozesse nicht nur von der erhöhten Präzision bei der
Analyse, Individualisierung und Ansprache der Zielgruppen, sondern auch von neuen Distributions-
kanälen wie PVA, Chatbots und Programmatic Advertising. Insgesamt wird bis 2020 erwartet, dass
das Umsatzvolumen von Big-Data-Lösungen in Deutschland eine Größe von rd. 3,75 Mrd. Euro er-
reicht. 61 Prozent dieses Umsatzes sollen vor allem durch Dienstleistungen erwirtschaftet werden.
365 US Senat, Bundesregierung, TAB, Heiko Maas etc.
112
Es ist zu erwarten, dass vor allem die innerbetriebliche Optimierung von Prozessen die Medienbran-
che nachhaltig verändern wird. Im Rahmen der Marktanalyse zeichnet sich ab, dass durch die neuen
Big-Data- und KI-Schlüsselressourcen sowie Schlüsselaktivitäten (Online-)Medien sich im Prozess
einer organisationalen Transformation vom geschlossenen Content-Produzenten zum dezentralen,
KI-assistierten Content-Intermediären befinden. Natürlich findet die Erstellung von Inhalten wie
Texten, Videos, Musik oder 3D-Ressourcen noch innerhalb von räumlich abgegrenzten Redaktio-
nen, Tonstudios oder Entwicklerräumen statt. Doch diese Prozesse erfahren nicht nur eine sich im-
mer deutlicher zuspitzende Desintermediation bei der Ausspielung der Inhalte in Form von z.B.
Facebook Instant Articles oder Googles News Plattform, sondern auch der Prozess der Erstellung
wird, wie in Kapitel 5 aufgezeigt, systematisch dezentralisiert und kann automatisiert durch (von
Drittanbietern zugekaufte) algorithmische Dienstleistungen ausgeführt werden. A priori ist diese
Entwicklung nicht als problematisch einzustufen, da diese Prozesse zum Zwecke der Produktopti-
mierung und Gewinnmaximierung in Unternehmen implementiert werden können, um Arbeitneh-
mer zu entlasten und ihnen repetitive Abläufe zu ersparen. Laut Prognosen besteht in Deutschland
ein Automatisierungspotential von rd. 46 Prozent der Prozesse über alle Industrien hinweg.
Perspektivisch wird die Ausbildung dieser neuen Strukturen in der Medienbranche erst dann wirk-
lich kritisch, wenn die öffentliche Meinungsbildung und die publizistische Vielfalt potentiell von
automatisierten Entscheidungen beeinflusst werden können, die nicht systematisch nachvollziehbar
sind. Die Vorgehensweise von proprietären Algorithmen und vor allem von komplexen Anordnun-
gen von KNN, wie etwa dem Deep Learning, unterliegen keiner Aufsicht und sind anfällig für Ver-
zerrungen durch ihre Trainingsdaten. Unwillentlich können auf diesem Wege systematische Fehler
und diskriminierende Tendenzen auf die Resultate der Analysen übertragen werden.
Auch algorithmische Auswahl- und Empfehlungsprozesse, die zu einem festen Bestandteil im Markt
für der Onlinemedien avanciert sind, stehen unter dem Verdacht, Filter Blasen zu bilden und die
öffentliche Meinung zu beeinflussen. Im Falle dieser algorithmischen Entscheidungsfindung handelt
es sich bei den meisten ADM-Prozessen um die Methode des Supervised Learning, bei der der
Dateninput aus den Handlungen von Menschen stammt. Diese Methode wird bei Anbietern wie
Netflix, Spotify oder Amazon für analytische Inhaltsfindung benutzt, um Assoziationsregeln zu for-
mulieren, aus denen Korrelationen berechnet werden, welche Produkte oder Medien einem Nutzer
empfohlen werden. Dies bedeutet im Umkehrschluss, dass die Künstliche Intelligenz weder auto-
nom handeln, noch von Drittgruppen aktiv beeinflusst werden kann.
Aufgrund der hohen Marktakzeptanz von ADM-Prozessen unter Nutzern der jeweiligen Dienste
und der starken Marktpenetration von populären Onlinemedien-Plattformen und sozialen Netz-
werken werden Algorithmen sich immer stärker in allen Bereichen der Medienbranche ausbreiten.
Besonders in der Werbeindustrie ist zu erwarten, dass Algorithmen die Werbeplanung, -buchung
und -kreation stärker automatisieren werden. Durch die Optimierung von Preisgebungsverfahren
und Präzisierung der Kundenprofile durch Big-Data-Analysen prognostiziert der Branchenverband
BVDW, dass der Nettowerbeumsatz im Programmatic Advertising 2017 rd. zwei Mrd. Euro erreicht,
indem er das dritte Jahr in Folge stärker wächst als die Jahre davor. Es zeichnet sich ab, dass neben
der Automatisierung traditioneller Werbeauktionsverfahren vor allem Personalisierung für Wer-
bungtreibende in naher Zukunft der zentrale Umsatztreiber sein wird. Mit Hilfe von IoT-Sensordaten
und Big-Data-gestützter Mustererkennung wird es möglich, den situativen Kontext eines jeden
Werbekunden zu analysieren, seine Interessen auf Basis seiner Echtzeit-Interaktionen zu bestimmen
und abhängig von seiner geografischen Lage Werbung auf Basis seiner eruierten Bedürfnisse adap-
tiert auszuspielen.
113
Weniger erfolgsversprechend erscheint die zukünftige Integration von standardisierten Chatbot-
Plattformen in den Marketing-Mix. Als autonome Agenten im Zuge des Customer-Relationship-
Managements werden Chatbots schon länger erfolgreich eingesetzt, um Kunden simple Fragen zu
beantworten oder diese an Service-Mitarbeiter weiterzuleiten. Doch im Einsatz als Konversations-
kanal für den Vertrieb von Waren oder Dienstleistungen an Privatpersonen zeichnet sich ab, dass
Chatbots nicht die an sie gerichteten Anforderungen in Bezug auf automatisierte Kundenkommu-
nikation erfüllen können. 2016 gab bei mehreren separaten Befragungen fast jeder zweite Nutzer
an, Chatbots ungern zu nutzen. So gaben rd. 71 Prozent aller deutschen Internetznutzer ab 18 Jah-
ren an, dass sie Chatbots nicht nutzen möchten, und 46 Prozent wussten nicht, was Chatbots über-
haupt sind. Zentrale Kritikpunkte sind dabei das abrupte Abbrechen der Konversation mit einem
Bot, wenn dieser die textuelle oder sprachliche Eingabe nicht versteht, sowie Sicherheitsbedenken.
Denn durch den Einsatz von Social Bots (einer spezifischen Variante von Chatbots) für die gezielte
Manipulation von Meinungen in sozialen Netzwerken während politischer Großereignisse haben
Bot-Plattformen enorm an Vertrauen eingebüßt. Potentiell erfolgreicher gestaltet sich die Integra-
tion von Chatbots in B2B-Prozesse in Form von virtuellen Assistenten und Agenten, die sehr simple
Aufgaben in sehr großem Umfang und auf Befehl ausführen können.
Der Markteinfluss von fortgeschrittenen Bot-Plattformen wie Personal Voice Assistants entwickelt
sich dagegen deutlich positiver. Die Mehrheit der deutschen PVA-Nutzer empfindet die ständige
Verfügbarkeit und die bequeme Steuerung per Sprache als sehr nützlich. Aufgrund des enormen
Ressourceneinsatzes von Seiten der Technologiekonzerne brechen die Konversationen mit PVA
durch den Einsatz von NLP-Methoden nicht so einfach ab wie mit Chatbots und bieten damit ein
zufriedenstellendes Erlebnis. Hinter den hohen Entwicklungskosten steht jedoch die Kalkulation,
dass PVA nicht nur als persönliche Assistenten gebraucht werden, sondern als Lead-Up-Channels
zu einer neuen Form von Akquise- und Vertriebs-Kanal werden. Während des Betriebs sind die
beiden in Deutschland erhältlichen Personal Voice Assistants Amazon Alexa und Google Home Mini
stets mit dem Internet verbunden und leiten dienstleistungs- und produktbezogene Anfragen der
Nutzer an die Onlinemedien- und E-Commerce-Angebote ihrer Hersteller weiter. Die Integration
dieser kommerziellen Komponente und die Tatsache, dass nur in den seltensten Fällen mehrere
PVA in einem Haushalt parallel verwendet werden, spiegeln die Marktverhältnisse im mobilen App-
Markt wider, in dem der Apple App Store und der Google Play Store bisher konkurrenzlos einen
marktbeherrschenden Duopol bilden.
Vor dem Hintergrund dieser Ergebnisse und Handlungsempfehlungen lässt sich zusammenfassen,
dass Big Data als technologisches Paradigma dabei ist, viele Medienmärkte einem deutlichen Struk-
turwandel zu unterwerfen. Obwohl nicht alle Technologien und Methoden, die im Kontext von Big
Data eingesetzt werden, eine klare Marktreife erreicht haben, wird deutlich, dass in naher Zukunft
vor allem Künstliche Intelligenz und Natural Language Processing in der Wertschöpfungskette einer
Mehrheit von deutschen Medienunternehmen Einsatz finden werden. Das ökonomische Umsatz-
potential der Automatisierung von standardisierten Aufgaben wie informationsjournalistischer Tex-
terstellung über die Kreation automatisierter Werbung bis hin zu autonomen Vertriebskanälen ist
zu lukrativ, als dass Unternehmen es wegen Datensicherheitsbedenken oder technologischer
Schwächen vernachlässigen würden. Die flexible Skalierung der Big-Data-Infrastruktur macht dabei
großflächige Analyseprozesse für viele Unternehmen ökonomisch plausibel und sogar notwendig,
wenn es darum geht, Wachstumsimpulse effizient umzusetzen.
Auffällig erscheint jedoch, dass Big Data vor allem auf der Seite von Unternehmen stärkere Adap-
tation erfährt als im Privatkundensegment. Das Investment in Big Data und KI-Start-ups betrug
114
alleine im Jahr 2016 rd. fünf Mrd. US-Dollar (und damit fast doppelt so viel wie im Vorjahr). Als
Gründe für diese Entwicklung lässt sich die ökonomische Effizienz von Problemlösungs- und Mus-
tererkennungsvorgängen anführen. Privatkunden stehen dagegen nicht unter einem wirtschaftli-
chen Druck, neue Technologien adaptieren zu müssen, und reagieren demnach sensibler auf Tech-
nologien, die nicht komplett ausgereift sind. Doch trotz der niedrigen Nutzerakzeptanz und wider
alle arbeitsethischen Bedenken zeichnet sich ab, dass der deutsche Onlinemedien-Markt im Zuge
der fortschreitenden Digitalisierung Big-Data-Prozesse noch stärker in organisationale Strukturen
integrieren wird. Das Disruptionspotential dieser Technologie gestaltet sich zwar nicht so stark wie
einst das des Internets, doch die digitale Medienlandschaft wird komplett ohne die Big-Data-Tech-
nologien nicht auskommen können und sich kontinuierlich verändern müssen.
115
8 LITERATUR UND QUELLEN
Abiteboul, S./ Hull, R. [1986]: „Restructuring hierarchical database objects", in: „Theoretical Computer Science", Vol.
62(1-2)
Absatzwirtschaft [2015]: „Werbebudgets verlagern sich in Richtung Programmatic – zulasten des TV", Absatzwirt-
schaft, online: www.absatzwirtschaft.de/werbebudgets-verlagern-sich-in-richtung-programmatic-zulas-ten-des-
tv-55745/ letzter Zugriff: 26.02.2018
Acxiom Deutschland GmbH [o. D.]: „Analytisches CRM/Customer Insights“, Acxiom Deutschland GmbH, online:
www.acxiom.de/analytisches-crmcustomer-insights/ letzter Zugriff: 27.02.2018
Adar, E./ Gearig, C./ Balasubramanian, A./ Hullman, J. [2017]: „PersaLog: Personalization of News Article Content“, in:
„Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems“, New York: ACM, S. 3188-
3200
Ahlers, Birgit [2016]: "Was ist ein Sales funnel?", Vertriebszeitung, online: https://vertriebszeitung.de/ist-ein-ver-
triebsfunnel/ letzter Zugriff: 20.02.2018
Aiello, L. M./ Deplano, M./ Schifanella, R./ Ruffo, G. [2012]: „People are Strange when you're a Stranger: Impact and
Influence of Bots on Social Networks“, in: „Proceedings of the Sixth International AAAI Conference on Weblogs
and Social Media“, S.10-17
AirPR [2018], online: https://airpr.com/ letzter Zugriff: 23.01.2018
Akst, D. [2013]: „Automation Anxiety“, online: http://archive.wilsonquarterly.com/sites/default/files/articles/Auto-
mationAnxiety.pdf letzter Zugriff: 17.11.2017
Albrecht, R. [2017]: „Algorithmen und Big Data fühlen nicht", Bilanz - Das deutsche Wirtschaftsmagazin, online:
https://www.welt.de/wirtschaft/bilanz/article164880307/Algorithmen-und-Big-Data-fuehlen-nicht.html letzter
Zugriff: 12.02.2018
Alda [2018]: „Alda. Alda is a text-based programming language for music composition”, online: https://alda.io/ letzter
Zugriff: 10.01.2018
AlgStrOeff [2018]: „Algorithmischer Strukturwandel der Öffentlichkeit. Chancen und Risiken der Informations- und
Kommunikationstechnologien für die Entwicklung der politischen Informationskompetenz“, online:
https://www.algstroeff.de/ Letzter Zugriff: 05.01.2018
Alpine.AI [2017]: „The 2017 Voice Report by Alpine (fka VoiceLabs)", nach: CIRP, KPCB und InfoScout (2017), online:
https://alpine.ai/2017/01/15/the-2017-voice-report-by-alpine/ letzter Zugriff: 16.02.2018
Altmeppen, K.-D. [1996]: „Medien und Ökonomie – Medienökonomie“, in: Altmeppen, K.-D. (Hrsg.): „Ökonomie der
Medien und des Mediensystems. Grundlagen, Ergebnisse und Perspektiven medienökonomischer Forschung“,
Opladen: Westdeutscher Verlag, S. 9-24
Alvarez-Melis, D./ Jaakkola, T.S. [2017]: „A causal framework for explaining the predictions of black-box sequence-to-
sequence models", MIT, online: http://people.csail.mit.edu/tommi/papers/AlvJaa_EMNLP2017.pdf letzter
Zugriff: 20.02.2018
Amazon Mechanical Turk [2018], online: https://www.mturk.com/ letzter Zugriff: 26.02.2018
Amini, L. [2016]: „Making ‘Cognitive Music’ with IBM Watson”, online:
https://www.ibm.com/blogs/think/2016/10/watson-music/ letzter Zugriff: 10.01.2018
Anders, G. [2017]: „Alexa, Understand Me”, online: https://www.technologyreview.com/s/608571/alexa-understand-
me/ letzter Zugriff: 17.11.2017
Angwin, J. [2016]: „Facebook Doesn’t Tell Users Everything It Really Knows About Them“, ProPublica, online:
www.propublica.org/article/facebook-doesnt-tell-users-everything-it-re- ally-knows-about-them letzter Zugriff:
20.02.2018
Armbruster, A. [2017]: „Künstliche Intelligenz: Ein Wettlauf wie im Kalten Krieg", Frankfurter Allgemeine Zeitung, on-
line: http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/kuenstliche-intelligenz-wer-gewinnt-den-
wettlauf-usa-oder-china-15284415.html letzter Zugriff: 20.02.2018
Arnold, K. [2009]: „Qualitätsjournalismus. Die Zeitung und ihr Publikum“, Konstanz: UVK
116
Aron, J. [2011]: „Software ticks people into thinking it is human“, online: https://www.newscientist.com/arti-
cle/dn20865-software-tricks-people-into-thinking-it-is-human/ letzter Zugriff: 16.11.2017
Artech Technologies AG [2018]: „VCA - Die intelligente Videoanalyse. MULTIEYE VCA Videoanalyse“, online:
https://www.artec.de/de/produkte/multieye/vca-die-intelligente-videoanalyse.html letzter Zugriff: 10.01.2018
Atkins, C./ de Uster, M./ Mahdavian, M./ Yee, L. [2016]: „Unlocking the power of data in sales”, online:
https://www.mckinsey.it/file/6741/download?token=QeV5tdc7 letzter Zugriff: 05.01.2018
Auerbach, D. [2015]: „The Programs That Become the Programmers“, online: http://www.slate.com/articles/technol-
ogy/bitwise/2015/09/pedro_domingos_master_algorithm_how_machine_learning_is_reshaping_how_we.html
letzter Zugriff: 17.11.2017
Austin, D. [2017]: „How Amazon’s Alexa hooks you“, online: https://venturebeat.com/2017/06/27/how-amazons-
alexa-hooks-you/ letzter Zugriff: 17.11.2017
Avid Sibelius First [2018]: „Musik-Komposition beginnt hier“, online: http://www.avid.com/de/sibelius-first letzter
Zugriff: 10.01.2018
AX Semantics [2017]: „AX Semantics Inputraster in drei Sprachen und Beispielartikel", online: https://www.ax-seman-
tics.com/de/nlg-cloud.html letzter Zugriff: 15.11.2017
AZ Direct GmbH [o. D.]: „Adressqualifizierung – erfahren, was Kunden bewegt“, AZ Direct GgmbH, online: www.az-
direct.com/site/information-services/daten-lizen- zen/az-dias-profildaten/ letzter Zugriff: 27.02.2018
Bachman, C. W. [1973]: „The programmer as navigator.", in: „Communications of the ACM," Vol. 16(11)
Bakker, P. [2012]: „Aggregation, Content Farms and Huffinization, The rise of low-pay and nopay journalism“, in:
„Journalism Practice“, Vol. 6: 5-6, S. 627-737
Ball, J. [2014]: „The Upshot, Vox and FiveThirtyEight: data journalism's golden age, or TMI?", The Guardian, online:
https://www.theguardian.com/commentisfree/2014/apr/22/upshot-vox-fivethirtyeight-data-journalism-
golden-age letzter Zugriff: 27.02.2018
Ballein, M. [2017]: „Spotify im Test: Der Platzhirsch im Musik-Streaming-Markt. Was die Musik-Flatrate aktuell zu bie-
ten hat“, online: https://www.netzwelt.de/spotify/testbericht.html#empfehlungssystem-soziale-netzwerke letz-
ter Zugriff: 05.01.2018
Baoding, L. [2009]: „Theory and Practice of Uncertain Programming", Springer-Verlag Berlin Heidelberg, 2. Aufl.
BARC [2015]: „Big Data Use Cases: Getting Real On Data Monetization", BARC GmbH Umfrage, online:
https://www.sas.com/content/dam/SAS/bp_de/doc/studie/ba-st-barc-bigdata-use-cases-de-2359583.pdf letz-
ter Zugriff: 12.02.2018
Barzilai-Nahon, K./ Neumann, S. [2005]: „Gatekeeping in Networks: A Meta-Theoretical Framework For Exploring In-
formation Control“, in: „Journal of Association of Information Systems Sponsored Theory Development Work-
shop in ICIS“, Las Vegas, S. 1-29, online: https://pdfs.seman-
ticscholar.org/c577/2b3a9dd0f4a5e780b580d8c0e2c8ba6bf841.pdf letzter Zugriff: 16.11.2017
Basharin, G. P./ Langville, A. N./ Naumov, V. A. [2004]: „The life and work of A.A. Markov", in: "Linear Algebra and its
Applications", Vol. 386
Basheer, I. A./ Hajmeer, M. [2000]: „Artificial neural networks: fundamentals, computing, design, and application", in:
„Journal of microbiological methods", Vol. 43(1)
Bateman, J./ Zock, M. [2003]: "Natural language generation.”, in: The Oxford Handbook of Computational Linguistics,
S. 5f.
Batista, N.C./ Melício. R./ Mendes, V.M.F. [2016]: „Services enabler architecture for smart grid and smart living ser-
vices providers under industry 4.0", in: „Energy and Buildings", Vol. 141
BDZV (2016): „EU-Datenschutz: Presseverleger sehen Mängel in neuer Verordnung", BDZV, online:
http://www.bdzv.de/nachrichten-und-service/presse/pressemitteilungen/artikel/detail/eu_datenschutz_pres-
severleger_sehen_maengel_in_neuer_verordnung/ letzter Zugriff: 13.04.2018
Bell, E. [2016]: „As publishers lose control, are newspaper websites a dead parrot?“, online: http://www.theguard-
ian.com/media/2016/feb/21/publishers-adblocking-advertising-mobile letzter Zugriff: 17.11.2017
Berkel, B. [2006]: „Konflikt als Motor europäischer Öffentlichkeit: eine Inhaltsanalyse von Tageszeitungen in Deutsch-
land, Frankreich, Großbritannien und Österreich“, Wiesbaden: VS Verlag für Sozialwissenschaften
117
Bessi, A./ Ferrara, E. [2016]: „Social bots distort the 2016 U.S. Presidential election online discussion“, in: First Mon-
day, 21(11) online: from http://firstmonday.org/ojs/index.php/fm/arti-cle/view/7090/5653 letzter Zugriff:
16.11.2017
Beuth, P. [2017a]: „Algorithmen. Maas schlägt digitales Antidiskriminierungsgesetz vor“, online:
http://www.zeit.de/digital/internet/2017-07/heiko-maas-algorithmen-regulierung-antidiskriminierungsge-
setz/komplettansicht letzter Zugriff: 05.01.2018
Beuth, P. [2017b]: „Die rätselhafte Gedankenwelt eines Computers", Zeit Online, online: http://www.zeit.de/digi-
tal/internet/2017-03/kuenstliche-intelligenz-black-box-transparenz-fraunhofer-hhi-darpa Letzter Zugriff:
20.02.2018
BfDI [o. D.]: „Adresshandel und unerwünschte Werbung", BfDI Informationsbroschüre
Bhaskar, M. [2017]: „Curation“, London: Piatkus Books
Bilenko, M./ Richardson, M. [2011]: „Predictive client-side profiles for personalized advertising.", in: „Proceedings of
the 17th ACM SIGKDD international conference on knowledge discovery and data mining ACM”
Binder, A./ Montavon, G./ Bach, S./ Müller, K.-R./ Samek, W. [2016]: „Layer-wise Relevance Propagation for Neural
Networks with Local Renormalization Layers", in: „ICANN 2016: Artificial Neural Networks and Machine Learning
– ICANN 2016", S. 63-71, arXiv:1604.00825v1
Bishop, C. M. [1995]: „Neural Networks for Pattern Recognition”, Oxford: Clarendon Press
Bishop, C. M. [2006]: „Pattern recognition and machine learning“, New York: Springer
BITKOM [2013]: „Demokratie 3.0. Die Bedeutung des Internets für politische Meinungsbildung und Partizipation von
Bürgern - Ergebnisse einer repräsentativen Befragung von Wahlberechtigten in Deutschland“, online:
https://www.bitkom.org/noindex/Publikationen/2013/Studien/Studie-Demokratie-3-0/BITKOM-Studie-Demo-
kratie-30.pdf letzter Zugriff: 16.11.2017
BITKOM [2016a]: „Für welche Bereiche könnten Sie sich den Einsatz von Chatbots vorstellen?", in: Statista.de, online:
https://de.statista.com/statistik/daten/studie/660267/umfrage/umfrage-zu-einsatzmoeglichkeiten-von-chat-
bots-in-deutschland/ letzter Zugriff: 23.01.2018
BITKOM [2016b]: „Warum wollen Sie keine Chatbots nutzen?", n = 1.005, Deutsche Onlinenutzer ab 14 Jahren, Sta-
tista.de, online: https://de.statista.com/statistik/daten/studie/660281/umfrage/umfrage-zu-gruenden-gegen-
die-nutzung-von-chatbots-in-deutschland/ letzter Zugriff: 23.01.2018
Boden, C./ Fischer, J./ Herbig, K./ Liebe, J./ Sinning, H. [2006]: „Chatbots als Instrument der Planungskommunikation-
Chancen, Anforderungen und Perspektiven“, in: „GI Jahrestagung“, Vol. 93, S. 433-442
Bojarski, M./ Yeres, P./ Choromanaska, A./ Choromanski, K./ Firner, B./ Jackel, L./ Muller, U. [2017]: „Explaining How a
Deep Neural Network Trained with End-to-End Learning Steers a Car", arXiv:1704.07911v1
Bollier, D./ Firestone, C. M. [2010]: „The promise and peril of big data", Washington, DC: Aspen Institute, Communica-
tions and Society Program
Bond, A.H./ Gasser, L. (Hrsg.) [2014]: „Readings in distributed artificial intelligence" Morgan Kaufmann
Borth, D./ Ulges, A./ Schulze, C./ Breuel, T. [2009]: Keyframe Extraktion für Video-Annotation und Video-Zusammen-
fassung. Informatik-Spektrum, Vol (32(1), S. 50-53, doi: 10.1007/s00287-008-0264-y
Botteri, P. [2008]: „Measuring sales and marketing effectiveness of SaaS companies: The CAC Ratio", Accel Partners,
online: http://cracking-the-code.blogspot.de/2008/03/measuring-sales-and-marketing.html letzter Zugriff:
23.01.2018
Boutin, P. [2017]: „Why Most Chatbots Fail - Forrester report lists three big mistakes", Chatbot Magazine, online:
https://chatbotsmagazine.com/why-most-chatbots-fail-1c085b74d6ad letzter Zugriff: 26.02.2018
Boxell, L./Gentzkow, M./Shapiro, J. [2017]: „Greater Internet use is not associated with faster growth in political po-
larization among US demographic groups. Proceedings of the National Academy of Sciences of the United States
of America”, Vol. 114 (40), S. 10612-10617
Brosey, M./ Shneiderman, B. [1978]: „Two experimental comparisons of relational and hierarchical database models",
in: „International Journal of Man-Machine Studies", Vol. 10(6)
Brühl, J. [2017]: „Können Parteien mit personalisierter Werbung die Wahl manipulieren?“, on-line: http://www.sued-
deutsche.de/digital/wahlkampf-in-sozialen-medien-koennen-parteien-mit-personalisierter-werbung-die-wahl-
manipulieren-1.3581781 letzter Zugriff: 16.11.2017
118
Brühl, J./ Brunner, K./ Ebitsch, S. [2017]: „Der Facebook-Faktor. Wie das soziale Netzwerk die Wahl beeinflusst“, on-
line: http://gfx.sueddeutsche.de/apps/e502288/www/ letzter Zugriff: 16.11.2017
Brunner, K./ Ebitsch, S. [2017]: „Was links und rechts verbindet - und trennt“, online: http://www.sueddeut-
sche.de/digital/der-facebook-faktor-was-links-und-rechts-verbindet-und-trennt-1.3474020 letzter Zugriff:
16.11.2017
Bucher, T. [2017]: „,Machines don’t have instincts’: Articulating the computational in journalism“, in: „New Media &
Society“, Vol. 19(6), S. 918-933
Bundesagentur für Arbeit [o. D.]: „Typisch Ich - What’sMeBot“, online: http://dasbringtmichweiter.de/ty-
pischich/whatsmebot/ letzter Zugriff: 16.11.2017
Bundesministerium für Justiz und Verbraucherschutz [2017]: „Verbesserung der Rechtsdurch-setzung in sozialen Netz-
werken“, online: http://www.bmjv.de/SharedDocs/Artikel/DE/2017/04052017_NetzDG.html letzter Zugriff:
17.11.2017
Burgess, J./ Bruns, A. [2015]: „Easy Data, Hard Data: The Politics and Pragmatics of Twitter Research After the Compu-
tational Turn“, in: Langlois, G. (Hrsg.), Redden, J., & Elmer, G., „Compromised Data. From Social Media to Big
Data“, New York: Bloomsbury Academic
Business Insider [2016]: „Chatbot revenue is on the upswing", Business Insider Intelligence, nach: McKinsey (2016),
online: http://www.businessinsider.com/chatbot-revenue-is-on-the-upswing-2017-3 letzter Zugriff: 15.11.2017
Buxton, Madeline [2018]: „Writing For Alexa Becomes More Complicated In The #MeToo Era", Refinery29, online:
http://www.refinery29.com/2017/12/184496/amazo-alexa-personality-me-too-era letzter Zugriff: 20.02.2018
BvD-News [2015]: „Das große Erwachen. Was ist von so genannten Social-Scoring-Unternehmen zu halten", in: „BvD-
News", Vol. 1/2015
BVDW [2015]: „Browsercookies und alternative Tracking-Technologien", BVDW White Paper
BVDW [2012]: „Whitepaper Webanalyse und Datenschutz", BVDW White Paper, online:
https://www.adzine.de/2012/07/whitepaper-zu-datenschutz-und-webanalyse-web-analytics/ letzter Zugriff:
19.01.2018
Cain Miller, C. [2015]: „When Algorithms Discriminate“, The New York Times, online: https://www.ny-
times.com/2015/07/10/upshot/when-algorithms-discriminate.html?_r=0 letzter Zugriff: 16.11.2017
Calin, M./ Dellarocas, C./ Palme, E./ Sutanto, J. [2013]: „Attention allocation in information rich environments: The
case of news aggregators“, in: „Boston University School of Management Research Paper Series“, Vol. 2013 (4)
Carlson, M. [2015]: „The robotic reporter: Automated journalism and the redefinition of labor, compositional forms,
and journalistic authority“, in: „Digital Journalism“, Vol. 3(3), 416-431
Castendyk, O./ Müller-Lietzkow, J. [2017]: „Abschlussbericht zur Studie: Die Computer- und Videospielindustrie in
Deutschland. Daten – Fakten – Analysen“, online: http://docs.dpaq.de/13008-abschlussbericht_games-stu-
die_v1.0_2017-11-28.pdf letzter Zugriff: 10.01.2018
CB Insights [2016]: „The 2016 AI Recap: Startups See Record High In Deals And Funding“, CB Insights Report, online:
https://www.cbinsights.com/research/artificial-intelligence-startup-funding/ letzter Zugriff: 27.02.2018
CDU [2017]: „Der CDU ChatBot“, online: http://fb.com/msg/csu letzter Zugriff: 16.11.2017
Cellan-Jones, R. [2017]: „Google DeepMind: AI becomes more alien", BBC News, online:
http://www.bbc.com/news/technology-41668701 letzter Zugriff: 19.01.2018
chatbot.fail [2018]: „Why Chatbots fail“, online: https://chatbot.fail/, letzter Zugriff: 23.01.2018
Chen, G. M./ Chock, T. M./ Gozigian, H./ Rogers, R./ Sen, A./ Schweisberger, V. N./ Steinhardt, J./ Wang, Yi [2011]:
„Personalizing news websites attracts young readers“, News-paper Research Journal, Vol. 32(4), 22-38
Chen, J./Stallaert, J. [2014]: „An economic analysis of online advertising using behavioral targeting”, in: „MIS Quar-
terly”, Vol. 38 (2), S. 429-A7
Chen, P. P. S. [1976]: „The entity-relationship model - toward a unified view of data", in: „ACM Transactions on Data-
base Systems (TODS)", Vol. 1(1)
Chowdhury, G. [2003]: „Natural language processing“, in: „Annual Review of Information Science and Technology“,
Vol. 37
Chu, C. T./ Kim, S. K./ Lin, Y. A./ Yu, Y./ Bradski, G./ Olukotun, K./ Ng, A. Y. [2007]: „Map-reduce for machine learning
on multicore", in: „Advances in neural information processing systems", S. 281-288
119
Chung, H./ Park, J./ Lee, S. [2017]: „Digital forensic approaches for Amazon Alexa ecosystem“, in: „Digital Investiga-
tion“, Volume 22, S. 15-25, online: http://www.sciencedirect.com/science/article/pii/S1742287617301974 letz-
ter Zugriff: 17.11.2017
Clematide, S./ Sennrich, R. [2008]: „Einführung in die Computerlinguistik“, Institut für Computerlinguistik der Universi-
tät Zürich (Hrsg.), online: https://files.ifi.uzh.ch/cl/siclemat/lehre/hs08/ecl1/script/script.pdf letzter Zugriff:
17.11.2017
Clerwall, C. [2014]: „Enter the Robot Journalist. Users’ perceptions of automated content”, In: „Journalism Practice”,
Vol. 8(5), S. 519-531, doi: 10.1080/17512786.2014.883116
Codd, E. F. [1979]: „Extending the database relational model to capture more meaning", in: „ACM Transactions on
Database Systems (TODS)", Vol. 4(4), 397ff.
Colhoun, D. [2015]: „Is the news behaving more like advertising?“, online: https://www.cjr.org/analysis/news_behav-
ing_more_like_advertising.php letzter Zugriff: 17.11.2017
Collective Intelligence [2018]: „What is Collective[i]?", Collectivei.com, online: https://www.collectivei.com/what-is-
collectivei/ letzter Zugriff: 26.02.2018
Collins, K./ Buchanan, L. (2018): „How Facebook Lets Brands and Politicians Target You", New York Times, online:
https://www.nytimes.com/interactive/2018/04/11/technology/facebook-sells-ads-life-details.html?smid=fb-
nytimes&smtyp=cur letzter Zugriff: 13.04.2018
Constine, J. [2014]: „Datalogix Raises $45 Million Series C To Pipe Offline Purchase Data To Facebook And Twitter“,
Techcrunch, online: https://techcrunch.com/2014/05/28/offline-purchase-data/ letzter Zugriff: 27.02.2018
Content Blockchain [2018a]: „Building Blocks for the Content Community”, online: https://content-blockchain.org/
letzter Zugriff: 02.02.2017
Content Blockchain [2018b]: „Purpose and benefits of the rights profiles from the Content Blockchain Project”, online:
https://content-blockchain.org/newsarchive/2017/09/28/further-development-of-rights-profiles/ letzter
Zugriff: 02.02.2017
Content Blockchain [2018c]: „Launch of Content Blockchain Testnet”, online: https://content-blockchain.org/newsar-
chive/2017/11/12/content-blockchain-goes-multichain/ letzter Zugriff: 02.02.2017
Contentpepper [2017]: „Welches Potenzial hat die Blockchain Technologie für digitale Content-Distribution?“ Online:
https://www.contentmanager.de/cms/contentpepper/welches-potenzial-hat-die-blockchain-technologie-fuer-
digitale-content-distribution/ letzter Zugriff: 02.02.2017
Cordova, D. I./ Lepper, M. R. [1996]: „Intrinsic motivation and the process of learning: Beneficial effects of contextual-
ization, personalization, and choice“, in: „Journal of educational psychology“, Vol. 88(4), S. 715-730
Cornfield, M. [2004]: „Politics Moves Online: Campaigning and the Internet“, New York: The Century Foundation Press
Creditreform Gruppe [o. D.]: „Modulare und wirtschaftliche Bonitätsprodukte“, online: www.boniversum.de/loesun-
gen/produkte/ letzter Zugriff: 27.02.2018
Crowdalyzer [2018]: „Crowdalyzer - Ihr digitaler Reporter für Geschichten aus den sozialen Medien“, online:
https://www.crowdalyzer.com/ letzter Zugriff: 05.01.2018
Cruz, N. [2017]: „Geovanny Antonio Mendez-Gomez, 24“, online: http://homicide.latimes.com/post/geovanny-an-
tonio-mendez-gomez/ letzter Zugriff: 10.01.2018
Dachwitz, I. [2017]: „Wahlkampf in der Grauzone: Die Parteien, das Microtargeting und die Transparenz“, online:
https://netzpolitik.org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/
letzter Zugriff: 16.11.2017
Dambeck, H. [2014]: „Manipulierte Timeline. Facebook kann auf Gefühle seiner Nutzer einwirken“, online:
http://www.spiegel.de/netzwelt/web/facebook-steuert-ueber-manipulierte-timeline-emotionen-seiner-nutzer-
a-973132.html letzter Zugriff: 05.01.2018
Dataiku [2018]: „DDS-Online-Plattform", Daitaku.com, online: https://www.dataiku.com letzter Zugriff: 205.01.2018
Datta, A./ Tschantz, M. C./ Datta, A. [2015]: „Automated Experiments on Ad Privacy Settings“, in: „Proceedings on Pri-
vacy Enhancing Technologies 2015“, (1), S. 65. DOI: 10.1515/popets-2015-0007 letzter Zugriff: 16.11.2017
Davis, C. A./ Varol, O./ Ferrara, E./ Flammini, A./ Menczer, F. [2016]: „BotOrNot: A System to Evaluate Social Bots“, in:
„Proceedings of the 25th International Conference Companion on World Wide Web“, S. 273-274
De Mauro, A./ Greco, M./ Grimaldi, M. [2015]: „What is big data? A consensual definition and a review of key research
topics", in: „AIP conference proceedings", Vol. 1644, No. 1, S. 97-104
120
Dean, J./ Ghemawat, S. [2008]: „MapReduce: simplified data processing on large clusters", in: „Communications of
the ACM", Vol. 51(1)
Decent [2018]: „Where will Decent Take us in 2018?” Online: https://decent.ch/en/where-will-decent-take-us-in-
2018ij/ letzter Zugriff: 02.02.2017
Deloitte [2016]: „Industrielles Internet der Dinge und die Rolle von Telekommunikationsunternehmen. Hype oder ver-
netzte Revolution?“ Online: https://www2.deloitte.com/content/dam/Deloitte/de/Documents/technology-me-
dia-telecommunications/Deloitte_TMT_Industrielles%20Internet%20der%20Dinge.pdf letzter Zugriff:
10.01.2018
Dengel, A. (Hrsg.) [2012]: „Semantische Technologien: Grundlagen – Konzepte – Anwendungen“, Spektrum Akademi-
scher Verlag Heidelberg
Der Tagesspiegel [2016]: „Datenschutzbeauftragte warnt vor Amazon Echo“, online: http://www.pressepor-
tal.de/pm/2790/3468862 letzter Zugriff: 17.11.2017
Desouza, K./ Krishnamurthy, R. [2017]: „Chatbots move public sector toward artificial intelligence“, online:
https://www.brookings.edu/blog/techtank/2017/06/02/chatbots-move-public-sector-towards-artificial-intelli-
gence/ letzter Zugriff: 16.11.2017
Deutsche Post AG [2010-2016]: „Dialogmarketing Deutschland 2010-2018“, Dialog Marketing Monitor Studie 22-28.
Bonn: Deutsche Post
Deutscher Bundestag [2015]: „Gesetz über die politischen Parteien (Parteiengesetz)“, online: https://www.bundes-
tag.de/blob/189336/c8a22a376ea9165443a477101f2352dd/pg_pdf-data.pdf letzter Zugriff: 16.11.2017
Deutscher Bundestag [2017a]: „Service: Virtualer Adler“, online: https://adler.bundestag.de/nmIQ/frage.jsp letzter
Zugriff: 16.11.2017
Deutscher Bundestag [2017b]: „Wirkung von ‚Social Bots‘ ist unter Sachverständigen strittig“, online:
https://www.bundestag.de/dokumente/textarchiv/2017/kw04-pa-bildung-forschung-social-bots/488818 letzter
Zugriff: 16.11.2017
DeVito, M. [2017]: „From Editors to Algorithms“, in: „Digital Journalism“, Vol. 5(6), S. 753-773
Dey, N./ Ashour, A./ Nguyen, G. [2016]: „Deep Learning for Multimedia Content Analysis”. In: Mining Multimedia Doc-
uments
Diakopoulos, N. [2014]: „Algorithmic Accountability: On the Investigation of Black Boxes“, online:
https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investiga-
tion_of_black_boxes.php letzter Zugriff: 16.11.2017
Diakopoulos, N. [2015]: „Algorithmic Accountability: Journalistic investigation of computational power structures“, in:
„Digital Journalism“, Vol. 3(3), S. 398-415
Dick, M. [2016]: „Astroturfing in online comment: An investigation“, in: „Ethical Space: The International Journal of
Communication Ethics“, Vol. 13 (1), S. 32-38
Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit [2017]: „Datenschutz kompakt: Digitale
Sprachassistenten“, online: https://www.bfdi.bund.de/DE/Home/Kurzmeldungen/DSkompakt_Sprachassisten-
ten.html letzter Zugriff: 09.11.2017
Die Medienanstalten [2018]: „Plattformregulierung”, online: https://www.die-medienanstalten.de/themen/platt-
formregulierung/ Letzter Zugriff: 26.02.2018
Diffferent Strategieagentur [2015]: „The Programmatic Giant. Einige Chancen sind zu groß, um sie zu verheimlichen“,
online: https://a.storyblok.com/f/39919/248ffe02d2/diffferent-whitepaper-the-programmatic-giant.pdf letzter
Zugriff: 10.01.2018
Dijcks, J.P. ]2012]: „Oracle: Big data for the enterprise“, Oracle White Paper, online: http://www.oracle.com/us/prod-
ucts/database/big-data-for-enterprise-519135.pdf letzter Zugriff: 02.11.2017
Dobusch, L. [2015]: „Projekt ‚aula‘ sucht Schulen, die mit Liquid Democracy experimentieren wollen“, online:
https://netzpolitik.org/2015/projekt-aula-sucht-schulen-die-mit-liquid-democracy-experimentieren-wollen/
letzter Zugriff: 05.01.2018
Dobusch, L. [2017]: „Die Organisation der Digitalität: Zwischen grenzenloser Offenheit und offener Exklusion“, online:
https://netzpolitik.org/2017/die-organisation-der-digitalitaet-zwischen-grenzenloser-offenheit-und-offener-
exklusion/ letzter Zugriff: 05.01.2018
Dörr, K. N. [2016]: „Mapping the field of Algorithmic Journalism“, in: „Digital Journalism“, Vol.4(6), S. 700-722
121
Dörr, K. N./ Hollnbuchner, K. [2016]: „Ethical Challenges of Algorithmic Journalism“, in: „Digital Journalism“, Vol. 5(4),
S. 404-419
Dörr, K. N./ Köberer, N./ Haim, M. [2017]: „Normative Qualitätsansprüche an algorithmischen Journalismus“, in: Fili-
povic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Diskurs?“, Baden-Baden: Nomos Verlagsgesellschaft
mbH & Co. KG, S. 121-134)
dpa [2017]: „Facebook. Algorithmen sollen selbstständig ,Fake News‘ erkennen“, online: http://www.handels-
blatt.com/technik/it-internet/facebook-algorithmen-sollen-selbststaendig-fake-news-erkennen/20143916.html
letzter Zugriff: 05.01.2018
DS-GVO [2017]: „Datenschutz-Grundverordnung DSGVO", online: https://dsgvo-gesetz.de/ letzter Zugriff: 20.02.2018
Duhigg, C. [2012]: How Companies Learn Your Secrets, online: http://www.nytimes.com/2012/02/19/magazine/shop-
ping-habits.html?pagewanted=1&_r=1&hp letzter Zugriff: 05.01.2018
Easwara Moorthy, A./ Vu, K.-P. L. [2015]: „Privacy Concerns for Use of Voice Activated Personal Assistant in the Public
Space“, in: „International Journal of Human–Computer Interaction“, Vol. 31(4), S. 307-335
Ecke, O. [2016]: „Wie häufig und wofür werden Intermediäre genutzt? Die quantitative Perspektive der Zusatzbefra-
gung in der MedienGewichtungsStudie“, online: https://www.die-medienanstalten.de/fileadmin/user_up-
load/Veranstaltungen/2016/2016_11_30_Intermediaere_und_Meinungsbildung/TNS_Intermediaere_und_Mei-
nungsbildung_Praesi_Web_Mappe.pdf letzter Zugriff: 05.01.2018
Eddy, S. R. [1998]: „Profile hidden Markov models.", in: „Bioinformatics", England: Oxford, Vol. 14(9)
Eder, K. [2000]: „Zur Transformation nationalstaatlicher Öffentlichkeit in Europa. Von der Sprachgemeinschaft zur
issuespezifischen Kommunikationsgemeinschaft“, in: „Berliner Journal für Soziologie“, Vol. 10, S. 167-184
Ekin, A./ Tekalp, A./ Mehrotra, R. [2003]: “Automatic Soccer Video Analysis and Summarization”. in “IEEE Transactions
on Image Processing”, Vol. 12(7), S. 796-807, doi: 10.1109/TIP.2003.812758
eMarketer [2017]: „Alexa, Say What?! Voice-Enabled Speaker Usage to Grow Nearly 130% This Year", eMarketer Re-
search, online: https://www.emarketer.com/Article/Alexa-Say-What-Voice-Enabled-Speaker-Usage-Grow-
Nearly-130-This-Year/1015812 letzter Zugriff: 19.02.2018
EMR - Europäisches Institut für Medienrecht [2018]: Synopse zu den geplanten Änderungen landesrechtlicher Rege-
lungen zur Umsetzung des 21. RÄndStV und der DS-GVO. Ein Beitrag des Instituts für Europäisches Medienrecht
aus Anlass der aktuellen Gesetzgebungsverfahren in den Landesparlamenten. Saarbrücken. Unter: http://emr-
sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsvertrages-und-der-datenschutz-grundverord-
nung-der-eu/ , Letzter Zugriff: 16.04.2018
Entwickler.de [2009]: „Lucene – Ein Suchindex in der Praxis", online: https://entwickler.de/online/lucene-ein-suchin-
dex-in-der-praxis-129799.html letzter Zugriff: 18.01.2018
Erwin, T./ Heidlkamp, P./ Pols, A. [2016]: „Mit Daten Werte Schaffen 2016", KMPG/BITKOM Research Studie, S. 5
Eyal, N. [2014]: „Hooked: Wie Sie Produkte erschaffen, die süchtig machen“, München: Redline Verlag
Facebook [2015]: „Mehr Kontrolle über den News Feed“, online: https://de.newsroom.fb.com/news/2015/07/mehr-
kontrolle-uber-den-news-feed/ Letzter Zugriff: 05.01.2018
Facebook [2017a]: „Facebook bedankt sich bei 2 Milliarden monatlich aktiven Menschen“, online: https://de.news-
room.fb.com/news/2017/06/facebook-bedankt-sich-bei-2-milliarden-monatlich-aktiven-menschen/ Letzter Zu-
griff: 05.01.2018
Facebook [2017b]: „Umgang mit Falschmeldungen", Facebook newsroom, online: https://de.news-
room.fb.com/news/2017/01/umgang-mit-falschmeldungen/ letzter Zugriff: 20.02.2018
Fanta, A. [2017]: „Putting Europe’s Robots on the Map: Automated journalism in news agencies“, Reuters Institute
Fellowship Paper, Oxford, UK, online: http://reutersinstitute.politics.ox.ac.uk/our-research/putting-europes-
robots-mapautomated-journalism-news-agencies letzter Zugriff: 17.11.2017
Ferdinand, J.-P./ Jetzke, T. [2017]: „Voice Computing – allgegenwärtige Spracherkennung“, Büro für Technikfolgen-
Abschätzung beim Deutschen Bundestag, online: http://www.tab-beim-bundestag.de/de/pdf/publikatio-
nen/themenprofile/Themenkurzprofil-015.pdf letzter Zugriff: 09.11.2017
Ferrara, E./ Varol, O./ Davis, C./ Menczer, F./ Flammini, A. [2017]: „The rise of social bots“, in: „Communications of the
ACM“, Vol. 59 (7), S.96-104
Fiegermann, S. [2018]: „Facebook to shut down M, its personal assistant", CNN Money, online:
http://money.cnn.com/2018/01/08/technology/facebook-m-shuts-down/index.html letzter Zugriff: 23.01.2018
122
Fingas, J. [2017]: „Apple's AI acquisition could help Siri make sense of your data“, online: https://en-
gadget.com/2017/05/13 letzter Zugriff: 17.11.2017
Finger, L. [2015]: „Do Evil - The Business Of Social Media Bots“, in: Forbes Magazine, online:
https://www.forbes.com/sites/lutzfinger/2015/02/17/do-evil-the-business-of-social-media-
bots/#77e65d19fb58 letzter Zugriff: 16.11.2017
Fitschen & Maaß Consulting [2017]: „Chatbots und Social bots", Report für die Developer Week, Neue Mediengesell-
schaft Ulm
Fletcher, R./ Nielsen, R. K. [2016]: „Is social media use associated with more or less diverse news use?“, Reuters Insti-
tute of Journalism, online: https://rasmuskleisnielsen.net/2016/11/25/is-social-media-use-associated-with-
more-or-less-diverse-news-use/ letzter Zugriff: 16.11.2017
Fluid.AI [2018], „All that works for you”, online: http://fluid.ai/index.php letzter Zugriff: 26.02.2018
Forelle, M./ Howard, P./ Monroy-Hernández, A./ Savage, S. [2015]: „Political Bots and the Manipulation of Public
Opinion in Venezuela“, in: „SSRN Electronic Journal“, online: https://pa-pers.ssrn.com/sol3/papers.cfm?ab-
stract_id=2635800 letzter Zugriff: 16.11.2017
Frank, B.H. [2017]: „Google Brain chief: Deep learning takes at least 100,000 examples", Venturebeat, online:
https://venturebeat.com/2017/10/23/google-brain-chief-says-100000-examples-is-enough-data-for-deep-
learning/ letzter Zugriff: 19.01.2018
Freedom House [2017]: „Freedom on the Net 2017 - Manipulating Social Media to Undermine Democracy", Freedom
House, online: https://freedomhouse.org/report/freedom-net/freedom-net-2017 letzter Zugriff: 20.02.2018
Fröhlich, C. [2016]: Empfehlung des Algorithmus. Netflix weiß, was ich gucken will? Von wegen! Online:
https://www.stern.de/digital/online/netflix--der-algorithmus-ist-einfach-nicht-clever-genug-7072324.html letz-
ter Zugriff: 05.01.2018
Fuchs, M. [2016]: „Roboter manipulieren den Wahlkampf“, MDR.de, online: http://www.mdr.de/nachrichten/poli-
tik/inland/social-bots-twitter-afd-spd-100.html letzter Zugriff: 16.11.2017
Fuchs, M. [2017]: „Bundestagswahl: Chatbots und Tinder sind die neuen Wahlhelfer“, online: https://www.nzz.ch/in-
ternational/chatbots-und-tinder-sind-die-neuen-wahlhelfer-ld.1317126 letzter Zugriff: 16.11.2017
Gada, M. [2017]: “Introducing Video Indexer, a cloud service to unlock insights from your videos”, online: https://az-
ure.microsoft.com/de-de/blog/introducing-video-indexer-a-cloud-service-to-unlock-insights-from-your-videos/
letzter Zugriff: 10.01.2018
Gagvani, N. [2008]: “Introduction to video analytics”, online: https://www.eetimes.com/docu-
ment.asp?doc_id=1273834 letzter Zugriff: 10.01.2018
Gales, M./ Young, S. [2008]: „The application of hidden Markov models in speech recognition", in: „Foundations and
trends in signal processing", Vol. 1(3)
Gartner [2015]: “Newsroom. Gartner Says 6.4 Billion Connected ,Things’ Will Be in Use in 2016, Up 30 Percent From
2015”, Online: https://www.gartner.com/newsroom/id/3165317 letzter Zugriff: 10.01.2018
Gartner [2016a]: „Gartner says Digital Assistants will serve as the primary interface to the Connected Home“, online:
https://www.gartner.com/newsroom/id/3352117 letzter Zugriff: 17.11.2017
Gartner [2016b]: „Gartner says by 2019, 20 percent of user interactions with smartphones will take place via VPAs“,
online: https://www.gartner.com/newsroom/id/3551217 letzter Zugriff: 17.11.2017
Gartner Inc. Customer 360 Summit [2011]: „CRM Strategies and Technologies to Understand, Grow and Manage Cus-
tomer Experiences“, Gartner Inc., online: https://www.gartner.com/imagesrv/summits/docs/na/customer-
360/C360_2011_brochure_FINAL.pdf letzter Zugriff: 20.02.2018
Geminn, Christian L. [2016]: „Das Smart Home als Herausforderung für das Datenschutz-recht“, in: „Datenschutz und
Datensicherheit“, Vol. 40(9), S. 575-580
Gerhards, J. [2002]: „Das Öffentlichkeitsdefizit der EU im Horizont normativer Öffentlichkeits-theorien“, in: Kaelble,
H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öffentlichkeiten und Identitäten im 20. Jahrhundert“,
Frankfurt/New York: Campus Verlag, S.135-158
GfK [2017]: „Three-quarters of US consumers have used voice commands to operate digital devices“, online:
http://www.gfk.com/en-us/insights/press-release/three-quarters-of-usconsumers-have-used-voice-commands-
to-operate-digital-devices-gfk/ letzter Zugriff: 17.11.2017
123
Ghemawat, S./ Gobioff, H./ Leung, S.-T. [2003]: „The Google File System", Google Research Publication, in: 19th ACM
Symposium on Operating Systems Principles, online: https://static.googleusercontent.com/media/re-
search.google.com/de//archive/gfs-sosp2003.pdf letzter Zugriff: 18.01.2018
Ghulati, D. [2016]: „Introducing Factmata — Artificial intelligence for political fact-checking", Medium, online:
https://medium.com/factmata/introducing-factmata-artificial-intelligence-for-political-fact-checking-db8ac-
dbf4cf1 letzter Zugriff: 08.01.2018
Gillner, S. [2017]: „BVDW-Prognose. Anteil von Programmatic Advertising in Deutschland wächst auf 45 Prozent“, on-
line: https://www.internetworld.de/onlinemarketing/programmatic-advertising/anteil-programmatic-adverti-
sing-in-deutschland-waechst-45-prozent-1222832.html Letzter Zugriff: 05.01.2018
Goldberg, D./Nichols, D./Oki, B./Terry, D. [1992]: „Using collaborative filtering to weave an information tapestry”, in:
„Communications of the ACM”, Vol. 35(12) 35, S. 61-70, doi: 10.1145/138859.138867
Goldsborough, R. [2017]: „Understanding Facebook's News Feed”, in: „Teacher Librarian”, Vol. 44, S. 61
Gomez-Uribe, C./Hunt, N. [2016]: „The Netflix Recommender System: Algorithms, Business Value, and Innovation”, in:
„ACM Transactions on Management Information Systems”, Vol.6(4), S. 1-19, doi: 10.1145/2843948
Gondorf, L./ Bott, G. [2017]: „Kann diese Big-Data-Agentur Wahlen beeinflussen?“, online: https://www.marco-
nomy.de/live/articles/591772/ letzter Zugriff: 16.11.2017
Gonzalez, R. J. [2017]: „Hacking the citizenry? Personality profiling, „big data“ and the election of Donald Trump“, in:
„Anthropology Today“, Vol. 33(3)
Goode, L. [2016]: „Amazons smartphone flop was the best thing that happened to Alexa“, online: https://www.thev-
erge.com/2016/3/3/11157394/amazon-alexa-fire-phone-failure-echosuccess-smart-home letzter Zugriff:
17.11.2017
Goodfellow, I./ Bengio, Y./ Courville, A. [2016]: „Deep Learning“, MIT press, S. 327-339
Goodman, E. [2016]: „Editors vs. algorithms: Who do you want choosing your news?“, Reu-ters Institute of Journal-
ism, online: http://reutersinstitute.politics.ox.ac.uk/risj-review/editors-vs-algorithms-who-do-you-want-choos-
ing-your-news letzter Zugriff: 16.11.2017
Google DNI Innovation Fund [2017]: „DNI Fund Annual Report 2016/2017", Google DNI, online: https://digitalnewsi-
nitiative.com/dni-fund/innovation-fund-report-2016-2017/ letzter Zugriff: 17.11.2017
Google DNI Projects [2018]: „DNI Funded Projects“, Google DNI, online: https://digitalnewsinitiative.com/dni-pro-
jects/ letzter Zugriff: 17.11.2017
Google DNI 1 [2018]: „FAZ9”, Google DNI, online: https://digitalnewsinitiative.com/news/case-study-personalising-
mobile-news/ letzter Zugriff: 26.02.2018
Google DNI 2 [2018]: „Act2Acess”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/playwall-new-
way-pay-journalism-round-4/ letzter Zugriff: 26.02.2018
Google DNI 3 [2018]: „Journalism First”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/journal-
ism-first/ letzter Zugriff: 26.02.2018
Google Trends [2018]: „Vergleich des Suchvolumens nach Datenbankmanagementsystemen "MySQL", "Apache Ha-
doop", "MongoDB", "PostgreSQL", "Apache Hive", online: https://trends.google.de/trends/ex-
plore?q=%2Fm%2F04y3k,%2Fm%2F0fdjtq,MongoDB,%2Fm%2F05ynw,%2Fm%2F0g55vt5 letzter Zugriff:
18.01.2018
Graefe, A. [2016]: „Guide to Automated Journalism”. Columbia Journalism School. Tow Center for Digital Journalism,
online: https://academiccommons.columbia.edu/catalog/ac:s4mw6m907n letzter Zugriff: 10.01.2018
Graefe, A./ Haim, M./ Haarmann, B./ Brosius, H.-B. [2016]: „Readers´ perception of computergenerated news: Credi-
bility, expertise, and readability“, in: „Journalism“, SAGE, S. 1-16, online:
https://doi.org/10.1177/1464884916641269 letzter Zugriff: 17.11.2017
Graff, B. [2016]: „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“, online: http://www.sueddeut-
sche.de/digital/microsoft-programm-tay-rassistischer-chat-roboter-mit-falschen-werten-bombardiert-
1.2928421 letzter Zugriff: 16.11.2017
Grassegger, H./ Krogerus, M. [2016]: „Ich habe nur gezeigt, dass es die Bombe gibt“, in: Das Magazin, online:
https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ letzter Zugriff:
16.11.2017
124
Guérin, E./ Digne, J./ Galin, E./ Peytavie, A./ Wolf, C./ Benes, B./ Martinez, B. [2017]: „Interactive Example-Based Ter-
rain Authoring with Conditional Generative Adversarial Networks”, in: „ACM Transactions on Graphics”, Vol. 36,
S. 1-13, doi: 10.1145/3130800.3130804
Guo, Y./Wang, M./Li, X. [2017]: „An Interactive Personalized Recommendation System Using the Hybrid Algorithm
Model”, in: „Symmetry”, Vol. 9(10), S. 1-17, doi: 10.3390/sym9100216
Gutierrez, D. [2016]: „The Games Industry’s Journey Into Deep-Data”, online: https://in-
sidebigdata.com/2016/11/18/the-games-industrys-journey-into-deep-data/ letzter Zugriff: 10.01.2018.
H2O.AI [2018], online: https://www.h2o.ai/ letzter Zugriff: 26.02.2018
Haack, W./ Severance, M./ Wallace, M./ Wohlwend, J. [2017]: „Security Analysis of the Amazon Echo“, online:
https://courses.csail.mit.edu/6.857/2017/project/8.pdf letzter Zugriff: 17.11.2017
Habermas, J. [1990]: „Strukturwandel der Öffentlichkeit“, Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft
Hahn, O./ Hohlfeld, R./ Knieper, T. [2015]: „Einführung: Digitale Öffentlichkeit – Digitale Öffentlichkeiten“, in: Hahn,
O./ Hohlfeld, R./ Knieper, T. (Hrsg.): „Digitale Öffentlichkeit(en)“, Köln: Herbert von Halem Verlag, S. 11-18
Haim, M./ Graefe, A. [2017]: „Automated News: Better than expected?“, in: „Digital Journalism“, Vol. 5(8), S. 1044-
1059
Haim, M./ Graefe, A./ Brosius, H.-B. [2017]: „Burst of the Filter Bubble? Effects of personalization on the diversity of
Google News“, in: „Digital Journalism“, S. 1-14
Halevy, A./ Norvig, P./ Pereira, F. [2009]: „The unreasonable effectiveness of data.", in: „IEEE Intelligent Systems", Vol.
24(2)
Handelsblatt (2018): „So informiert Facebook die Nutzer nach dem Datenskandal", Handelsblatt, online:
http://www.handelsblatt.com/unternehmen/it-medien/cambridge-analytica-so-informiert-facebook-die-nut-
zer-nach-dem-datenskandal/21160608.html letzter Zugriff: 13.04.2018
Hank, R./ Meck, G. (2016): „Roboter in der Wirtschaft: Millionen Jobs fallen weg", FAZ Online, online:
http://www.faz.net/aktuell/wirtschaft/weltwirtschaftsforum/roboter-in-der-wirtschaft-millionen-jobs-fallen-
weg-14018180.html letzter Zugriff: 12.02.2018
Hardt, M. [2014]: „How big data is unfair“, online: https://medium.com/@mrtz/how-big-data-is-unfair-9aa544d739de
letzter Zugriff: 16.11.2017
Hastie, T./ Tibshirani, R./ Friedman, J. (Hrsg.) [2009]: „Overview of supervised learning“, in: „The elements of statisti-
cal learning“, New York: Springer
Haufe Online Redaktion (2017): „Kritik am geplanten Datenschutzrecht reißt nicht ab", Haufe Online, online:
https://www.haufe.de/compliance/recht-politik/kritik-am-geplanten-neuen-datenschutzrecht-reisst-nicht-
ab_230132_397048.html letzter Zugriff: 13.04.2018
HDE [2018]: „Umsatz durch E-Commerce (B2C) in Deutschland in den Jahren 1999 bis 2016 sowie eine Prognose für
2017 (in Milliarden Euro)“, online: https://de.statista.com/statistik/daten/studie/3979/umfrage/e-commerce-
umsatz-in-deutschland-seit-1999/ letzter Zugriff: 05.01.2018
Hecht-Nielsen, R. [1988]: „Theory of the backpropagation neural network", in: „Neural Networks", Vol. 1 (Supple-
ment-1)
Hegelich, S. [2016]: „Social-Bots: Invasion der Meinungs-Roboter“, online: https://www.mebis.bayern.de/infopor-
tal/empfehlung/social-bots-invasion-der-mei-nungs-roboter/ letzter Zugriff: 16.11.2017
Hegelich, S./ Janetzko, D. [2016]: „Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian So-
cial Botnet“, in: „Proceedings of the Tenth International AAAI Conference on Web and Social Media (ICWSM
2016)“, S. 579-582
Heinrich-Böll-Stiftung [2017]: „Filter Bubble – Echokammer – Fake News“, online:
https://www.boell.de/de/2017/02/08/filter-bubbleechokammer-fake-news letzter Zugriff: 17.11.2017
Hempel, J. [2017]: „Eli Pariser predicted the Future. Now he can't escape It”, online:
https://www.wired.com/2017/05/eli-pariser-predicted-the-future-now-he-cant-escape-it/ letzter Zugriff:
05.01.2018
Herrman, J. [2016]: „As Online Video Surges, Publishers Turn to Automation”, online: https://www.ny-
times.com/2016/07/11/business/media/as-online-video-surges-publishers-turn-to-automation.html letzter
Zugriff: 10.01.2018
125
Holland, M. [2014]: „Quakebot schreibt erste Meldung zum Erdbeben in Los Angeles“, online:
https://www.heise.de/newsticker/meldung/Quakebot-schreibt-erste-Meldung-zum-Erdbeben-in-Los-Angeles-
2149156.html letzter Zugriff: 10.01.2018
Holland, M. [2017]: „US-Wahlmanipulation: Werbeanzeigen russischer Trolle veröffentlicht", Heise Online, online:
https://www.heise.de/newsticker/meldung/US-Wahlmanipulation-Werbeanzeigen-russischer-Trolle-veroeffent-
licht-3877245.html?hg=1&hgi=10&hgf=false letzter Zugriff: 23.01.2018
Holtel, S. [2017]: „Künstliche Intelligenz verstehen als Automation des Entscheidens - Leitfaden", im Auftrag der BIT-
KOM, online: https://www.bitkom.org/noindex/Publikationen/2017/Leitfaden/Bitkom-Leitfaden-KI-verstehen-
als-Automation-des-Entscheidens-2-Mai-2017.pdf letzter Zugriff: 20.02.2018
Hoofd, I. [2015]: „Data Mining Research and the Disintegration of Society: The ‚Project X‘ Haren Riots“, in: Langlois, G.
(Hrsg.) / Redden, J./ Elmer, G.: „Compromised Data. From Social Media to Big Data“, New York: Bloomsbury Aca-
demic
Horn, D. [2016]: „So nutzt ihr Facebook ohne Algorithmus“, online: https://blog.wdr.de/digitalistan/facebook-ohne-
algorithmus/ letzter Zugriff: 05.01.2018
Howard, P. N./ Kollanyi, B. [2016]: „Bots, #Strongerin, and #Brexit: Computational Propagan-da During the UK-EU Ref-
erendum“, in: „SSRN Electronic Journal“, online: https://ssrn.com/ab-stract=2798311 letzter Zugriff: 16.11.2017
Hurtz, S. [2017]: „Auch AfD-Anhänger liken ‚Mainstream-Medien‘“, online: http://www.sueddeutsche.de/digital/face-
book-auch-afd-anhaenger-liken-mainstream-medien-1.3481913, zuletzt aktualisiert am 03.05.2017 letzter Zu-
griff: 16.11.2017
IAB Spain [2014]: „Programmatic Buying Ecosystems“, IAB, online: https://www.addiliate.com/real-time-bidding/ letz-
ter Zugriff: 06.02.2018
IDC [2012]: „Big Business dank Big Data? Neue Wege des Datenhandlings und der Datenanalyse in Deutschland 2012",
n=130, IDC Research, online: http://idc.de/de/ueber-idc/press-center/56528-idc-studie-big-data-in-deutsch-
land-2012-unternehmen-stehen-noch-ganz-am-anfang letzter Zugriff: 22.01.2018
IFRA World Publishing Expo/ DCX Digital Content Expo [2017]: „Medien & Automatisierung. Künstliche Intelligenz und
Roboterjournalismus erobern Content-Markt“, Pressemitteilung IFRA und DCX 2017, Nr. 10, Frankfurt am Main,
4. Oktober 2017, online: http://www.ifra-expo.com/fileadmin/user_upload/IFRA-DCX_2017_PM10_Pressemit-
teilung_KI.pdf letzter Zugriff: 10.01.2018
Inhoffen, L. [2017]: „Zweifel an digitalen Assistenten: Skeptiker überzeugen“, online: https://y-
ougov.de/news/2017/05/18/zweifel-digitalen-assistenten-skeptikeruberzeugen/ letzter Zugriff: 17.11.2017
Intel Peer Research [2012]: „Big Data Analytics - Intel’s IT Manager Survey on How Organizations Are Using Big Data“,
Intel IT Center Report, S. 5, online: https://www.intel.com/content/dam/www/public/us/en/documents/re-
ports/data-insights-peer-research-report.pdf, letzter Zugriff: 02.11.2017
iRights.Lab [2018]: „Startschuss für das Content Blockchain Project“, online: https://irights-lab.de/startschuss-fuer-
das-content-blockchain-project/ letzter Zugriff: 02.02.2017
Jacobsson Purewal, J. [2016]: „The difference between Google Now and Google Assistant“, online:
https://www.cnet.com/how-to/the-difference-between-google-now-and-google-assistant/ letzter Zugriff:
17.11.2017
Jaderberg, M./ Simonyan, K./ Vedaldi, A. /Zisserman, A. [2014]: „Synthetic Data and Artificial Neural Networks for
Natural Scene Text Recognition”, University of Oxford, online: arXiv:1406.2227v4 letzter Zugriff: 05.04.2018
Jannasch, S. [2016]: „Digitaler Journalismus. Sie sind jung und brauchen das Geld“, online: http://www.sueddeut-
sche.de/medien/digitaler-journalismus-sie-sind-jung-und-brauchen-das-geld-1.3213397 letzter Zugriff:
05.01.2018
Jarren, O. [1998]: „Medien, Mediensystem und politische Öffentlichkeit im Wandel“, in: Sarcinelli, U. (Hrsg.): „Politik-
vermittlung und Demokratie in der Mediengesellschaft“, Schriftenreihe der Bundeszentrale für politische Bil-
dung, Bonn, Vol. 352, VS Verlag für Sozialwissenschaften, S. 74-94
Johnsen, C./ Newett, E. [2015]: „From Idea to Execution: Spotify's Discover Weekly. Or: 5 Lessons In Building Recom-
mendations Products at Scale”, online: https://www.slideshare.net/MrChrisJohnson/from-idea-to-execution-
spotifys-discover-weekly/1 letzter Zugriff: 10.01.2018
Johnson, D. W. [2016]: „Campaigning in the Twenty-First Century. Activism, Big Data, and Dark Money“ New York:
Routledge
126
Jung, J./ Niemeyer, S. [2017]: „Künstliche Intelligenz im Tourismus“, online: http://labor.neusta-etourism.de/ebook/e-
book-chatbots-neusta.pdf (S. 3-51), letzter Zugriff: 16.11.2017
Jung, J./ Song, H./ Kim, Y./ Im, H./ Oh, S. [2017]: „Intrusion of software robots into journalism: The public's and jour-
nalists' perceptions of news written by algorithms and human journalists“, in: „Computers in Human Behavior“,
Vol. 71, S. 291-298
Jungherr, A. [2017]: „Datengestützte Verfahren im Wahlkampf“, online: https://www.researchgate.net/publica-
tion/314260837_Datengestutzte_Verfahren_im_Wahlkampf letzter Zugriff: 16.11.2017
Jüngling, T. [2013a]: „Der Siegeszug von Big Data", Die WELT, online: https://www.welt.de/print/die_welt/wirt-
schaft/article114129164/Der-Siegeszug-von-Big-Data.html letzter Zugriff: 22.01.2018
Jüngling, T. [2013b]: „Was Datenbroker alles über uns wissen", Die WELT, online: https://www.welt.de/wirt-
schaft/webwelt/article117098272/Was-die-Datenbroker-alles-ueber-uns-wissen.html letzter Zugriff: 26.02.2018
Jüngling, T. [2015]: „Die unheimliche Manipulation durch Robot-Herden“, Die WELT, online:
https://www.welt.de/wirtschaft/webwelt/article149665357/Die-unheimliche-Manipulation-durch-Robot-Her-
den.html letzter Zugriff: 16.11.2017
Jürgens, P./ Jungherr, A. [2011]: „Wahlkampf vom Sofa aus: Twitter im Bundestagswahl-kampf 2009“, in: Schweitzer,
E. J./ Albrecht, S. (Hrsg.): „Das Internet im Wahlkampf. Analysen zur Bundestagswahl 2009“, Wiesbaden: VS Ver-
lag, S. 201-225
Jürgens, P./ Jungherr, A. [2015]: „The Use of Twitter during the 2009 German National Election“, in: „German Poli-
tics“, Vol. 24(4), S. 469-490, online: http://dx.doi.org/10.1080/09644008.2015.1116522 letzter Zugriff:
16.11.2017
Jürgens, P./ Jungherr, A./ Schoen, H. [2011]: „Small Worlds with a Difference: New Gatekeepers and the Filtering of
Political Information on Twitter“, in: „Proceedings of the 3rd International Web Science Conference“, S. 1-5
Just, N./ Latzer, M. [2016]: „Governance by algorithms. Reality construction by algorithmic se-lection on the Internet“,
in: „Media, Culture & Society“, Vol. 39 (2), S. 238-258, online: DOI: 10.1177/0163443716643157 letzter Zugriff:
16.11.2017
Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. [2002]: „Zur Entwicklung transnationaler Öffentlichkeiten und Identitäten
im 20. Jahrhundert. Eine Einleitung“, in: Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öf-
fentlichkeiten und Identitäten im 20. Jahrhundert“, Frankfurt/New York: Campus Verlag, S. 7-33
Kafsack, H. (2015): „Neue EU-Datenschutzregeln - Im Tausch gegen Daten", Frankfurter Allgemeine Zeitung, online:
http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-taugt-die-eu-datenschutz-verordnung-
13972055.html letzter Zugriff: 13.04.2018
Kaggle [2018]: „Kaggle Datasets", Kaggle.com, online: https://www.kaggle.com/datasets letzter Zugriff: 27.02.2018
Kay, M./ Matuszek, C./ Munson, S. [2015]: „Who's a CEO? Google image results can shift gender biases“, University of
Washington, online: https://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php letzter Zugriff:
16.11.2017
Käfer, A. (2017): „Kritik an neuer EU-Norm - Datenschutz wird europaweit verschärft", Stuttgarter Zeitung, online:
https://www.stuttgarter-zeitung.de/inhalt.kritik-an-neuer-eu-norm-datenschutz-wird-europaweit-ver-
schaerft.c1e267a2-7214-4406-8811-3ed40a2f002b.html letzter Zugriff: 13.04.2018
Keegan, J. [2016]: „Blue Feed, Red Feed - See Liberal Facebook and Conservative Facebook, Side by Side", Wall Street
Journal Analyse, online: http://graphics.wsj.com/blue-feed-red-feed/#methodology letzter Zugriff: 08.01.2018,
nach: Bakshy, E./ Messing, S./ Adamic, L. [2015]: „Replication Data for: Exposure to Ideologically Diverse News
and Opinion on Facebook”, http://dx.doi.org/10.7910/DVN/LDJ7MS, Harvard Dataverse, V2
Keller, G./ Schlieter, K. [2017]: „Microtargeting im Bundestagswahlkampf. Nah am Wähler und anfällig für Manipula-
tion“, online: http://www.berliner-zeitung.de/28137412 letzter Zugriff: 16.11.2017
Keyling, T. [2017]: „Kollektives Gatekeeping. Die Herstellung von Publizität in Social Media“, Wiesbaden: Springer VS
Kiefer, K. L. [1998]: „Die ökonomischen Zwangsjacken der Kultur. Wirtschaftliche Bedingungen der Kulturproduktion
und -distribution durch Massenmedien“, in: Saxer, U. (Hrsg.): „Medien-Kulturkommunikation“, Publizistik Son-
derheft 2, Opladen/Wiesbaden: Westdeutscher Verlag, S. 97-114
Kind, S./ Bovenschulte, M./ Ehrenberg-Silies, S./ Jetzke, T./ Weide, S. [2017]: „Social Bots“, TAB, online:
https://www.tab-beim-bundestag.de/de/aktuelles/20161219/Social%20Bots_Thesenpapier.pdf letzter Zugriff:
16.11.2017
127
Kinsella, B. [2017]: „There are Now 20,000 Amazon Alexa Skills in the U.S.", VoiceBot.ai, online: https://www.voice-
bot.ai/2017/09/03/now-20000-amazon-alexa-skills-u-s/ letzter Zugriff: 26.02.2018
Klotz, A. [2017]: „Wie Sprachassistenten das Einkaufen verändern“, in: „Digital Publishing Report“, Vol. 8, S. 12-16,
online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter Zugriff: 17.11.2017
Kocks, J.N. [2016]: „Political Media Relations Online as an Elite Phenomenon“, Wiesbaden: Springer VS
Kohler, D./ Jurafsky, D. (Machine Learning TV) [20.01.2017]: „Template Models: Hidden Markov Models – Stanford
University", YouTube, Zeit: 05:52-06:52, online: https://www.youtube.com/watch?v=mNSQ-prhgsw, letzter Zu-
griff: 11.01.2018
Köhler, E. [2017]: „Siri, Cortana, Alexa: Warum sind Sprachassistenten Frauen?“, online: http://www.n-joy.de/Siri-
Cortana-Alexa-Warum-Sprachassistenten-Frauen-sind,sprachassistenten100.html letzter Zugriff: 17.11.2017
Kollanyi, B./ Howard, P./ Woolley, S. C. [2016]: „Bots and Automation over Twitter during the U.S. Election (COMPROP
DATA MEMO No. 2016/4)“, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2016/11/Data-
Memo-US-Election.pdf letzter Zugriff: 16.11.2017
Kollmann, T. [2015]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/personali-
sierung.html letzter Zugriff: 10.11.2017
Kollmann, T. [2017a]: „Definition – Collaborative Filtering“, online: http://wirtschaftslexikon.gabler.de/Definition/col-
laborative-filtering.html letzter Zugriff: 17.11.2017
Kollmann, T. [2017b]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/persona-
lisierung.html letzter Zugriff: 17.11.2017
Kraft, T./Gamer, M./Laessing, M./Zweig K. [2017]: „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-
Suchen zur Bundestagswahl 2017“, online: https://www.die-medienanstalten.de/fileadmin/user_up-
load/die_medienanstalten/Service/Pressemitteilungen/Anlage_PM_15-2017_Forschungsprojekt_Daten-
spende_Zwischenbericht.pdf letzter Zugriff: 05.01.2018
Kramer, A./Guillory, J./Hancock, J. [2014]: „Experimental evidence of massive-scale emotional contagion through so-
cial networks”, in: „Proceedings of the National Academy of Sciences of the United States of America”, Vol. 111
(24), S. 8788-8790, doi: 10.1073/pnas.1412583111
Kramliczek, P. [2017]: „Parteien und fragwürdige Follower“; online: http://www.br.de/nachrichten/faktencheck/twit-
ter-wahlkampf-analyse-der-parteien-100.html letzter Zugriff: 16.11.2017
Kreil, M. [2017]: „ Social Bots, Fake News und Filterblasen”. Chaos Communication Congress (CCC), Leipzig, online:
https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen#t=101 letzter Zugriff: 05.01.2018.
Krempl, S. (2017): „'Missing Link': Manipulation, Meinungsfreiheit und Propaganda bei Facebook & Co.", Heise Online,
online: https://www.heise.de/newsticker/meldung/Missing-Link-Manipulation-Meinungsfreiheit-und-Propa-
ganda-bei-Facebook-Co-3861634.html letzter Zugriff: 12.02.2018
Królikowski, A./ Loebel, J.-M. [2017]: „Fake-News – Können Algorithmen Menschen manipulieren?“, in: „Informatik
Spektrum“, Vol. 40 (4), S. 367-370, online: DOI: 10.1007/s00287-017-1060-3 letzter Zugriff: 16.11.2017
Künzler, M. [2013]: „Mediensystem Schweiz“, Konstanz: UVK
Künzler, M. [2016]: „Befreien Digitalisierung und Automatisierung den Journalismus aus der Zwangsjacke der Kultu-
rökonomie?“, in: Jarren, O./ Steininger, C. (Hrsg.): „Journalismus jenseits von Markt und Staat“, Baden-Baden:
Nomos Verlagsgesellschaft mbH & Co. KG, S. 219-226
Lanz, M. [2017]: „Algorithmen produzieren wertlose Bits & Bytes“, online: https://www.wuv.de/digital/algorith-
men_produzieren_wertlose_bits_bytes letzter Zugriff: 10.01.2018
Lapides, P./ Chokshi, A./ Carpendale, S./ Greenberg, S. [2015]: „News Feed: What's in it for Me?“, in: „Proceedings of
the 33rd Annual ACM Conference on Human Factors in Computing Systems“, New York: ACM, S. 163-172
Latzer, M./ Hollnbuchner, K./ Just, N./ Saurwein, F. [2014]: „The economics of algorithmic Se-lection on the Internet“,
in: Bauer, J. M./ Latzer, M. (Hrsg.): „Handbook on the Economics of the Internet“, Cheltenham: Edward Elgar
Publishing, S. 395-425
Lauerer, C./ Steindl, N./ Hanitzsch, T./ Dingerkus, F./ Wyss, V./ Lohmann, M. I./ Seethaler, J. [2017]: „Alarmierende
Verhältnisse oder viel Lärm um Nichts? Ökonomischer Druck auf Journalisten in Medienunternehmen in
Deutschland, Österreich und der Schweiz“, in: Filipovic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Dis-
kurs?“, Baden-Baden: Nomos Verlagsgesellschaft mbH & Co. KG, S. 199-218
128
Lazcorreta, E./Botella, F./Fernández-Caballero, A. [2008]: „Towards personalized recommendation by two-step modi-
fied Apriori data mining algorithm”, in: „Expert Systems with Applications”, Vol. 35, S. 1422-1429, doi:
10.1016/j.eswa.2007.08.048
Lecompte, C. [2015]: „Automation in the Newsroom. How algorithms are helping reporters expand coverage, engage
audiences, and respond to breaking news. “, in: „Nieman Reports“, S. 32-45, online: http://niemanre-
ports.org/articles/automation-in-the-newsroom/ letzter Zugriff: 16.11.2017
LeCun, Y./ Bengio, Y./ Hinton, G. [2015]: „Deep Learning", in: „Nature", Vol. 521(7553)
Lederer, R. [2017]: „Sprachassistenten und Datenschutz. Sprachassistenten – Techniklust oder Datenschutzfrust?“
online: https://www.dsinblog.de/2017/06/21/sprachassistenten-techniklust-oder-datenschutzfrust/ letzter Zu-
griff: 17.11.2017
Lee, P. [2016]: „Learning from Tay’s introduction", Official Microsoft Blog Beitrag von Peter Lee, Corporate Vice Presi-
dent, Micsoroft AI & Research, online: https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduc-
tion/ letzter Zugriff: 23.01.2018 über: Novet, J. (2016): „Microsoft exec apologizes for Tay chatbot’s racist
tweets, says users ‘exploited a vulnerability’", Venture Beat, online: https://venturebeat.com/2016/03/25/mi-
crosoft-exec-apologizes-for-tay-chatbots-racist-tweets-says-users-exploited-a-vulnerability/ letzter Zugriff:
23.01.2018
Leitner, M. [2017]: „Wenn Roboter Journalismus machen“, online: https://futurezone.at/digital-life/wenn-roboter-
journalismus-machen/271.239.810 letzter Zugriff: 10.01.2018
Lenz, J. [2017]: „Chatbots sind besser als ihr Ruf“, online: https://www.wuv.de/digital/chatbots_sind_bes-
ser_als_ihr_ruf letzter Zugriff: 16.11.2017
Lenzen, M [2018]: „,Angriff der Algorithmen': Mitgefangen, mitgehangen", Frankfurter Allgemeine Zeitung, online:
http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/lesenswert-angriff-der-algorithmen-von-
cathy-o-neil-15375371.html letzter Zugriff: 20.02.2018
Les Décodeurs [2018]: „Décodex“, Le Monde, online: http://www.lemonde.fr/verification/ letzter Zugriff: 08.01.2018
Levine, Y. [2013]: „What Surveillance Valley knows about you“, Pando, online: https://pando.com/2013/12/22/a-
peek-into-surveillance-valley/ letzter Zugriff: 27.02.2018
Lewin, K. [1947]: „Frontiers in Group Dynamics. II. Channels of Group Life; Social Planning and Action Research“, in:
„Human Relations“, Vol. 1 (2), S. 143-153, online: DOI: 10.1177/0018726747 letzter Zugriff: 16.11.2017
Li, F.-F. [2017]: „Announcing Google Cloud Video Intelligence API, and more Cloud Machine Learning updates”, online:
https://cloud.google.com/blog/big-data/2017/03/announcing-google-cloud-video-intelligence-api-and-more-
cloud-machine-learning-updates letzter Zugriff: 10.01.2018
Liang, T. P./ Lai, H. J./ Ku, Y. C. [2006]: „Personalized content recommendation and user satisfaction: Theoretical syn-
thesis and empirical findings“, in: „Journal of Management In-formation Systems“, Vol. 23(3), S. 45-70
Liddy, E. D. [2001]: „Natural Language Processing“, in: „Encyclopedia of Library and Information Science“, 2nd Ed. NY.
Marcel Decker
Lilienthal, V./ Weichert, S./ Reineck, D./ Sehl, A./ Worm, S. [2015]: „Digitaler Journalismus: Dynamisierung, Technisie-
rung, Dialogisierung“, in: „Media Perspektiven”. S. 30-40
Linden, C. G. [2017]: „Decades of Automation in the Newsroom: Why are there still so many jobs in journalism?“, in:
„Digital Journalism“, Vol. 5(2), S. 123-140
Linden, G./Smith, B./York, J. [2003]: „Amazon.com Recommendations. Item-to-Item Collaborative Filtering”, in: „IEEE
Internet Computing”, Vol. 7(1), S. 76-80, doi: 10.1109/MIC.2003.1167344
Linkurious [2018a]: „Find hidden Insights In Your Data”, online: https://linkurio.us/ letzter Zugriff: 10.01.2018
Linkurious [2018b]: „Visualize and Explore Your Data In Minutes. Find Hidden Insights In your Graph data”, online:
https://linkurio.us/product/ letzter Zugriff: 10.01.2018
LiquidNewsroom.ai [2017]: „LNR Concept Mapper now funded by Google DNI”, LiquidNewsroom.ai, online:
https://liquidnewsroom.com/topic/ai-in-journalism, letzter Zugriff: 08.01.2018
Liquid Notes [2018]: „Liquid Notes. Music Intelligence“, online: http://www.re-compose.de/liquid-notes-music-soft-
ware.html letzter Zugriff: 10.01.2018
129
Lischka, K./ Stöcker, C. [2017]: „Digitale Öffentlichkeit - Wie algorithmische Prozesse den gesellschaftlichen Diskurs
beeinflussen", Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stif-
tung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf letzter Zugriff:
20.02.2018
Lischka, K./Klingel, A. [2017]: „Wenn Maschinen Menschen bewerten. Internationale Fallbeispiele für Prozesse algo-
rithmischer Entscheidungsfindung“. Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: http://www.ber-
telsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf letzter Zu-
griff: 05.01.2018
Litzel, N. [2017]: „Was ist MapReduce?", Big Data Insider, online: https://www.bigdata-insider.de/was-ist-mapreduce-
a-624936/ letzter Zugriff: 17.01.2018
Lobe, A. [2017]: „Prosa als Programm“, online: http://www.faz.net/aktuell/feuilleton/medien/roboterjournalismus-
prosa-alsprogramm-14873449.html letzter Zugriff: 17.11.2017
Lobigs, F. [2016]: „Finanzierung des Journalismus – von langsamen und schnellen Disruptionen“, in: Meier, K./ Neu-
berger, C. (Hrsg.): „Journalismusforschung. Stand und Perspektiven“, 2.Auflage, Baden-Baden: Nomos Verlags-
gesellschaft mbH & Co. KG, S. 69-138
Los Angeles Times - The Homicide Report [2018a]: „A Story for every Victim”, online: http://homicide.latimes.com/
letzter Zugriff: 10.01.2018
Lucas, L. [2018]: „China takes the crown in AI funding", Financial Times, online: https://www.ft.com/con-
tent/1f58b248-1642-11e8-9376-4a6390addb44 letzter Zugriff: 23.02.2017
Luger, E./ Sellen, A. [2016]: „,Like Having a Really bad PA‘: The Gulf between User Expectation and Experience of Con-
versational Agents“, in: „Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems“, S.
5286-5297
Lusk, C. [28.02.2016]: „Now to personalize the flow of information“, online: http://projects.nyujournalism.org/new-
sliteracy2016/topics/personalization/ letzter Zugriff: 17.11.2017
Maas, H. [2015]: „Internet-Charta. Unsere digitalen Grundrechte“, online: http://www.zeit.de/2015/50/internet-
charta-grundrechte-datensicherheit letzter Zugriff: 05.01.2018
Mack, H. [2016]: „Melody Chatbot“, online: http://www.mobihealthnews.com/tag/melody-chatbot letzter Zugriff:
16.11.2017
Mahnke, M. [2015]: „Der Algorithmus, bei dem man mit muss? Ein Perspektivwechsel“, in: „Communicatio Socialis“,
Vol. 48(1), S. 34-45
Maireder, A./ Weeks, B. E./ Zúniga, H. G. de/ Schlögl, S. [2017]: „Big Data and Political Social Networks: Introducing
Audience Diversity and Communication Connector Bridging Measures in Social Network Theory“, in: „Social Sci-
ence Computer Review“, Vol. 35 (1), S. 126-141, online: DOI: 10.1177/0894439315617262 letzter Zugriff:
16.11.2017
Mallat, N. / Virpi, K. T./ Wittkowski, K. [2017]: „Voice Activated Personal Assistants – Consumer Use Contexts and Us-
age Behavior“, online: https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1548&context=amcis2017 letzter
Zugriff: 17.11.2017
Manning, C. D./ Schütze, H. [2000]: „Foundations of Statistical Natural Language Processing", Cambridge Massachu-
setts: MIT Press
Marchick, A. [2017]: „The 2017 Voice Report - Executive Summary“, online: http://voicelabs.co/2017/01/15/the-2017-
voice-report/ letzter Zugriff: 09.11.2017
Marcinkowski, F. [1993]: „Publizistik als autopoietisches System: Politik und Massenmedien. Eine systemtheoretische
Analyse“, Opladen: Westdeutscher Verlag
Margolis, M./ Resnick, D. [2000]: „Politics as Usual: The Cyberspace ‚Revolution‘“, SAGE
Marketing und Kommunikation [2017]: „Marktumfrage - Die größten Vorteile und Probleme von Chatbots im Marke-
ting“, online: https://www.m-k.ch/chatbots-im-marketing-chancen-und-probleme/ letzter Zugriff: 16.11.2017
Markoff, J. [2016]: „Automated Pro-Trump Bots Overwhelmed Pro-Clinton Messages, Reseachers Say“, online:
https://www.nytimes.com/2016/11/18/technology/automated-pro-trump-bots-overwhelmed-pro-clinton-mes-
sages-researchers-say.html letzter Zugriff: 16.11.2017
Markwall, N. [2017]: „Alexa, ich möchte eine Puppenstube“, online: https://www.tagesschau.de/schlusslicht/alexa-
puppenhaus-101.html letzter Zugriff: 17.11.2017
130
Matthews, K. [2017]: „15 Tools You Can Use to Beta Test Your Chatbot“, online: https://chatbotsmagazine.com/15-
tools-you-can-use-to-beta-test-your-chatbot-5a0723c7f4b2 letzter Zugriff: 16.11.2017
Matzat, L. [2011]: „Datenjournalismus. Bundeszentrale für politische Bildung“, online: http://www.bpb.de/gesell-
schaft/medien/opendata/64069/datenjournalismus?p=all letzter Zugriff: 17.11.2017
Mayer, A. [2013]: „Digital first. Und dann...? Die zentralen Herausforderungen für Deutschlands Medienhäuser“, in:
Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): CJournalismus in der digitalen Moderne“, Wiesbaden:
Springer VS, S.141-146
Mayer-Schönberger, V./ Mayer-Schönberger, C. [2013]: „Big Data: die Revolution, die unser Leben verändern wird",
Redline Wirtschaft
McChesney, R. W./ Nichols, J. [2010]: „The Death and Life of American Journalism. The Media Revolution That Will
Begin the World Again“, Philadelphia: Nation Books
McDonald, K. [2017]: „Neural Nets for Generating Music”, Medium, online: https://medium.com/artists-and-machine-
intelligence/neural-nets-for-generating-music-f46dffac21c0 letzter Zugriff: 26.02.2018
McKelvey, F./ Dubois, E. [2017]: „Computational Propaganda in Canada: The Use of Political Bots“, in: Woolley, S./
Howard, P. N. (Hrsg.) „UK: Project on Computational Propaganda“, Working Paper No. 2017.6, Oxford, UK: S. 1-
32, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Comprop-Canada.pdf letzter
Zugriff: 16.11.2017
McKinsey & Company Inc. [2017]: „Smartening up with Artificial Intelligence (AI) - What’s in it for Germany and its
Industrial Sector?", McKinsey.de, online: https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf, letz-
ter Zugriff: 27.02.2018
Meibauer, J. [2007]: „Einführung in die germanistische Linguistik", 2. Aufl.
Meier, A. W./ Jarren, O. [2001]: „Ökonomisierung und Kommerzialisierung von Medien und Mediensystem. Einlei-
tende Bemerkungen zu einer (notwendigen) Debatte“, in: „M&K Medien & Kommunikationswissenschaft“, Vol.
49(2), S. 145-158
Meier, C. [2017]: „Knackt künstliche Intelligenz die Magie der Sprache?“ Online: https://www.welt.de/kultur/ar-
ticle164449418/Knackt-kuenstliche-Intelligenz-die-Magie-der-Sprache.html letzter Zugriff: 10.01.2018
Meineck, S. [2017]: „Twitter-Datenanalyse. ,Wir hatten eine falsche Vorstellung von der Filterblase‘“, online:
http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filter-
blase-a-1185406.html letzter Zugriff: 05.01.2018
Mendez, R. C. [2017]: „Digitale Sprachassistenten. Amazon Echo – Das nächste heiße ‚Markeding‘ im Marketing?“, in:
„Digital Publishing Report“, Vol. 8, online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter
Zugriff: 09.11.2017
Messias, J./ Schmidt, L./ Oliveira, R./ Benevenuto, F. [2013]: „You followed my bot! Transfor-ming robots into influen-
tial users in Twitter“, in: „First Monday“, Vol. 18 (7), from http://firstmonday.org/ojs/index.php/fm/arti-
cle/view/4217/3700 letzter Zugriff: 16.11.2017
Metaxas, P. T./ Mustafaraj, E. [2012]: „Science and society. Social media and the elections“, in: „Science Magazine“,
New York, N.Y., 338(6106), S. 472-473
Metaxas, P. T./ Mustafaraj, E./ Gayo-Avello, D. [2011]: „How (Not) to Predict Elections“, in: „In Proceedings of the
2011 IEEE Third International Conference on Privacy, Security, Risk and Trust (PASSAT) and the 2011 IEEE Third
International Conference on Social Computing (Social-Com)“, S. 165-171
Mezzofiore, G [2017]: „,South Park' is triggering people's Amazon Alexas and it's seriously NSFW“, online:
http://mashable.com/2017/09/14/south-park-alexa-googlehome-nsfw-cartman/#HTNJK3rsmiq7 letzter Zugriff:
17.11.2017
microm Micromarketing-Systeme und Consult GmbH [2015]: „microm Datenhanbuch 2015“, online:
http://www.microm-online.de/fileadmin/me- dia/document/Handbuch_Daten_2015_DE.pdf letzter Zugriff:
27.02.2018
Microsoft [2017], http://www.msxiaoice.com/ über: Locker, T. (2015): "Mit diesem herzlosen Chatbot trösten Millio-
nen Chinesen ihren Liebeskummer", Motherboard, online: https://motherboard.vice.com/de/article/jpgzny/die-
ser-chatbot-troestet-millionen-chinesen-ueber-gebrochene-herzen-hinweg-123, letzter Zugriff: 23.01.2018
131
Microsoft News Center [2013]: „The Big Bang: How the Big Data Explosion Is Changing the World“, online:
https://news.microsoft.com/2013/02/11/the-big-bang-how-the-big-data-explosion-is-changing-the-world/ letz-
ter Zugriff: 17.11.2017
Mielke, K. [2016]: „Conversational Interfaces: Where Are We Today? Where Are We Heading?“, online:
https://www.smashingmagazine.com/2016/07/conversationalinterfaces-where-are-we-today-where-are-we-
heading/ letzter Zugriff: 17.11.2017
Mikolov, T./ Chen, K./ Corrado, G./ Dean, J. [2013]: „Efficient estimation of word representations in vector space",
online: arXiv preprint arXiv:1301.3781 letzter Zugriff: 12.01.2018
Mikolov, T./ Kopecky, J./ Burget, l./ Glembek, O./ Cernocky, J. [2009]: „Neural network based language models for
higly inflective languages", in: „Proc. ICASSP 2009"
Milanesi, C. [2016]: „Voice Assistant Anyone? Yes please, but not in public!“, online: http://creativestrate-
gies.com/voice-assistant-anyone-yes-please-but-not-inpublic/ letzter Zugriff: 17.11.2017
Mitsuku Bot [2018]: „Homepage des Mitsuku-Bots", online: http://www.mitsuku.com/ letzter Zugriff: 26.02.2017
Moore, S. [2016]: „How to choose a Data Broker”, Gartner Research Inc., online: https://www.gartner.com/smarter-
withgartner/how-to-choose-a-data-broker/ letzter Zugriff: 27.02.2018
Morisy, M. [2016]: „How PayPal Boosts Security with Artificial Intelligence", MIT Technology Review, online:
https://www.technologyreview.com/s/545631/how-paypal-boosts-security-with-artificial-intelligence/ letzter
Zugriff: 26.02.2018
Morozov, E. [2013]: „Smarte neue Welt: Digitale Technik und die Freiheit des Menschen“, München: Blessing Verlag -
Verlagsgruppe Random House
Moscovici, S./Zavalloni, M. [1969]: „The Group as a Polarizer of Attitudes”, in: „Journal of Personality and Social Psy-
chology”, Vol. 12(2), S. 125-135
Moyhinan, T. [2016]: „Alexa and Google Home record what you say. But what happens to that Data?“, online:
https://www.wired.com/2016/12/alexa-and-google-record-your-voice/ letzter Zugriff: 17.11.2017
Müller-Wirth, M./ Wefing, H. [2016]: „Journalismus: Ich“, online: http://www.zeit.de/2016/46/journalismus-face-
book-twitter-silicon-valleydemokratie-politik letzter Zugriff: 17.11.2017
Munster, Gene [2017]: „Homepod Uniquely Positioned to Win Smart Speaker“, online: http://loupven-
tures.com/homepod-uniquely-positioned-to-win-smart-speaker-market/ letzter Zugriff: 17.11.2017
Mustafaraj, E./ Finn, S./ Whitlock, C./ Metaxas, P. T. [2011]: „Vocal Minority Versus Silent Majority: Discovering the
Opionions of the Long Tail“, in: „Proceedings of the 2011 IEEE Third International Conference on Social Compu-
ting (SocialCom)“, S. 103-110
Najjar, Y. M./ Basheer, I. A/, Hajmeer, M. N. [1997]: „Computational neural networks for predictive microbiology: I.
Methodology", in: "International Journal of Food Microbiology", Vol. 34(1)
Neewitz, A. [2016]: „Movie written by algorithm turns out to be hilarious and intense”, online: https://arstech-
nica.com/gaming/2016/06/an-ai-wrote-this-movie-and-its-strangely-moving/ letzter Zugriff: 10.01.2018
Neidhardt, F. [1994]: „Öffentlichkeit, öffentliche Meinung, soziale Bewegungen“, in: Neid-hardt, F. (Hrsg.): „Öffentlich-
keit, öffentliche Meinung, soziale Bewegungen Sonderheft 34 der Kölner Zeitschrift für Soziologie und Sozialpsy-
chologie“, Opladen: Westdeutscher Verlag, S. 7-41
Neo4j [2018]: „Introducing the Neo4j Graph Platform. The #1 Platform for Connected Data”, online:
https://neo4j.com/ letzter Zugriff: 10.01.2018
Netflix [2009]: „Netflix Prize“, online: https://www.netflixprize.com/ letzter Zugriff: 05.01.2018
Neuhaus, C. [2012]: „So funktioniert das Geschäft mit den Daten“, Tagesspiegel Online, online: https://www.tages-
spiegel.de/politik/adresshandel-so-funktioniert-das-geschaeft-mit-den-daten/6857990.html letzter Zugriff:
27.02.2018
New York Times [2015]: „Quiz. Did a Human or a Computer Write This?” Online: https://www.nytimes.com/interac-
tive/2015/03/08/opinion/sunday/algorithm-human-quiz.html?_r=0 letzter Zugriff: 10.01.2018
Newman, N./ Fletcher, R./ Levy, D. A. L./ Nielsen, R. K. [2016]: „Reuters Institute Digital News Report 2016“, Reuters
Institute for the Study of Journalism, online: from http://reutersinstitute.poli-tics.ox.ac.uk/sites/default/files/re-
search/files/Digital%2520News%2520Report%25202016.pdf letzter Zugriff: 16.11.2017
132
Newman, P. [2017]: „Amazon announces new Echo devices for the whole home", Business Insider Deutschland,
online: http://www.businessinsider.de/amazon-echo-devices-for-the-whole-home-2017-9 letzter Zugriff:
19.02.2018
Norkon Computing Systems [2018]: „Live Center. Show your readers that your coverage is truly live”, online:
https://www.norkon.net/LiveCenter letzter Zugriff: 10.01.2018
Novy, L. [2013]: „Vorwärts (n)immer? Normalität, Normativität und die Krise des Journalismus“, in: Kramp, L./ Novy,
L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 17-
32
Nuix [2018]: „Software that Knows Data”, online: https://www.nuix.com/ letzter Zugriff: 10.01.2018
Oberndorfer, E. [2017]: „Deep-Learning-Startup: Microsoft kauft Maluuba samt KI-Pionier Yoshua Bengio“, online:
http://t3n.de/news/deep-learning-maluuba-microsoft-785696/ letzter Zugriff: 17.11.2017
Oertel, B. [2017]: „Algorithmen in digitalen Medien und ihr Einfluss auf die Meinungsbildung“. TAB-Brief Nr. 48, S. 13,
online: https://www.tab-beim-bundestag.de/de/pdf/publikationen/tab-brief/TAB-Brief-048.pdf letzter Zugriff:
05.01.2018
Olewitz, C. [2016]: „A Japanese AI program just wrote a short novel, and it almost won a literary prize”, online:
https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize/
letzter Zugriff: 10.01.2018
OpenAI [2018]: „About OpenAI“, online: https://openai.com/about letzter Zugriff: 26.02.2018
Oracle Data Cloud [2018]: „Oracle Data as a Service(DaaS)-Lösungen", Oracle.com, online: https://www.ora-
cle.com/de/applications/customer-experience/data-cloud/solutions/data-as-a-service/index.html letzter
Zugriff: 26.02.2018
Orlowski, A. [2017]: „Facebook scales back AI flagship after chatbots hit 70% f-AI-lure rate", The Register, online:
https://www.theregister.co.uk/2017/02/22/facebook_ai_fail/ letzter Zugriff: 23.01.2018
Osterwalder, A./ Pigneur, Y. [2010]: „Business model generation: a handbook for visionaries, game chan-gers, and
challengers", John Wiley & Sons
Oswald, B. [2013]: „Vom Produkt zum Prozess“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalis-
mus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 63-79
Panetta, K. [2017]: „Top Trends in the Gartner Hype Cycle for Emerging Technologies, 2017", Gartner Inc., on-line:
https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-technolo-
gies-2017/ letzter Zugriff: 23.01.2018
Papacharissi, Z. [2010]: „The Virtual Sphere 2.0: The Internet, the Public Sphere, and beyond“, in: Chadwick, A./ How-
ard, P. N. (Hrsg.): „Routledge Handbook of Internet Po-litics“, Taylor & Francis, S. 230-245, online:
http://www.ciberdemocracia.net/victorsampedro/wp-content/uploads/2012/12/Papacharissi-The-Virtual-
Sphere-Revisited-Handbook.pdf letzter Zugriff: 16.11.2017
Papakyriakopoulos, O./ Shahrezaye, M./ Thieltges, A./ Serrano, J. C. M./ Hegelich, S. [2017]: „Social Media und
Microtargeting in Deutschland“, in: „Informatik-Spektrum“, Vol. 40 (4), S. 327-335, online: https://link.sprin-
ger.com/article/10.1007/s00287-017-1051-4 letz-ter Zugriff: 16.11.2017
Papon, K. [2017]: „Technologie schlägt Industrie: Das sind die wertvollsten Unternehmen der Welt", Frankfurter Allge-
meine Zeitung, online: http://www.faz.net/aktuell/wirtschaft/diginomics/das-sind-die-wertvollsten-unterneh-
men-der-welt-15364862.html letzter Zugriff: 20.02.2018
Pariser, E. [2011]: „The filter bubble: What the Internet is hiding from you“, London: Penguin Publishing UK
Pariser, E./ Held, U. [2012]: „Filter Bubble: wie wir im Internet entmündigt werden“, München: Hanser
Parkinson, K. et al. [2015]: „The Future of News“, online:
http://newsimg.bbc.co.uk/1/shared/bsp/hi/pdfs/29_01_15future_of_news.pdf letzter Zugriff: 10.11.2017
Patterson, L. [2007]: „Marketing and sales alignment for improved effectiveness", in: „Journal of Digital Asset Man-
agement", Vol. 3(4), online: https://doi.org/10.1057/palgrave.dam.3650089 letzter Zugriff: 23.01.2018
Pemberton Levy, H. [2016]: „Gartner Predicts a Virtual World of Exponential Change“, online: https://www.gart-
ner.com/smarterwithgartner/gartner-predicts-avirtual-world-of-exponential-change/ letzter Zugriff: 17.11.2017
Perez, S. [2017]: „Siri usage and engagement dropped since Alexa and Cortana grew“, online:
https://techcrunch.com/2017/07/11/siri-usage-and-engagement-dropped-since-last-year-as-alexa-and-cortana-
grew/ letzter Zugriff: 17.11.2017
133
Petereit, D. [2016]: „Atomic Design, das Baukastensystem mit dem schicken Namen“, online:
https://t3n.de/news/atomic-design-baukastensystem-721010/ letzter Zugriff: 10.01.2018
Petereit, D. [2017]: „Conversational Interfaces: Das Interface der Zukunft erobert das Web“, online:
http://t3n.de/news/conversational-interfaces-812724 letzter Zugriff: 17.11.2017
Pfetsch, B./ Mayerhöffer, E./ Adam, S. [2013]: „Politische Kommunikation“, in: Mediensysteme im internationalen
Vergleich", Barbara Thomaß (Hrsg.), UTB GmbH, S. 59-75
Pipedrive [2018]: „Pipeline-Management", Pipedrive.com, online: https://www.pipedrive.com/de/features
205.01.2018
Po.et [2018]: „Po.et – About“, online: https://po.et/about letzter Zugriff: 02.02.2017
Porcellana, S. [2018]: „3 reasons chatbots didn’t meet industry expectations in 2017", Venture Beat, online:
https://venturebeat.com/2018/01/13/3-reasons-chatbots-didnt-meet-industry-expectations-in-2017/ letzter
Zugriff: 23.01.2018
Poria, S./ Cambria, E./ Hussain, A./ Huang, G. [2015]: „Towards an intelligent framework for multimodal affective data
analysis. Neural Networks“, Vol. 63, S. 104-116, doi: 10.1016/j.neunet.2014.10.005
Postinett, A. [2016]: „Microsoft setzt auf Bots“, online: http://www.wiwo.de/unternehmen/it/microsoft-setzt-auf-
bots-satya-nadella-ruft-das-ende-der-appsaus/13384796.html letzter Zugriff: 17.11.2017
Postulka, D. [2016]: „Datamining: Marktanalyse 3.0“, Handelsjournal, online: http://handelsjour-
nal.de/2016/01/18/unternehmen/dwolf/datamining-marktanalyse-3-0/ letzter Zugriff: 27.02.2018
Powers, E. [2017]: „My News Feed is Filtered? Awareness of news personalization among college students“, in: „Digi-
tal Journalism“, Vol. 5(10), S. 1-21
Praller, L. [2017]: „Trump-Wahl und Brexit? Cambridge Analytica nimmt alles zurück“, in: https://www.merkur.de/po-
litik/trump-wahl-und-brexit-cambridge-analytica-nimmt-alles-zurueck-7054644.html letzter Zugriff: 16.11.2017
Prescher, D./ Lutter, T. [2016]: „Digitale Sprachassistenten als intelligente Haushaltshelfer“, online: https://www.bit-
kom.org/Presse/Presseinformation/Digitale-Sprachassistenten-als-intelligente-Haushaltshelfer.html letzter Zu-
griff: 17.11.2017
Press, G. [2016]: „IoT Mid-Year Update From IDC And Other Research Firms", Forbes Magazine nach: IDC [2015]: "The
Content Created World 2015-2025", IDC IoT-Webcast #DR2016_GD4_VT, online:
https://www.forbes.com/sites/gilpress/2016/08/05/iot-mid-year-update-from-idc-and-other-research-
firms/#d8d75f555c59
PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft [2017]: „Digitale Assistenten - Bevölkerungsbefra-
gung“, online: https://www.pwc.de/de/consulting/management-consulting/pwc-befragung-digitale-assisten-
ten-2017.pdf letzter Zugriff: 09.11.2017
Prien, T. [2017]: Automatisierte Werbekommunikation bringt Paradigmenwechsel im Marketing, online:
https://t3n.de/news/automatisierte-werbekommunikation-888766/ letzter Zugriff: 10.01.2018
Primo, A./ Zago, G. [2015]: „Who And What Do Journalism? An actor-network perspective“, in: „Digital Journalism“,
Vol. 3(1), S. 38-52
Prinzing, M./ Rath, M./ Schicha, C./ Stapf, I. [2015]: „Neuvermessung der Medienethik. Bilanz, Themen und
Herausforderungen seit 2000“, Weinheim/Basel: Beltz Juventa
Protalinski, E. [2017]: „Google’s speech recognition technology now has a 4.9% word error rate“, online: https://ven-
turebeat.com/2017/05/17/googles-speech-recognitiontechnology-now-has-a-4-9-word-error-rate/ letzter
Zugriff: 17.11.2017
QY Research Group [2017]: „Global Algorithmic Trading Market Size, Status and Forecast 2022”, online:
https://www.wiseguyreports.com/reports/929053-global-algorithmic-trading-market-size-status-and-forecast-
2022 letzter Zugriff: 05.01.2018
Raabe, J. [2013]: „Publizität“, in: Bentele, G./ Brosius, H.-B./ Jarren, O. (Hrsg.): „Lexikon Kommunikations- und Medi-
enwissenschaft“, 2. Aufl. Wiesbaden: Springer VS
Rabiner, L. R. [1990]: „A tutorial on hidden Markov models and selected applications in speech recognition" in: „Read-
ings in speech recognition“, S. 267-296
Rabiner, L. R./ Juang, B. H. [1986]: „An Introduction to Hidden Markov Models“, in: „IEEE ASSP Magazine", Vol. 3 (1)
Radford, A./ Metz, L./ Chintala, S. [2015]: „Unsupervised representation learning with deep convolutional generative
adversarial networks“, arXiv preprint arXiv:1511.06434
134
Radü, J. [2013]: „Technologie als Chance Auf welche Weise Smartphones, Tablets und die Medientechnologie der Zu-
kunft journalistische Qualität sichern helfen“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Jour-
nalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 173-183
Rahgozar, O. [2016]: „Chatbot Business Models“, Medium.com nach: CB Insights 2016 und Crunchbase Analyse 2016,
online: https://medium.com/@omeedrz/chatbot-business-models-250fed69f6aa letzter Zugriff: 15.11.2017
Ramzan, Z. [2010]: „Phishing attacks and countermeasures“, in: Stamp, M./ Stavroulakis, P. (Hrsg.): „Handbook of In-
formation and Communication Security“, Springer
Reinbold, F. [2017]: „Warum die AfD den Twitterwahlkampf dominiert“, online: http://www.spiegel.de/netz-
welt/web/afd-dominiert-den-twitter-bundestagswahlkampf-auch-dank-bots-a-1168659.html letzter Zugriff:
16.11.2017
Reinsch, M. [2016]: „Social Bots Parteien in Deutschland wollen auf technische Wahlkampf-helfer verzichten“, online:
http://www.berliner-zeitung.de/politik/social-bots-parteien-in-deutschland-wollen-auf-technische-wahlkampf-
helfer-verzichten-25278052 letzter Zugriff: 16.11.2017
Reiter, E./ Dale, R [2000]: „Building Natural Language Generation Systems“, Cambridge: Cambridge University Press
Research and Markets [2017]: „Algorithmic Trading Market 2025 Global Analysis and Forecasts”, online:
https://www.researchandmarkets.com/research/nmpkmq/global?w=4 letzter Zugriff: 05.01.2018
Retresco [2018]: „Build Better Business with AI-driven Content Automation”, Retresco, online: www.retresco.de letz-
ter Zugriff: 05.01.2018
Reuter, M. [2016]: „Fake-News, Bots und Sockenpuppen- eine Begriffsklärung“, online: https://netzpoli-
tik.org/2016/fakenews-social-bots-sockenpuppen-begriffsklaerung/ letzter Zugriff: 16.11.2017
Richter, S./ Sinning, H. [2006]: „Online gestützte Kommunikation für Stadtmanagement- Potentiale, Restriktionen und
Anforderungen“, in: Sinning, H. (Hrsg.): „Stadtmanagement – Strategien zur Modernisierung der Stadt(-Re-
gion)“, Verlag Dorothea Rohn, 2. Auflage, S. 144-163
Riedel, A. M. [2012]: „Nachrichtenfaktoren in Blogs - Journalistische Avantgarde oder Nachrichten zweiter Hand? Zur
Anwendbarkeit der Nachrichtenwert-Theorie auf die politische Blogosphäre im deutschsprachigen Raum“, Ber-
lin: epubli GmbH
Rietzschel, A. [2017]: „Wie es in Facebooks Echokammern aussieht - von links bis rechts“, on-line: http://www.sued-
deutsche.de/politik/mein-facebook-dein-facebook-wie-es-in-den-echokammern-von-links-bis-rechts-aussieht-
1.3576513 letzter Zugriff: 16.11.2017
Rohleder, B. [2015]: „Datenschutz in der digitalen Welt“, online: https://www.bitkom.org/Presse/Anhaenge-an-
PIs/2015/09-September/Bitkom-Charts-PK-Datenschutz-22092015-final.pdf letzter Zugriff: 17.11.2017
Rondinella, G. [2017]: „Ausgaben für smarte Lautsprecher verfünffachen sich bis 2021“, online: http://www.hori-
zont.net/tech/nachrichten/Gartner-Prognose-Ausgabenfuer-smarte-Lautsprecher-verfuenffachen-sich-bis-
2021-160563 letzter Zugriff: 17.11.2017
Rosenbaum, S. [2011]: „Curation nation: how to win in a world where consumers are creators“, New York: McGraw-
Hill
Rosenblatt, F. [1958]: „The Perceptron: A probabilistic model for information storage and organization in the brain",
in: „Psychological Review", Vol. 65(6)
Russell, S. J./ Norvig, P. [2010]: „Artificial Intelligence-A Modern Approach", Pearson Education, 3. Aufl.
Ruß-Mohl, S. [2009]: „Kreative Zerstörung: Niedergang und Neuerfindung des Zeitungsjournalismus in den USA“, Kon-
stanz: UVK
Russom, P. [2013]: "Managing Big Data - TDWI Best Practices Report", TDWI Research, S. 20
Salesforce [2018]: „Salesforce Einstein", Salesforce.com, online: https://www.salesforce.com/products/einstein/over-
view/ letzter Zugriff: 26.02.2018
Salzburger, S./ Simon, C./ Wagner, Y. [2017]: „So funktioniert der Facebook-Algorithmus“, online: http://www.sued-
deutsche.de/digital/erklaervideo-so-funktioniert-der-facebook-algorithmus-1.3482209 letzter Zugriff:
16.11.2017
Sauer, H. [2002]: „Relationale Datenbanken - Theorie und Praxis", Addison Wesley, 5. Aufl.
Saurwein, F. [2017]: „Verantwortung im Zeitalter der Automatisierung“, online: http://de.ejo-online.eu/digitales/ver-
antwortung-im-zeitalter-der-automatisierung letzter Zugriff: 17.11.2017
135
Scatterblogs [2018a]: „Social Media Intelligence für Lagezentren und Newsrooms. Geobasiert. Ereignisgetrieben. Echt-
zeitfähig“, online: https://www.scatterblogs.com/ letzter Zugriff: 05.01.2018
Scatterblogs [2018b]: „Scatterblogs - Analytics. Anschläge in Brüssel, 2016“, online: https://www.scatter-
blogs.com/analytics/ letzter Zugriff: 05.01.2018
Scherer, K. [2017]: „Der Code macht die Musik“, online: https://www.heise.de/tr/artikel/Der-Code-macht-die-Musik-
3465494.html?seite=all letzter Zugriff: 10.01.2018
Scherrer, A. [2017]: „Warum hat Künstliche Intelligenz eine weibliche Stimme?“, online: https://evecom-
merce.com/2017/03/06/warum-hat-kuenstliche-intelligenzeine-weibliche-stimme/ letzter Zugriff: 17.11.2017
Schimank, U. [2010]: „Handeln und Strukturen: Einführung in die akteurtheoretische Soziologie“, Weinheim: Beltz
Schlicht, M. [2016]: „The Complete Beginner´s Guide To Chatbots“, online: https://chatbotsmagazine.com/the-com-
plete-beginner-s-guide-to-chatbots-8280b7b906ca letzter Zugriff: 16.11.2017
Schmidt, J.-H./ Hölig, S./ Merten, L./ Hasebrink, U. [2017]: „Nachrichtennutzung und Meinungsbildung in Zeiten sozia-
ler Medien“, in: „Informatik Spektrum“, Vol. 40 (4), S. 358-361, online: DOI: 10.1007/s00287-017-1057-y letzter
Zugriff: 16.11.2017
Schmundt, H. [2015]: „Charmante Maschinen. Siri, lass mich nicht allein“, online: http://www.spiegel.de/spiegelwis-
sen/siri-cortana-co-wie-intelligent-sind-digitalesprachassistenten-a-1041324.html letzter Zugriff: 17.11.2017
Schneider, C. [2016]: „Cognitive Enterprise - The biggest data challenges that you might not even know you have",
IBM Watson Blog Post, online: https://www.ibm.com/blogs/watson/2016/05/biggest-data-challenges-might-
not-even-know/ letzter Zugriff: 22.01.2018
Schober Direct Media GmbH & Co. KG [o. D.]: „Consumer Analytics“, Schober Direct Media GmbH & Co. KG., online:
www.schober-direct-media.de/cms/wp-content/uplo-ads/2015/06/SchoberDM_Fact-Sheet_MarketBase-Con-
sumer_Analytics_WEB.pdf letzter Zugriff: 27.02.2018
Schomaker, J. [2012]: „Einführung in die Theorie der Markov-Ketten", Universität Münster, online:
http://wwwmath.uni-muenster.de/statistik/lehre/SS12/SeminarAnwendungenWT/Vortraege/Schomaker.pdf
letzter Zugriff: 11.01.2018
Schonschek, O. [2017]: „Was Unternehmen über Chatbots wissen müssen“ online: https://www.computerwo-
che.de/a/was-unternehmen-ueber-chatbots-wissen-muessen,3329735 letzter Zugriff: 16.11.2017
SCHUFA Holding AG [o. D.]: „So funktioniert die SCHUFA“, online: www.schufa.de/de/ueber-uns/unternehmen/so-
funktioniert-schufa/ letzter Zugriff: 27.02.2018
Schulz, W. [2003]: „Politische Kommunikation“, in: Bentele, G./ Brosius, H.B./ Jarren, O. (Hrsg.): „Handbuch Öffentli-
che Kommunikation“, Opladen: Westdeutscher Verlag, S.1-31
Schulz, W./Dankert, K [2016]: „Die Macht der Informationsintermediäre. Erscheinungsformen, Strukturen und Regu-
lierungsoptionen“. Friedrich-Ebert-Stiftung (Hrsg.), online: http://library.fes.de/pdf-files/akademie/12408.pdf
letzter Zugriff: 05.01.2018
Schwab, F. [2008]: „Involvement“, in: Krämer, N. C./ Schwan, S./ Unz, D./ Suckfüll, M. (Hrsg.): „Medienpsychologie.
Schlüsselbegriffe und Konzepte“, Stuttgart: W. Kohlhammer, S. 218-223
SciKit-learn Developers [2017]: „SciKit-Learn Algorithm Cheat-Sheet", BSD License, online: http://scikit-
learn.org/stable/tutorial/machine_learning_map/index.html letzter Zugriff: 18.12.2017
Seed Scientific [2015]: „Seed Scientific Acquired by Spotify”. Joining Forces to Create New Advanced Analytics Unit,
online: http://seedscientific.com/ letzter Zugriff: 05.01.2018
Seibel, K. [2015]: „Gegen Kreditech ist die Schufa ein Schuljunge", Die WELT, Ausg. vom 17/04/2015; Kreditech [2018],
online www.kreditech.com/what-we-do/ letzter Zugriff: 26.02.2018
Sentient Technologies [2017]: „Sentient Aware Case Study: Sunglass Hut", SentientAI, online: https://www.senti-
ent.ai/wp-content/uploads/2018/01/Sentient-Aware-Case-Study-Sunglass-Hut.pdf letzter Zugriff: 29.01.2018
Shafahi, M./ Kempers, L./ Afsarmanesh, H. [2016]: „Phishing through social bots on Twitter“, in: „2016 IEEE Interna-
tional Conference on Big Data“, S. 3703-3712
Shaw, A. [2011]: „Centralized and Decentralized Gatekeeping in an Open Online Collective“, in: „Politics & Society“,
Vol. 40 (3), S. 349-388, online: DOI: 10.1177/0032329212449009 letzter Zugriff: 16.11.2017
Shirky, C. [2008]: „It’s not information overload. It’s filter failure. Web 2.0 Expo“, online: https://www.y-
outube.com/watch?v=LabqeJEOQyI letzter Zugriff: 17.11.2017
136
Shoemaker, P. J./ Vos, T. P./ Reese, S. D. [2009]: „Journalists as Gatekeepers“, in: Jorgensen, K.W./ Hanitzsch, T.
(Hrsg.): „The Handbook of Journalism Studies“, New York: Rout-ledge, S. 73-87
Shrikumar, A./ Greenside, P./ Shcherbina, A.Y./ Kundaje, A. [2017]: „Not Just A Black Box: Learning Important Features
Through Propagating Activation Differences", arXiv preprint arXiv:1605.01713
Siebert, A. [2014]: „Roboterjournalismus im Jahre 2020 – Acht Thesen“, online: http://www.huffingtonpost.de/ale-
xander-siebert/roboterjournalismusim-jahre-2020---acht-thesen_b_5655061.html letzter Zugriff: 17.11.2017
Singer, J. B. [2014]: „User-generated visibility: Secondary gatekeeping in a shared media space“, in: „New Media &
Society“, Vol. 16 (1), S. 55-73, online: DOI: 10.1177/1461444813477833 letzter Zugriff: 17.11.2017
Singer, N. [2012]: „Mapping, and Sharing, the Consumer Genome“, New York Times, online: www.ny-
times.com/2012/06/17/technology/acxiom-the-quiet-giant-of-consumer-database-marketing.html letzter
Zugriff: 27.02.2018
Singh, S. [2015]: „How algorithms will drive the growth of e-commerce in the future”, online: https://econom-
ictimes.indiatimes.com/tech/internet/how-algorithms-will-drive-the-growth-of-e-commerce-in-the-future/arti-
cleshow/45801937.cms letzter Zugriff: 05.01.2018
Smith, A./ Anderson, J. [2014]: „AI, Robotics, and the Future of Jobs“, Washingon, DC: Pew Research Center, online:
http://www.fusbp.com/wpcontent/uploads/2010/07/AI-and-Robotics-Impact-on-Future-Pew-Survey.pdf letzter
Zugriff: 17.11.2017
Solanki, K. [2012]: „Responsive Web Design. Ideas, Technology and Examples. Blogbeitrag“, online: https://onex-
trapixel.com/responsive-web-design-ideas-technology-and-examples/ letzter Zugriff: 17.11.2017
Sonnad, N. [2015]: „The magic that makes Spotify’s Discover Weekly playlists so damn good”, online:
https://qz.com/571007/the-magic-that-makes-spotifys-discover-weekly-playlists-so-damn-good/ letzter Zugriff:
10.01.2018
Sovie, D./ Curran, J./ Schoelwer, M./ Björnsjö, A. [2017]: „Dynamic Digital Consumers Ever-changing Expectations and
Technology Intrigue“, online: https://www.accenture.com/us-en/insight-dynamic-consumers letzter Zugriff:
17.11.2017
Specht, D. F. [1990]: „Probabilistic neural networks", in: „Neural Networks", Vol. 3(1)
Spotify [2018]: „Spotify – Entdecken“, online: https://support.spotify.com/de/article/Discover/ letzter Zugriff:
05.01.2018
Stark, B. [2017]: „Gefangen in der Echokammer? Politische Meinungsbildung auf Facebook“, online https://www.die-
medienanstalten.de/fileadmin/user_upload/Veranstaltungen/2017/2017_03_08_Ganz_meine_Mei-
nung/Praesentation_Prof._Stark.pdf letzter Zugriff: 05.01.2018
Stelzel-Morawietz, P. [2017]: „IFTTT: So automatisieren Sie Ihren Alltag“, online: https://www.pcwelt.de/ratge-
ber/_If_this_then_that__automatisiert_das_Leben_im_Web-Online-Service_IFTTT-8295495.html letzter Zugriff:
16.11.2017
Sterling, G. [2016]: „Google says 20 percent of mobile queries are voice searches“, online: https://searchengine-
land.com/google-reveals-20-percent-queries-voice-queries-249917 letzter Zugriff: 09.11.2017
Stern, J. [2017]: „AfD verzichtet auf Meinungsroboter – oder nicht?“, online: http://faktenfinder.tagesschau.de/social-
bots-bundestag-wahl-101.html letzter Zugriff: 16.11.2017
Stewart, W.J. [1994]: „Introduction to the Numerical Solution of Markov Chains", UK: Princeton University Press
Strategy& [2017]: „The 2017 Global Innovation 1000 study“, online: https://www.strategyand.pwc.com/innova-
tion1000#GlobalKeyFindingsTabs4|VisualTabs1 letzter Zugriff: 17.11.2017
Stromer-Galley, J. [2014]: „Presidential Campaigning in the Internet Age“, New York: Oxford University Press.
Sunstein, C. [2009]: „Going to extremes: How Like Minds Unite and Divide”. Oxford u.a.: Oxford University Press.
Sweeney, L. [2013]: „Discrimination in Online Ad Delivery“, in: „Communications of the ACM“, Vol. 56 (5), S. 44-54,
online: https://cacm.acm.org/magazines/2013/5/163753-discrimination-in-online-ad-delivery/fulltext letzter
Zugriff: 17.11.2017
Sweller, J. [1988]: „Cognitive load during problem solving: Effects on learning“, in: „Cognitive Science“, Vol. 12 (2), S.
257-285
Tandoc, E. C. [2013]: „Journalism is twerking? How web analytics is changing the process of gatekeeping“, in: „New
Media & Society“, Vol. 16 (4), S. 559-575, online: DOI: 10.1177/1461444814530541 letzter Zugriff: 17.11.2017
137
Tata Consultancy Services [2015]: „Internet of Things: The Complete Reimaginative Force. TCS Global Trend Study -
July 2015”, online: http://sites.tcs.com/internet-of-things/wp-content/uploads/Internet-of-Things-The-Com-
plete-Reimaginative-Force.pdf letzter Zugriff: 10.01.2018
Team, T. [2014]: „Google's Strategy Behind The $3.2 Billion Acquisition Of Nest Labs“, online:
https://www.forbes.com/sites/greatspeculations/2014/01/17/googlesstrategy-behind-the-3-2-billion-acquisi-
tion-of-nest-labs letzter Zugriff: 17.11.2017
TechNavio [2016]: „Global Algorithmic Trading Market 2016-2020“, online: https://www.technavio.com/report/glo-
bal-miscellaneous-algorithmic-trading-market letzter Zugriff: 05.01.2018
Technologiestiftung Berlin [2017]: „IoT in Berlin“, online: https://www.technologiestiftung-berlin.de/fileadmin/da-
ten/media/publikationen/170504_IoT-Report_Web.pdf letzter Zugriff: 10.01.2018
TensorFlow [2018]: „TensorFlow Playground", Google TensorFlow Bibliothek, online: http://playground.tensor-
flow.org, letzter Zugriff: 26.02.2018
The Economist Business Intelligence Unit Ltd. [2016]: „Artificial Intelligence in the real world - The business case takes
shape", The Economist, online: https://www.eiuperspectives.economist.com/sites/default/files/Artificial_intelli-
gence_in_the_real_world_1.pdf letzter Zugriff: 12.02.2018
The next Rembrandt [2018]: „The next Rembrandt. Can the Great Master be Brought back to create one more Paint-
ing?”, Online: https://www.nextrembrandt.com/ letzter Zugriff: 10.01.2018
Thomas, J. [2017]: „Hallo, Computer!“, online: https://berlinvalley.com/spracherkennung/ letzter Zugriff: 17.11.2017
Thusoo, A./ Sarma, J. S./ Jain, N./ Shao, Z./ Chakka, P./ Anthony, S./ Murthy, R. [2009]: „Hive: a warehousing solution
over a map-reduce framework", in: „Proceedings of the VLDB Endowment", Vol. 2(2)
Tißler, J. [2017]: „Alexa, Cortana, Siri & Co: Der Hype um Sprachassistenten erklärt“, Upload Magazin, online:
https://upload-magazin.de/blog/16055-alexa-sprachassistenten/ letzter Zugriff: 09.11.2017
Tobler, S. [2010]: „Transnationalisierung nationaler Öffentlichkeit. Konfliktinduzierte Kommunikationsverdichtungen
und kollektive Identitätsbildung in Europa“, Wiesbaden: VS Verlag für Sozialwissenschaften
Torinus, G. [2016]: „Die Entschlüsselung der Panama Papers“, online: https://www.heise.de/tp/features/Die-Entschlu-
esselung-der-Panama-Papers-3267916.html letzter Zugriff: 10.01.2018
Tratica [o. D]: „Anzahl der Nutzer virtueller digitaler Assistenten weltweit in den Jahren von 2015 bis 2021 (in Millio-
nen). In Statista - Das Statistik-Portal“, online: https://de.statista.com/statistik/daten/studie/620321/um-
frage/nutzung-von-virtuellen-digitalen-assistenten-weltweit/ Zugriff: 09.11.2017
Tractica [2016]: „Virtual digital assistant market reach 15,8 billion worldwide by 2021“, online: https://www.trac-
tica.com/newsroom/press-releases/the-virtual-digital-assistant-market-will-reach-15-8-billion-worldwide-by-
2021/ letzter Zugriff: 17.11.2017
Tractica [2017]: „Natural language processing market to reach 22.3 Billion $ by 2025“, online: https://www.trac-
tica.com/newsroom/press-releases/natural-language-processing-market-to-reach-22-3-billion-by-2025/ letzter
Zugriff: 17.11.2017
Trenz, H.-J. [2008]: „Understanding Media Impact on European Integration: Enhancing or Restricting the Scope of Le-
gitimacy of the EU?“, in: „European Integration“, Vol. 30(2), S. 291-309
Turing, A.M. [1950]: „Computing Machinery and Intelligence", in: Mind, Vol. 54(236) S. 433-460
Tusch, R. [2017]: „Medienforscher über Roboter-Journalismus: ,In der Massenproduktion schneiden Maschinen bes-
ser ab als Menschen‘“, online: http://meedia.de/2017/03/20/medienforscher-ueber-roboter-journalismus-in-
der-massenproduktion-schneiden-maschinen-besser-ab-als-menschen/ letzter Zugriff: 10.01.2018
Ukrow, J. [2017]: „Neue Formen politischer Kommunikation als Gegenstand einer positiven Ordnung 4.0“, online:
http://www.medien-impulse.de/wp-content/uploads/2017/01/chat-bots-170110.pdf letzter Zugriff: 16.11.2017
Van der Maaten, L./ Hinton, G. E. [2008]: „Visualizing data using t-SNE“, in: „Journal of Machine Learning Research",
Vol. 9, S. 2579-2605
van der Meulen [2016]: „Gartner Says Algorithms Are Redefining the Architecture of Business”, online:
https://www.gartner.com/newsroom/id/3349017 letzter Zugriff: 05.01.2018
Van Lun, E. [2013]: „Chatbot Jana [Deutsche Post)“, online: https://www.chatbots.org/chatbot/jana1/ letzter Zugriff:
16.11.2017
138
van Rijmenam, M. [2017]: „The Gaming Industry Turns To Big Data To Improve The Gaming Experience”, online:
https://datafloq.com/read/gaming-industry-turns-big-data-improve-gaming-expe/137 letzter Zugriff:
10.01.2018
VDZ [2017]: „Chatbots & Co. - The Next Big Thing?!", Verband Deutscher Zeitschriftenverleger e.V.
VentureBeat [2015]: „Prognose zum Umsatz im Markt für Videogames weltweit von 2011 bis 2020 nach Segment (in
Milliarden US-Dollar)“, Statista, online: https://de.statista.com/statistik/daten/studie/160518/umfrage/prog-
nostizierter-umsatz-in-der-weltweiten-videogames-branche/ Letzter Zugriff: 17.01.2018
Verbraucherzentrale [2017]: „Amazon hört zu: 'Echo' jetzt auch in hiesigen Wohnzimmern", Verbraucherzentrale.de,
online: https://www.verbraucherzentrale.de/wissen/digitale-welt/datenschutz/amazon-hoert-zu-echo-jetzt-
auch-in-hiesigen-wohnzimmern-13149 letzter Zugriff: 20.02.2018
Verbraucherzentrale Bundesverband e.V. [2017]: „Algorithmenbasierte Entscheidungsprozesse. Thesenpapier des
vzbv“, online: https://www.vzbv.de/sites/default/files/downloads/2017/12/14/17-12-05_vzbv_thesenpa-
pier_algorithmen.pdf letzter Zugriff: 05.01.2018
Verizon Communications [2015]: „State of the Market. The Internet of Things 2015. Discover how IoT is transforming
business results”, online: http://www.verizonenterprise.com/resources/reports/rp_state-of-market-the-mar-
ket-the-internet-of-things-2015_en_xg.pdf letzter Zugriff: 10.01.2018
Vieth, K./Wagner, B. [2017]: „Teilhabe, ausgerechnet. Wie algorithmische Prozesse Teilhabechancen beeinflussen
können“. Im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stiftung.de/fileadmin/fi-
les/BSt/Publikationen/GrauePublikationen/Teilhabe_ausgerechnet.pdf letzter Zugriff: 05.01.2018
Voigt, J. [2016]: „Nachrichtenqualität aus Sicht der Mediennutzer“, Wiesbaden: Springer VS
Voigt, K.-I. [2017]: „Definition – Automatisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/automatisie-
rung.html, letzter Zugriff: 17.11.2017
von Eisenhart Rothe, Y. [2017]: „Die Automatisierung des Journalismus“, online: https://uebermedien.de/19051/die-
automatisierung-des-journalismus/ letzter Zugriff: 17.11.2017
Wagner, C./ Mitter, S./ Körner, C. [2012]: „When social bots attack: Modeling susceptibility of users in online social
networks“, in: Rowe, M./ Stankovic, M./ Dadzie, A.-S. (Hrsg.): „Proceedings of the 2nd Workshop on Making
Sense of Microposts. Big things come in small packages“, S. 41-48
Waibel, A./ Hanazawa, T./ Hinton, G./ Shikano, K./ Lang, K. J. [1989]: „Phoneme recognition using time-delay neural
networks". in: „IEEE transactions on acoustics, speech, and signal processing", Vol. 37(3)
Wakefield, J. [2016]: „Would you want to talk to a machine?“, online: http://www.bbc.com/news/technology-
36225980 letzter Zugriff: 16.11.2017
Wallace, J. [2017]: „Modelling Contemporary Gatekeeping“, in: „Digital Journalism“, Vol. 9 (16), S. 1-20, online: DOI:
10.1080/21670811.2017.1343648 letzter Zugriff: 17.11.2017
Wallace, R. S. [o. D.]: „From Eliza to A.L.I.C.E.“, online: http://www.alicebot.org/articles/wallace/eliza.html letzter
Zugriff: 16.11.2017
Wang, X./ Giron, F./ Ask, J. A./ Wise, J./ Purcell, B./ Stanhope, J./ Deng, D./ Nagel, B. [2017]: „Chatbots Are Transform-
ing Marketing - Use Chatbots To Help Customers Discover, Explore, And Engage With Your Brand", Forrester
Research Inc., online: https://www.forrester.com/report/Chatbots+Are+Transforming+Marketing/-/E-
RES136771 letzter Zugriff: 26.02.2018
Ward, J.S./ Barker, A. [2013]: „Undefined By Data: A Survey of Big Data Definitions“, University of St. Andrews, S. 2
Weichert, S. A./ Kramp, L./ Welker, M. [2015]: „Die Zeitungsmacher: Aufbruch in die digitale Moderne“, Wiesbaden:
Springer VS
Werner, K. [2017]: „Eine Maschine gegen Depression“, online: http://www.sueddeutsche.de/digital/kuenstliche-intel-
ligenz-eine-maschine-gegen-die-depression-1.3431873 letzter Zugriff: 16.11.2017
Weßler, H. [2004]: „Europa als Kommunikationsnetzwerk. Theoretische Überlegungen zur Europäisierung von Öffent-
lichkeit“, in: Hagen, L. M. (Hrsg): „Europäische Union und mediale Öffentlichkeit, Theoretische Perspektiven und
empirische Befunde zur Rolle der Me-dien im europäischen Einigungsprozess“, Köln: Herbert von Halem Verlag,
S. 13-28
Wieduwilt, H. [2017]: „Facebook löscht tausende falsche Konten", Frankfurter Allgemeine Zeitung, online:
http://www.faz.net/aktuell/wirtschaft/facebook-loescht-tausende-fake-konten-in-deutschland-15163212.html
letzter Zugriff: 20.02.2018
139
WikiLeaks [2016]: „NSA Untersuchungsausschuss", online: https://wikileaks.org/bnd-nsa/press/index.de.html letzter
Zugriff: 27.02.2018
Wingfield, N. [2017]: „Cortana, Open Alexa, Amazon says. And Microsoft Agrees“, online: https://www.ny-
times.com/2017/08/30/technology/amazon-alexa-microsoftcortana.html?_r=0 letzter Zugriff: 17.11.2017
Wissenschaftliche Dienste des deutschen Bundestags [2017]: „Algorithmen im Medienbereich – Gesetzlicher Rege-
lungsbedarf“. Aktenzeichen WD10-3000-048/17, online: https://www.bundes-
tag.de/blob/529616/bbe3de30880170a7b710e5c8732b7c06/wd-10-048-17-pdf-data.pdf letzter Zugriff:
05.01.2018
Wochit [2018]: „Make videos worth sharing. The fast and simple video creation solution publishers rely on”, online:
https://www.wochit.com/ letzter Zugriff: 10.01.2018
Wölbert, C. [2017]: „Den Unterschied merkt man nicht. Automatische Texterstellung setzt sich durch“, online:
https://www.heise.de/ct/ausgabe/2017-3-Automatische-Texterstellung-setzt-sich-durch-3599588.html letzter
Zugriff: 10.01.2018
Woolley, S. [2016]: „Automating power: Social bot interference in global politics“, in: „First Monday“, Vol. 21(4),
online: http://firstmonday.org/ojs/index.php/fm/article/view/6161 letzter Zugriff: 16.11.2017
Woolley, S./ Howard, P. [2017]: „Computational Propaganda Worldwide: Executive Summary (Working Paper No.
11)“, Oxford, UK, online: http://comprop.oii.ox.ac.uk/publishing/working-papers/computational-propaganda-
worldwide-executive-summary/ letzter Zugriff: 16.11.2017
Wortham, J. [2010]: „Apple buys Siri, a Voice-Command App“, online: http://www.nytimes.com/2010/04/29/technol-
ogy/29apple.html letzter Zugriff: 17.11.2017
Wright, S. [2011]: „Politics as Usual? Revolution, normalization and a new agenda for online deliberation“, in: „New
Media & Society“, Vol. 14 (2), S. 244-261, online: 10.1177/1461444811410679 letzter Zugriff: 17.11.2017
Writer, S. [2016]: “IBM Watson & The Drum team up for first magazine edited with AI”, online:
http://www.thedrum.com/news/2016/06/15/ibm-watson-drum-team-first-magazine-edited-ai letzter Zugriff:
10.01.2018
Yang, H. C./ Dasdan, A./ Hsiao, R. L./ Parker, D. S. [2007]: „Map-reduce-merge: simplified relational data processing on
large clusters", in: „Proceedings of the 2007 ACM SIGMOD international conference on Management of data"
Yin, R. K. [2014]: „Case Study Research. Design and Methods“, Thousand Oaks: Sage, 5. Auflage
Yosinski, J./Clune, J./ Nguyen, A./ Fuchs, T./ Lipson, H. [2015]: „Understanding neural networks through deep visuali-
zation“, arXiv preprint arXiv:1506.06579
YouGov [2017]: „Was spricht aus Ihrer Sicht grundsätzlich gegen die Nutzung von so genannten 'Chatbots'?", Sta-
tista.de, online: https://de.statista.com/statistik/daten/studie/747801/umfrage/vorbehalte-gegenueber-chat-
bots-aus-kundensicht/ letzter Zugriff: 26.02.2018
YouTube Channel: Winterblessed [2013]: „Two Artificial Intelligence (AI) Chatbots talk and argue with each other“,
online: https://www.youtube.com/watch?v=vphmJEpLXU0 letzter Zugriff: 16.11.2017
Zechmeister, F. [2017]: „Thesenpapier attestiert Social-Bots weitreichendes Gefahrenpotenzial“, online: https://netz-
politik.org/2017/thesenpapier-zur-gesellschaftlichen-und-politischen-relevanz-von-social-bots-vorgestellt/ letz-
ter Zugriff: 16.11.2017
Zeiler, M.D./ Fergus, R. [2013]: „Visualizing and understanding convolutional neural networks" arXiv preprint,
arXiv:1311.2901
Zelada, S. [2017]: „Bossa Studios - Autor der Half-Life-Episoden & Portal 2 setzt auf Storytelling per KI”, online:
http://www.gamestar.de/artikel/bossa-studios-autor-der-half-life-episoden-portal-2-setzt-auf-storytelling-per-
ki,3323167.html letzter Zugriff: 10.01.2018
Zell, A. [1994]: „Simulation Neuronaler Netze (Vol. 1)“, Bonn: Addison-Wesley
Zuckerberg, Mark [2016]: „Building Jarvis“, online: https://www.facebook.com/notes/mark-zuckerberg/buildingjar-
vis/10103347273888091/ letzter Zugriff: 17.11.2017
Zuiderveen Borgesius, F. J./ Trilling, D./ Moeller, J./ Bodó, B./ de Vreese, C. H./ Helberger, N. [2016]: „Should we worry
about filter bubbles?“, in: „Internet Policy Review. Journal on Internet Regulation“, Vol. 5 (1), online: DOI:
10.14763/2016.1.401 letzter Zugriff: 17.11.2017
Zweig, A. [2016]: „1. Arbeitspapier: Was ist ein Algorithmus?“, online: https://algorithmwatch.org/de/arbeitspapier-
was-ist-ein-algorithmus/ letzter Zugriff: 17.11.2017
140
Zweig, K. A./ Deussen, O./ Krafft, T. D. [2017]: „Algorithmen und Meinungsbildung“, in: „Informatik Spektrum“, Vol. 40
(4), S. 318-326, online: DOI: 10.1007/s00287-017-1050-5 letzter Zugriff: 17.11.2017
141
9 ANHANG
9.1 MARKTÜBERS ICHT : B2C-ANWENDUNGEN
CONNECTED HOME UND IOT
Produkt Funktionsbeschreibung
Ems Ems ist eine kostenfreie, auf KI basierende Anwendung, die freie Immobilien ermit-
telt, die genau auf die Bedürfnisse des Nutzers zugeschnitten sind. Ems arbeitet un-
abhängig von Vermietern und Maklern.
Bridge Kitchen Bridge Kitchen begleitet den Anwender von der Auswahl des Gerichts bis hin zur
Ausführung. Beispielsweise wird die Zubereitungszeit in Abhängigkeit vom Essens-
zeitpunkt berechnet oder Bridge Kitchen verbindet sich mit internetfähigen Küchen-
geräten und steuert diese.
UnifyID UnifyID kombiniert Implicit Authority mit maschinellem Lernen. Smart Devices er-
kennen mithilfe von UnifyID den Nutzer anhand seines Verhaltens und können da-
mit mehr als 500 Internetseiten freischalten. Das Speichern von Passwörtern gehört
damit der Vergangenheit an.
Aerial Aerial fusioniert die Verfügbarkeit von WLAN und das schnell wachsende Angebot
an Machine Learning. Basierend auf Funksignalen werden Menschen und Tiere er-
kannt und Daten über ihren Aufenthaltsort, ihr Verhalten und ihre Bewegungen ge-
sammelt. Mit diesen Daten können Arbeitsabläufe automatisiert werden und für
weitere Anwendungen genutzt werden.
Bridge.ai Zu Bridge.ai gehört die Smart Home Plattform Aura. Aura benutzt maschinelles Ler-
nen, um durch Geräusche zu verstehen, was im näheren Umfeld passiert. Her-
kömmliche, mit Aura kombinierte Mikrofone ermöglichen das Erkennen von Stim-
men und mechanischen Geräuschen, wie z.B. die Türklingel oder das Öffnen des
Garagentors.
Cubic Der KI Butler vereint die Nutzung verschiedener Smart-Home-Anwendungen in ei-
ner App. Durch Spracherkennung, das Dashboard oder eine automatisierte Einstel-
lung von Routinen kann die App gleichzeitig unterschiedliche Smart Devices steu-
ern.
Grojo Grojo ist ein Kontroll- und Überwachungssystem für Indoor Gardening. Über eine
Open Source Fernbedienung wird das Wachstum von Pflanzen in Räumen, deren
Ertrag und die erzielten Resultate kontrolliert und optimiert.
Home.AI Die Plattform Home.AI misst konstant die Interaktion zwischen Familienmitgliedern
und deren Smart Devices sowohl Zuhause als auch außerhalb. Basierend auf diesen
Daten kann Home.AI die Familie dabei automatisiert unterstützen, den Familienall-
tag optimal zu gestalten, logistische Herausforderungen zu managen und für Sicher-
heit zu sorgen.
142
Hello Sense hilft den Schlaf zu überwachen und zu verbessern. Die App ermöglicht dem
Anwender, den eigenen Schlafrhythmus mithilfe von detaillierten Breakdowns zu
verstehen. Sense ist mit vielen Sensoren versorgt, die die Schlafbedingungen im
Schlafzimmer messen und dem Nutzer Einblicke geben, inwieweit das Umfeld den
Schlaf beeinflusst.
Josh Josh ist ein Sprachsteuerungssystem für das ganze Haus. Es beinhaltet eine intuitive
Sprachsteuerung, ein multifunktionales Home Control Interface mit Fernfeld-Mik-
rofonen und einen Prozessor für das gesamte Zuhause. Josh sendet die Anweisun-
gen zur Cloud, von der aus alle Informationen zur Home Base weitergeleitet wer-
den. Damit interagieren alle Smart Home Devices mit der Home Base und ein Re-
mote-Zugang ist von überall möglich.
Mycroft Mycroft ist die erste Open-Source-Voice-Assistent-Technologie, die beliebig erwei-
tert und kombiniert werden kann. Ein Einsatz ist somit in vielseitigen Projekten
möglich und die Developer Community treibt die Entwicklung weiter voran. Im Be-
reich Home Control übernimmt Mycroft die Steuerung von Connected Devices
durch Voice Control.
Nanit Nanit ist eine Erweiterung des Babyfons und besitzt eine Echtzeit-HD-Videokamera
mit bester Nachtaufnahmemöglichkeit und einen Sensor für die Raumtemperatur
und Luftfeuchtigkeit. Mittels Computer Vision baut Nanit ein Verständnis für die
Bewegungen des Babys auf und kann einschätzen, wann es wach, unruhig oder im
Tiefschlaf ist.
Nest Netz stellt verschiedene Technologien, wie z.B. Rauchmelder, Türklingeln und Ka-
meras, zur Verfügung, um ein Zuhause zu schaffen, das in der Lage ist, auf sich
selbst, seine Umgebung und seine Bewohner aufpassen zu können. Sicherheitska-
meras sind beispielweise mit einem integrierten Mikrofon und Lautsprechern aus-
gestattet und über eine App mit dem Handy verbunden. Somit können Einbrecher
verjagt werden, auch wenn man nicht Zuhause ist.
ARBEITSALLTAG
Produkt Funktionsbeschreibung
Findo Findo ist ein smarter Research-Assistent und hilft dem Nutzer dabei, abgelegte und
gespeicherte Dateien wiederzufinden. Mittels einer Beschreibung durchsucht Findo
verschiedene Speicherorte (Cloud, Dropbox, Outlook, Gmail, Evernote, Slack etc.)
und stöbert so die Datei auf, auch wenn Speicherort und Dateiname nicht mehr
bekannt sind.
Leap Leap schlägt dem Bewerber passende Unternehmen vor, basierend auf dem Le-
benslauf, den Skills und dem, was hinter dem Bewerber und dem Unternehmen
steckt. Ziel ist es den Perfect-Fit für Arbeitnehmer und -geber zu finden und den
Zeitaufwand bei der Suche zu minimieren. Leap nutzt hierfür Machine Leaning und
auf künstlicher Intelligenz basierendes Echtzeit-Feedback für Bewerbungen.
143
Mosaic Der KI-Agent verhilft den Bewerbern zu besseren Bewerbungsschreiben und guten
Jobs. Die Bewerbungsschreiben werden beispielsweise optimal auf die Skills in Be-
zug auf die Jobbeschreibungen angepasst.
Newton Nachdem das Résumé analysiert wurde, wird das Web durchgängig, basierend auf
smarter KI-Technologie, nach passenden Jobangeboten durchsucht. Das Feedback
zu den gefundenen Stellen optimiert die weitere Suche. Zusätzlich ist es möglich mit
Newton über einen Messenger zu chatten.
Robby Robby kombiniert verschiedene Kalender zu einem und lernt vom Anwender, wel-
che Veranstaltung bevorzugt werden und welche zusätzlichen Events von Interesse
sein könnten.
Woo Woo unterstützt den Nutzer dabei, bessere Karriereentscheidungen zu treffen und
unterbreitet personalisierte, mögliche Job-Angebote. Der ganze Vorgang läuft ano-
nym ab.
GESELLSCHAFT, SOZIALES UND DATING
Produkt Tätigkeitsbeschreibung
BrightCrowd Bei BrightCrowd handelt es sich um eine Plattform, die sowohl dem Austausch von
Erfahrungswerten und Hilfedienstleistungen als auch dem Aufbau eines professio-
nellen Netzwerks dient. Dieses Netzwerk basiert auf Freunden und Freunden von
Freunden.
Capsule.ai Capsule ist eine KI-basierte App, die die Bewegungen, Routen und besuchten Orte
des Nutzes aufzeichnet und den dort gemachten Fotos zuordnet. Zusätzlich wird
eine metrische Auswertung erstellt, in der der Nutzer z.B. nachschauen kann, wann
er in der letzten Woche im Durchschnitt die Arbeit verlassen hat oder wie viele un-
terschiedliche Orte am Abend besucht wurden.
Dating.ai Dating AI ist die erste App mit integrierter Gesichter-Suche. Die angezeigten Vor-
schläge sollen dem Geschmack des Nutzers entsprechen und Personen anzeigen,
die den persönlichen Vorlieben entsprechen.
Eezy Basierend auf Empfehlungen übernimmt Eezy die Abendplanung.
HashMe HashMe unterstützt dabei, mehr Likes und eine größere Reichweite auf Instagram
durch relevante, passende Hashtags zu generieren.
Hotness.ai Hotness.ai bewertet anhand eines hochgeladenen Fotos, wie heiß die Person ist.
Nudge.ai Nudge.ai versorgt den Nutzer mit den neusten Unternehmensinformationen, sozi-
alen Aktivitäten und Einblicken in Beziehungen.
Rey Rey stellt ein Netzwerk an interessanten und auf den Nutzer abgestimmten Kontak-
ten zusammen. Für die professionelle Anwendung übernimmt Rey die Vorstellung
von Möglichkeiten im Bereich Sales, Fundraising, Investment etc..
BILDUNG, FORSCHUNG UND SPRACHKURSE
144
Produkt Tätigkeitsbeschreibung
Thirdleap Thirdleap schafft eine Plattform für Bildung und nutzt personalisierte Teaching Ma-
chines, um sich genau an das Lerntempo und den Wissensstand des Schülers anpas-
sen zu können.
Woogie Durch eingebaute Sensoren ist Woogie der einzige pädagogische Roboter, der pro-
aktiv eine Unterhaltung mit dem Kind im passenden Moment anfangen kann oder
Informationen basierend auf den Interessen des Kindes liefert. Zusätzlich ist kein
Bildschirm für die Interaktion mit Roboter notwendig.
Eli Bei Eli handelt es sich um ein kleines Mikrofon, das am Kragen befestigt wird und
sich mit der dazugehörigen App verbindet, um Konversationen aufzuzeichnen und
zu analysieren. Auf Basis dieser Aufnahmen wird ein personalisierter Fremdspra-
chenunterricht generiert. Die Inhalte passen sich dem täglichen Sprachgebrauch
und Wortschatz an.
Liv.ai Liv.ai dient der Spracherkennung von neun der am weitesten verbreiteten Sprachen
und wandelt Sprache in Text um und anders herum. Das System funktioniert mit
den meisten Akzenten und in lauten Umgebungen.
Microsoft
Translator
Der Microsoft Translator ist ein Sprachübersetzer, der auf ein neuronales Netzwerk
aufbaut.
Apollo Auto-Abstract erstellt qualitativ hochwertige Zusammenfassungen von Nachrich-
tenartikeln und fasst den Inhalt basierend auf wichtigen Schlüsselwörtern in Stich-
punkten zusammen.
ferret ferret wertet das geschriebene Wort aus und bereitet die darin enthaltenen Infor-
mationen auf. Dabei nutzt ferret natürliche Sprachverarbeitung, Machine Learning
und Automated Services. Die Leistung umfasst u. a. das Training von KI zur Fake-
Account/Bot-Erkennung, Plug- und Play-Lösungen, Automatisierungs-Tools, News
und Social-Media-Alerting in Echtzeit und Daten-Aggregation.
Iris.AI Iris.AI abstrahiert das Schlüsselkonzept von wissenschaftlichen Arbeiten und visua-
lisiert es.
GESUNDHEIT, WEARABLES UND FITNESS
Produkt Tätigkeitsbeschreibung
Abi Abi stellt professionellen, medizinischen Rat für gesundheitliche Probleme zur Ver-
fügung. Der Nutzer kann die bevorzugte Sprache und das Land des Arztes wählen.
Die Ärzte können rund um die Uhr um Rat gefragt werden.
Ada Ada erstellt einen Zustandsbericht der eigenen Gesundheit und dient dazu, dass der
Nutzer seine eigene Gesundheit besser einschätzen kann. Zusätzlich kann im Chat
der Rat eines Arztes eingeholt werden, der Zugriff auf den von Ada erstellten Ge-
sundheitsbericht hat.
145
Airi Airi ist eine gesprächsorientierte Intelligenz, die auf qualitativ hochwertige Daten
aufbaut und von den Angaben und Verhaltensmustern des Anwenders lernt. Somit
stellt Airi einen personalisierten Gesundheitscoach dar.
Alz.ai Alz.ai unterstützt in der Pflege von Menschen mit Alzheimer, indem es hilft sie zu
beaufsichtigen und bei Abwesenheit direkten Telefonkontakt herzustellen.
Amelie Bei Amelie handelt es sich um einen Chatbot, der bei Anliegen zur mentalen Ge-
sundheit kontaktiert werden kann. Amelie analysiert die Bedürfnisse des Nutzers
und schickt vertrauenswürdige Artikel.
bitesnap Der Nutzer kann ein Bild einer Mahlzeit in die App hochladen und bitesnap berech-
net die entsprechende Kalorienanzahl.
doc.ai doc.ai sammelt in großem Umfang ausführliche Gesundheitsdaten, um durch KI-ge-
steuerte Vorhersageanalysen eine Übersicht von Krankheiten weltweit zu erstellen.
Des Weiteren forciert doc.ai die Zusammenarbeit mit unterschiedlichen Partnern,
um personalisierte Entscheidungen zu Gesundheitsthemen fällen zu können. Bei
doc.ai ist das biologische Profil verbrauchergesteuert und basiert auf Block Chains.
Gyant Gyant ist ein Gesundheits-Chatbot, der sich durch die Antworten der Nutzer weiter-
entwickelt und die wahrscheinlichste Krankheit auf Basis der vorliegenden Symp-
tome ermittelt.
Kick.ai Durch hochmoderne Sensortechnologie zeichnet Kick.ai die Schnelligkeit von Kicks
und Effektivität von Kampftraining auf. Kick.ai analysiert welche Auswirkungen das
Training auf die eigene Kick-Metrik hat und bietet optimierte, personalisierte Übun-
gen an.
Kiwi Kiwi entwickelt Sensorerkennungs-SDKs* und -APIs und stellt die entsprechende
Technik für Apps, die einen Bewegungserkennungssensor einbauen wollen, zur Ver-
fügung. Kiwi SDK* liefert Ergebnisse und zeichnet die für die Anwendung relevante
Entwicklung auf.
Cue ist eine auf KI-basierende App von Kiwi, die Rauchern hilft, mit dem Rauchen
aufzuhören oder es zu reduzieren. Der Nutzer gibt an, wann er raucht und sammelt
Punkte fürs Hinauszögern oder Verzichten. Durch Machine Learning passt sich die
App den Lebenssituationen und dem Fortschritt des Nutzers an.
*Software Development Kit
Mara Die Mara-App sorgt beim Joggen für die notwendige Motivation, plant jede Route
und zeichnet gelaufene Distanzen auf. Über Ohrstöpsel und Sprachbefehle kann der
Nutzer Mara mitteilen, welche Art von Lauf gewünscht ist oder Fragen über Ge-
schwindigkeit, Location, Laufdauer oder Wetter stellen. Mara zeichnet den Prozess
auf und kann den Jogger von sich aus über Wetterbedingungen und Leistungsstand
informieren.
Tess by X2AI Tess bietet erschwingliche, on-demand und qualitativ hochwertige, personalisierte
psychische Gesundheitsfürsorge für jedermann in Form eines Chatbots und bedient
sich dabei psychologischer KI. Diese KI basiert nicht nur auf Big Data, sondern ist
146
zusätzlich zustandsorientiert konstruiert. Das heißt, Tess lernt nicht nur durch vor-
herige Patienten und deren Aussagen und Reaktionen, sondern kann auch auf Pati-
enten, die bestimmte Schwellenwerte überschreiten (z.B. Bipolare Störungen), ein-
gehen.
Sleep.ai Durch Sleep.ai kann Schnarchen und Zähneknirschen im Schlaf diagnostiziert wer-
den und das Anti-Snore-Wearable hilft dabei, mit dem Schnarchen aufzuhören. Die
App verbindet sich mit dem Band, welches um den Oberarm gebunden wird, und
reagiert sehr sensibel auf Geräusche die durch Schnarchen und Zähneknirschen ver-
ursacht werden. Die App sendet ein Signal an das Armband, welches daraufhin an-
fängt zu vibrieren, was dazu führt, dass sich der Nutzer auf die Seite dreht und somit
in den meisten Fällen aufhört zu schnarchen.
PERSÖNLICHE ASSISTENTEN
Produkt Tätigkeitsbeschreibung
Amazon Echo
/ Alexa
Amazon Echo ist ein Lautsprecher, der mithilfe der Stimme kontrolliert wird. In Ver-
bindung mit dem Alexa Voice Service kann Echo Musik abspielen, Nachrichten emp-
fangen und senden, das Wetter, Sportergebnisse und vieles mehr abrufen. Darüber
hinaus funktioniert Echo mit kompatiblen Smart-Home-Geräten und steuert diese
über Sprachbefehle. Echo muss dauerhaft online sein, um zu funktionieren. Sobald
Schlüsselwörter wie "Alexa", "Echo" und "Amazon" fallen, überträgt Echo die Stim-
menkommandos an die Amazon-Server.
Apple Siri Siri ist die Sprachassistentin der iOS-Geräte. Sie dient der Erkennung und Verarbei-
tung von Sprache. Die komprimierten Sprachdaten werden an einen Apple-Server
gesendet, dort verarbeitet und das Ergebnis zurück an das genutzte Gerät gesendet.
Cortana Cortana ist die digitale Assistentin von Microsoft und unterstützt den Nutzer dabei,
Dinge zu erledigen, an Termine zu denken und produktiv über verschiedene Geräte
hinweg zu arbeiten. Dabei kann Cortana auf tausende Apps und Dienste zugreifen
und jeden Tag dazulernen.
Facebook M Facebook M war ein virtueller Assistent und ein von Facebook entwickelter Bot, der
über KI auf die Fragen der Nutzer eingehen konnte. Dafür wurde die KI zusätzlich
mit Menschen verknüpft, die hauptsächlich Fragen beantworteten und die KI trai-
nierten. M verbindete automatisch den Kontext einer Unterhaltung im Facebook
Messenger mit nützlichen Funktionen des Messengers (z.B. die Plan-Funktion). Die
aus dem Pilot-Projekt von Facebook gewonnen Erkenntnisse wurden dafür genutzt
Einblicke in die Nutzererwartungen und -anforderungen an virtuelle Assistenten zu
erhalten.
FOCUS FOCUS ist ein persönlicher Coach für Produktivität. Es können Ziele, Aufgaben, Stra-
tegien und Taktiken mit dem Chatbot diskutiert werden. FOCUS stellt sicher, dass
der Nutzer in einer immer schneller werdenden Welt auf Kurs bleibt. Basierend auf
Analysen und wissenschaftlichen Experimenten mit über 1000 Teilnehmern erhält
der Nutzer personalisierte Empfehlungen, Methoden und wöchentliche Übungen,
um einen gesunden, produktiven Lebensstil anzunehmen.
147
Gatebox Gatebox ist ein virtueller Hausroboter. Der Anwender kann sich einen Charakter
aussuchen. Dieser wird in Form eines holographischen Anime-Assistenten in einer
Espressomaschine dargestellt.
Google Assistant Es handelt sich um einen persönlichen Assistenten für den Messenger Google Allo,
Google Home und iOS. Google Assistant verarbeitet gesprochene und eingegebene
Sprache. Somit können Fragen des Nutzers beantwortet werden und Dinge (wie z.B.
Nachrichten senden, Musik wiedergeben, Termine einrichten etc.) erledigt werden.
Hound Hound ist ein persönlicher Assistent für den täglichen Gebrauch und zeichnet sich
durch die Speech-to-Meaning-Technologie aus, die besonders schnell und genau
Sprachbefehle erkennt und versteht. Dabei erfasst die Hound-Technologie den Kon-
text und die Details zugleich.
Ling Die Produkte von Ling zeichnen sich durch KI mit "Seele" aus und dienen dazu einen
möglichst naturgetreuen Austausch zu ermöglichen. Das gleiche gilt für Roboter: Sie
sollen eher einem Lebewesen als einer Maschine ähneln. Die chinesische Antwort
auf Amazon Echo lautet: LingLong DingDong. Der digitale persönliche Assistent wird
durch die Stimme aktiviert und ist ein intelligenter Lautsprecher für Zuhause. Das
System kann einfache Frage beantworten, Musik abspielen und Wettervorhersagen
und Nachrichten vorlesen.
Remi Remi AI ist ein Unternehmen mit Forschungsschwerpunkt und arbeitet an KI, die auf
neurowissenschaftlichen Aspekten aufbaut. Die Remi App ist ein persönlicher Assis-
tent, der sich zurzeit noch im Beta-Stadium befindet. Die App wird sich ebenfalls
von der Neurowissenschaft inspirieren lassen und einen Assistenten mit multi-tas-
king Eigenschaften schaffen, um die Kommunikation zwischen Mensch und Ma-
schine auf die nächste Stufe zu heben.
Spoken Der Name Spoken steht für einen virtuellen Assistenten in Form einer mobilen Platt-
form, die eine gesprochene Zusammenfassung aller wichtigen und nützlichen Infor-
mationen aus den vorhandenen Apps generiert. Es handelt sich um einen Hub für
das voranschreitende, wachsende Ökosystem aus Apps, Informationsquellen und
internetfähigen Geräten.
CHATBOTS
Produkt Tätigkeitsbeschreibung
Luka Luka ist ein Messenger mit KI-Bots, der dem Nutzer hilft GIFS und lustige Videos zu
finden, Pläne zu schmieden, Plätze zu finden, Trivia-Spiele zu spielen und Spaß zu
haben. Beispielsweise ist es möglich alleine oder in der Gruppe mit dem Lieblings-
bot zu chatten.
MyWave Myia ist der Personal Assistent von myWave und hat sich zur Aufgabe gemacht, das
Leben des Nutzers zu vereinfachen, Aufgaben zu übernehmen, für die keine Zeit
bleiben und mehr Zeit für wichtige Dinge zu schaffen. Myia lernt, wer der Nutzer ist
und was seine speziellen Vorlieben sind. Dabei arbeitet Myia auf einer Customer-
Managed-Relationship-Plattform.
148
Frank ist der proaktive Assistent von myWave, der den Nutzer bezüglich der Neben-
kosten in Neuseeland berät, den besten, erhältlichen Deal heraussucht und Fragen
rund um das Thema beantwortet.
Lyra Lyra basiert auf KI und zeichnet den individuellen CO2-Ausstoß auf, indem es das
Verhalten des Nutzers über den Tag hinweg registriert. Der Nutzer muss dafür mit
Lyra wie mit einem menschlichen Wesen agieren, um ein Verständnis für die Aus-
wirkungen der eigenen Handlungen und Angewohnheiten zu schaffen oder Lyra mit
anderen Apps und Geräten verbinden, um verhaltensbezogene Analysen zu ermög-
lichen. Mit einbezogen werden Emissionen die mit Reisen, dem Energieverbrauch
und Einkäufen in Verbindung stehen.
MEDIEN UND UNTERHALTUNG
Produkt Tätigkeitsbeschreibung
Jottr Jottr analysiert, welche Artikel und Nachrichten der Nutzer liest oder löscht und ge-
neriert aus diesen Daten Verhaltensmuster auf deren Basis dem Nutzer personali-
siertes Material vorgeschlagen wird. Zusätzlich hält Jottr passende Überraschungs-
artikel bereit, die den Horizont des Nutzers erweitern.
News360 Die News360-App lernt, was den Nutzer interessiert und welche Beiträge im Web
ihm gefallen. Die ausgewählten Themen werden in einer ansprechenden Form prä-
sentiert, sind immer auf dem aktuellsten Stand und können auch offline gelesen
werden.
Aiva Avia stellt emotionale Soundtracks zusammen und kommt in Filmen, Videospielen,
Werbung und zur Unterstützung des Storytellings zum Einsatz. Es handelt sich um
Künstliche Intelligenz, die die Musik der Zukunft komponiert.
Pandora Pandora personalisiert das Radio und spielt Musik, die auf den Geschmack des Zu-
hörers zugeschnitten ist. Dabei entwickelt sich Pandora mit der dem Geschmack des
Nutzers mit. Durch den Daumen-Button können Lieder bewertet werden und Pan-
dora lernt aus diesem Rating für die nächsten Vorschläge.
Spotify Spotify ist ein Dienst, der Musikstreaming anbietet und dem Kunden Vorschläge auf
der Basis von bereits angehörten Lieder unterbreitet.
NACHRICHTEN
Produkt Tätigkeitsbeschreibung
AI Weekly AI Weekly ist ein wöchentlich erscheinender Newsletter, der über Neuigkeiten im
Bereich KI und Machine Learning informiert.
Approximately
Correct
Approximately Correct ist ein Blog, der sich mit KI und technischen und sozialen
Perspektiven des maschinellen Lernens beschäftigt.
Axiomen Axiomen ist ein Newsletter, der alle zwei Wochen erscheint und sich hauptsächlich
mit Künstlicher Intelligenz auseinandersetzt.
149
Concerning.ai Concerning.ai untersucht die Fragestellung, ob von Künstlicher Intelligenz ein Risiko
für die Menschheit ausgeht und was gegen die Gefahren, die KI mit sich bringt, un-
ternommen werden kann. Die Thematik wird in Form von Podcasts kommentiert.
Machine Learning
Weekly
Dieser wöchentlich erscheinende Newsletter beschäftigt sich vornehmlich mit Ma-
chine Learning und Deep Learning und dient dazu die Forschung auf diesem Gebiet
weiter voranzubringen.
REISEN UND URLAUB
Produkt Tätigkeitsbeschreibung
Emma Emma ist eine persönliche Reiseassistentin, die automatisch die anfallende Reise-
und Fahrtzeit berechnet und diese zusammen mit wichtigen Details in den Kalender
des Kunden einträgt. Das Programm arbeitet im Hintergrund und verbindet sich mit
dem Google Kalender des Nutzers.
ETA ETA überwacht den Kalender und erstellt vollständige Reiserouten. Zu dem Service
gehört zusätzlich, dass alle Reisebuchungen und Check-ins mit einem Klick erledigt
werden, ETA Überlandtransporte bucht und Upgrade-Anfragen bearbeitet. ETA
merkt sich die Vorlieben des Nutzers und unterrichtet ihn über zusätzliche, interes-
sante Leistungen, die für die Reise direkt in der App gebucht werden können.
HelloGbye Die HelloGbye-App plant und bucht gewünschte Reiseziele innerhalb von Sekunden.
Dem Kunden wird der Nachbuchungsgang bei einer Reiseroutenänderung abge-
nommen und Buchungs- und Änderungsgebühren entfallen. Zusätzlich erhält der
Kunde personalisierte Hotelempfehlungen und kann bei der Buchung Treuepunkte
sammeln.
Ready! Ready! nutzt ausgefeilte Algorithmen, um die aktuellsten Verkehrsaufkommen- und
Reisezeitprognosen zu treffen. Basierend auf diesen Daten wird auf zeitkritische
Termine hingewiesen und die optimale Reiseroute vorgeschlagen.
TRANSPORT
Produkt Tätigkeitsbeschreibung
Vinli Vinli ist eine Cloud-Plattform, die Funktionen eines „Smart Cars“ in jedes normale
Auto integrieren kann und das Auto zu einem 4G-LTE-WLAN-Hotspot umwandelt.
Die Plattform setzt sich aus 40 verschiedenen Apps zusammen und ist damit das
größte App-Ökosystem für Autos.
VERSICHERUNG UND RECHTSBERATUNG
Produkt Tätigkeitsbeschreibung
Docubot Bei Docubot handelt es sich um einen Chatbot, der mittels KI Rechtsfragen beant-
wortet. Somit bleibt dem Kunden der Gang zum Anwalt erspart und Rechtsexper-
ten haben den Vorteil, dass sie mehreren Kunden ihre Dienstleistung anbieten kön-
nen, ohne sich den Kalender mit Terminen zu füllen. Der Kunde meldet sich bei
Docubot an, wählt ein Dokument aus und lässt sich von Docubot durch den Prozess
führen.
150
Driveaway Die Software von Driveaway unterstützt Autofahrer dabei ein sicheres Fahrverhal-
ten zu erlernen. Gleichzeitig hilft Driveaway Versicherungsfirmen dabei, gute Auto-
fahrer zu identifizieren und zu belohnen. Die Technologie baut auf KI, Sensor-Fusion
und Machine Learning auf und kann das Fahrtverhalten über das Smartphone des
Kunden bewerten.
E-COMMERCE
Produkt Tätigkeitsbeschreibung
Amazon Amazon ist ein Online-Versandhändler mit einer sehr vielseitigen Produktpalette.
Neben dem klassischen Verkauf, bietet Amazon weitere Dienste an (Amazon Video,
Audible, Alexa Internet, IMBd, Amazon Pay). Des Weiteren wird der eigene Suchal-
gorithmus A9 entwickelt, der hauptsächlich direkt auf Amazon angewendet wird.
Der E-Commerce-Riese bietet zusätzlich einen eigenen Cloud-Dienst an.
Zalando Zalando ist ein deutscher Versandhandel für Schuhe und Mode. Zalando kann mit
Hilfe von Big-Data-Analysen und einer skalierbaren In-Memory Datenbanklösung
auf die Kundenbedürfnisse eingehen und eine optimale Warenverfügbarkeit ge-
währleisten. Diese Erkenntnisse sind die Basis für hilfreiche, personifizierte Emp-
fehlungen, die wiederum dafür sorgen, dass der Kunde zum Webshop zurückkehrt
und dort im besten Fall erneut einkauft.
Alibaba Albibaba.com ist eine chinesische Plattform für Kommunikation und Handel. Das
Unternehmen bedient sich der Bereiche IoT, Cloud-Computing und KI und hat den
eigenen Bezahldienst Alipay eingeführt.
FINANZEN
Produkt Tätigkeitsbeschreibung
Abe AI Abe AI hilft Banken mit intelligenten Lösungen für den Kundensupport und bei der
Einbindung ihrer Services in verbreitete Konversationsschnittstellen (z.B. Amazon
Alexa, Facebook Messenger). Diese Konversationskanäle ermöglichen neue Per-
spektiven in puncto Kundenzufriedenheit, Kostenersparnisse und beispielloser For-
schung. Der Kunde erhält Zugriff auf seine Finanzinformationen durch sprach- und
textbasierte Interfaces. Mittels KI, Machine Learning und Natural Language Proces-
sing wurden Financial-Chatbots entwickelt, die als virtuelle Assistenten Fragen be-
antworten und stellen können und dem Kunden Zugriff auf seine Bankdaten gewäh-
ren.
Andy Andy ist eine auf KI basierende App, die als persönlicher Steuerberater den Kunden
unterstützt. Das Programm kann zu jederzeit Steueroptimierungsstrategien emp-
fehlen und Formulare ausfüllen.
Ara Ara kümmert sich darum, dass der Nutzer seine persönlichen Finanzen unter Kon-
trolle behält. Über den Facebook Messenger wird Ara über getätigte Ausgaben in-
formiert und kann bei Bedarf eine Übersicht erstellen.
BOND BOND ist ein intelligenter Agent, dessen Ziel es ist, eine Finanzstrategie für den Kun-
den auszuarbeiten. Dabei sollen vom Kunden geäußerte Ziele erreicht werden, in-
151
dem tägliche Ausgaben, Investitionen in gewinnbringende Aktien und Schulden-
rückzahlungen von BOND optimiert werden. Dafür muss BOND mit dem persönli-
chen Bankkonto verbunden werden. Die Künstliche Intelligenz versteht die vom
Nutzer getroffenen Annahmen, Ziele und Grenzen und kann sich aktiv einbringen,
um für finanzielles Wachstum zu sorgen.
Mylo Mylo rundet automatisch jeden Kaufbetrag auf und legt es als Spargeld an. Dafür
sind auf Seiten des Nutzers keine Kenntnisse im Investitionsgeschäft notwendig und
Kaufgewohnheiten werden automatisch zu Spargewohnheiten. Mylo bedient sich
Künstlicher Intelligenz, um personalisierte Empfehlungen für finanzielle Entschei-
dungen aussprechen zu können.
SOCIAL MEDIA
Produkt Tätigkeitsbeschreibung
Firedrop Mit Sacha, der auf KI basierenden Designerin von Firedrop, ist es spielend einfach
eine Webpage zu bauen. Der Nutzer kann über intuitiven Sprachgebrauch oder ei-
nen Chat mit Sacha kommunizieren. Das Design der Internetseite wird individuell
an die Personalität und den Inhalt angepasst.
Millions Million generiert mit einem intelligenten SMS-Assistenten einen Style Guide, einen
Entwurf für die eigene Website und einen Domainnamen. Danach versorgt Million
den Nutzer jeden Monat mit einem neuen Merch-Design, aktualisiert die Internet-
seite regelmäßig mit dynamischen Inhalten und verschickt monatlich einen
Newsletter an die auf der Internetseite registrierten Mitglieder.
True Anthem Mittels KI wird die optimale Distribution von Inhalten auf den Sozialen-Medien-
Plattformen für die Herausgeber ermittelt. Die Entscheidungen werden anhand von
Datenanalysen getroffen und legen in Echtzeit fest, wann welcher Post am besten
veröffentlicht werden sollte um möglichst viel „Social Traffic“ zu generieren. Außer-
dem durchsucht True Anthem das gesamte digitale Archiv, um noch heute relevan-
ten Themen aufzustöbern und kümmert sich automatisch um die Terminierung der
Posts.
Signature Signature kann mit Hilfe von Social-Media-Accounts und Künstlicher Intelligenz eine
elegante Titelseite für die Internetseite bauen und somit der Website eine individu-
elle, digitale Identität verleihen.
GAMING
Produkt Tätigkeitsbeschreibung
Hello Neighbor Hello Neighbor ist ein Survival-Horror-Stealth-Video-Spiel. Ziel des Spiels ist es, sich
in den Keller des Nachbarn zu schleichen und dort ein Geheimnis zu entdecken. Die
KI des Spiels verändert das Verhalten des Nachbarn auf Grundlage der zuvor vom
Spieler gewählten Strategie und Wege.
Echo Das Spiel Echo verbindet Stealth-Games mit Machine Learning und passt sich dem
Verhalten des Spielers an. Die KI des Spiels sorgt dafür, dass der Feind von den Fä-
higkeiten der Protagonistin En lernt. Schießt En beispielsweise auf ihre Gegner, kön-
152
nen diese im nächsten Level auch auf sie schießen. Der Spieler muss somit dauer-
haft seine eigene Taktik überdenken, quasi als würde er gegen sich selbst Schach
spielen.
No Man´s Sky Bei No Man´s Sky geht es um Überlebensstrategien und die Erkundung eines un-
endlichen Universums ohne Grenzen und Ladezeiten. Der Spieler entdeckt Plätze
und Kreaturen, die kein anderer Spieler zuvor gesehen hat oder eventuell jemals
sehen wird.
SONSTIGE
Produkt Tätigkeitsbeschreibung
CaptionBot.ai Der CaptionBot soll die Fähigkeiten von Microsoft Cognitive Services demonstrie-
ren. Das Programm erkennt den Inhalt von Fotos und kann so automatisch eine in-
dividuelle Bildbeschreibung für jedes Bild anfertigen. Dabei basiert der CaptionBot
auf Computer Vision API, Emotion API und Bing Image API.
#Laugh Mit dem globalen Kunstprojekt #Laugh soll das erste Kunstprojekt im Weltall ge-
schaffen werden. Lachen gilt als das menschlichste Geräusch und soll mittels eines
speziellen, schwerelosen Druckers auf der Internationalen Raumfahrtstation in ei-
ner 3D-Skulptur verkörpert werden. Über eine App kann jeder sein Lachen aufzeich-
nen und zur Verfügung stellen. Das Projekt dient dazu, der Menschheit zu ermögli-
chen Kunst in der Schwerelosigkeit zu schaffen.
Wixi Die dreiteilige Connected-Home-Plattform versteht, optimiert und erweitert die
vernetzte Welt. Die Wixi-App scannt das WLAN-Netzwerk und die angeschlossenen
Geräte des Nutzers, um die Geschwindigkeit und die Zuverlässigkeit der Internet-
verbindung zu optimieren, indem die App Probleme identifiziert und löst.
Token Token hilft dem Nutzer dabei, ein passendes Geschenk zu finden. Die Geschenke
werden aufwendig verpackt und es wird eine handgeschriebene Karte beigelegt.
Mittels KI und einigen Details über den Empfänger werden individualisierte Ge-
schenkevorschläge unterbreitetet.
153
9.2 MARKTÜBERS ICHT : B2B-ANWENDUNGEN
AUDIO
Produkt Funktionsbeschreibung
Capio AI Capio AI ist ein Programm zur Spracherkennung und - verarbeitung. Es nutzt Deep
Learning, um eine auf natürlicher Sprache basierende Gesprächsschnittstelle zu
Geräten jeglicher Art zu schaffen.
Gridspace Gridspace ist eine Software, die Konversationen mithilfe von KI in Echtzeit analy-
siert und interpretiert, um so die Geschäftskommunikation von Unternehmen zu
verbessern. Dabei dekodiert Gridspace den Eingang von Text- und Tonnachrichten
und verarbeitet den Konversations-Feed automatisch.
MindMeld MindMeld ist eine KI-Plattform über die Unternehmen Konversationsassistenten
für Apps, Geräte oder Websites erstellen können. Hierbei nutzt MindMeld Deep-
Domain Conversational AI, um Nutzereingaben zu verstehen und diese mit benö-
tigten Informationen zu versorgen.
TalkIQ TalkIQ ist eine Echtzeit-Gesprächsanalyse-Software, die eine KI-Technologie zur
verbesserten Kundenkommunikation verwendet. TalkIQ analysiert die Kunden-
motivation, leitet Mitarbeiter durch Kundengespräche und schlägt Antworten auf
Kundenfragen sowie Sachverhalte vor.
Twilio Twilio unterstützt Entwickler beim Aufbau intelligenter Kommunikationssysteme
für Websites und Apps. Über eine Programmierschnittstelle können Entwickler
Cloud-basierte SMS-, Telefon-, Fax-, Video- und Chat-Kommunikationsplattfor-
men einrichten.
BUSINESS INTELLIGENCE UND ANALYTICS
Produkt Funktionsbeschreibung
Arago/HIRO HIRO ist eine KI-Technologie von Arago zur Optimierung von Unternehmens- und
IT-Prozessen für Firmen in allen Branchen. Der dynamische und universell einsetz-
bare Algorithmus kann zur Lösung einer Vielzahl von komplexen Problemstellun-
gen genutzt werden.
Arimo Arimo ist KI-Software, die Verhalten analysiert und Vorhersagen für kommerzielle
IoT-Applikationen trifft. Hierfür greift Arimo mithilfe von Deep Learning auf das
bisherige Verhalten von Maschinen, Geräten und Kunden zurück, um Unterneh-
men Möglichkeiten zur Management-, Produkt- und Prozessoptimierung aufzu-
zeigen.
Einstein Einstein ist ein intelligentes CRM-System innerhalb der Salesforce-Plattform, das
mithilfe von Deep Learning das Verhalten von Nutzern voraussagt. Auf dieser
Grundlage liefert Einstein Produkt- bzw. Handlungsempfehlungen, die auf die spe-
ziellen Unternehmensprozesse und Kundendaten abgestimmt sind.
Sundown Sundown ist ein KI-System, das sich wiederholende Aufgaben im Kundenservice
und im Verkauf automatisiert. E-Mail-, SMS- und Social Media-Anfragen können
154
durch die Analyse der Kundeninteraktion in Kombination mit dem Einsatz von na-
türlicher Spracharbeitung und Machine Learning automatisch beantwortet wer-
den.
Prix Prix erlaubt es Hotels mithilfe seiner Softwarelösung Pace den Umsatz und die
Auslastung zu optimieren. Hierbei analysiert Pace die Buchungsdaten und das
Umsatzpotential von Hotelanbietern und gibt automatisierte Preisempfehlungen
und -prognosen.
CORE AI
Produkt Funktionsbeschreibung
Arya Arya.ai ist eine Plattform, die verschiedene Programme zum Erstellen, Managen
und zur Skalierung von Deep Learning Anwendungen bereitstellt. Mithilfe des Pro-
gramms können vereinfacht KI-Applikationen entwickelt und für den jeweiligen
Einsatz angepasst werden, sodass jeder Entwickler komplexe Geschäftsprobleme
lösen kann.
Fluid AI Fluid AI findet versteckte Beziehungen, Muster, Korrelationen und Ursachen in-
nerhalb großer Datenmassen zum Erschließen von Problemstellungen in diversen
Branchen und Abteilungen. Durch den Einsatz von Deep Learning-Algorithmen
entwickelt Fluid AI eine künstliche Intelligenz zum Lösen zu Grunde liegender
Probleme.
H2O.ai Die Open-Source Machine-Learning-Lösung H2O.ai ist eine Plattform für Entwick-
ler, die das Erstellen von intelligenten Anwendungen vereinfacht und eine Integra-
tion der generierten Algorithmen in eigene Applikationen unterstützt. Beispiels-
weise werden Prognosen für Betrugsversuche erstellt und die Abwanderung von
Kunden betrachtet. Zu den analysierten Bereichen gehören Marketing, Versiche-
rung, Finanzwesen und Telekommunikation.
Sentient Mithilfe von KI hat Sentient verschiedene Applikationen zum Lösen komplexer Ge-
schäftsprobleme für eine Vielzahl verschiedener Anwendungsbereiche entwi-
ckelt. Sentient lässt den Nutzer vollständig autonome Systeme erstellen, wodurch
sich u. a. im Bereich digitales Marketing Kampagnen optimieren, im E-Commerce
höhere Umsätze erzielen und im Finanzwesen Handelsstrategien wieterentwi-
ckeln lassen.
Ogma Ogma ist Anbieter einer KI-Technologie mit einem multidisziplinären Ansatz, der
auf einer Kombination aus Machine Learning, angewandter Mathematik dynami-
scher Systeme und Computer-Neurowissenschaft beruht. Durch diese Technolo-
gie lassen sich Deep-Learning-Algorithmen erstellen, deren selbstorganisatorische
Strukturen, Flexibilität und Effizienz mit dem menschlichen Gehirn vergleichbar
sind.
DATEN SCRAPPING
Produkt Funktionsbeschreibung
Amazon MTurk ist ein virtueller Marktplatz von Amazon, der es Unternehmen erlaubt, zeit-
lich unbeschränkt "menschliche Intelligenz" in Applikationen zu integrieren und
155
Mechanical Turk einfache Aufgaben zu automatisieren, die Computer bisher noch nicht im Stande
sind zu erfüllen. Durch ein bedarfsorientiertes Arbeitskraft-Management lassen
sich hierdurch Lohnkosten senken.
Datalogue Datalogue verwendet KI, um Daten jeglicher Art und aus beliebiger Quelle zu ver-
arbeiten und zum sofortigen Einsatz bereitzustellen. Hierfür standardisiert und
zerlegt Datalogue Datensätze automatisch und findet Redundanzen.
Import.io Import.io nutzt Machine-Learning-Algorithmen, um Daten von Websites automa-
tisch zu extrahieren. Darüber hinaus erlaubt Import.io das Überwachen von Ver-
änderungen auf Websites sowie das Vergleichen von Daten zwischen verschiede-
nen Websites.
Playment Um Unternehmen aus den Bereichen E-Commerce, Bankenwesen und autonomes
Fahren bei Bildannotationen sowie bei der Transkription, Erfassung und Analyse
von Daten zu unterstützen, setzt Playment eine Mischung aus künstlicher und
(crowdsourced) menschlicher Intelligenz ein. Hierfür zerlegt die Plattform eine
Aufgabenstellung zunächst in Mikroaufträge, die im Anschluss von Nutzern über
eine gamifizierte App erfüllt werden.
WorkFusion Workfusion automatisiert Geschäftsprozesse durch die Kombination von roboter-
gesteuerter Prozessautomatisierung, Machine Learning, KI-gestützter kognitiver
Automatisierung und Arbeitskraftorchestrierung. Hierbei wird menschliche und
künstliche Intelligenz miteinander verbunden, um die Produktivität, Agilität und
Dienstleistungserbringung von Unternehmen zu verbessern.
DATENWISSENSCHAFT
Produkt Funktionsbeschreibung
Dataiku Dataiku bietet über seine Software DSS eine Plattform, die alle nötigen Schritte
und Werkzeuge zur Erstellung, Prototyp-Prüfung, Ausführung und Wartung von
datengesteuerten Anwendungen in einer Applikation vereint.
Kaggle Kaggle ist eine Plattform für Datenspezialisten, die über eine Website in verschie-
denen Wettbewerben miteinander konkurrieren, in denen diese durch den Ein-
satz von Machine Learning komplexe Problemstellungen lösen. Durch das Aus-
schreiben von Preisgeldern können Unternehmen auf diese Art und Weise reale
Aufgaben durch die Community von Kaggle lösen lassen.
SherlockML SherlockML ist eine Cloud-Plattform, die den Zugriff auf Datensätze vereinfacht
und Werkzeuge zur Datenbearbeitung bereitstellt. Zudem ermöglicht SherlockML
das Designen, Testen und Generieren von KI-Modellen zur Lösung von Geschäfts-
problemen.
SparkBeyond SparkBeyond ist der Anbieter einer automatisierten Suchmaschine, die es Nutzern
erlaubt, in natürlicher Sprache nach komplexen Mustern in Datensätzen zu su-
chen. Die gewonnenen Einblicke können daraufhin zur Optimierung von Ge-
schäftsprozessen und zur Ergebnisvorhersage genutzt werden.
Yseop Yseop automatisiert das Schreiben von Berichten, Websites, E-Mails etc. durch
den Einsatz einer natürlichen Sprachverarbeitungs-Software. Die Software ist in
156
der Lage mittels KI automatisch Schlussfolgerungen zu ziehen und pro Sekunde
mehrere tausend Textseiten und Dialoge in verschiedenen Sprachen zu generie-
ren.
FORSCHUNG, ENTWICKLUNG UND PROGRAMMIERUNG
Produkt Funktionsbeschreibung
Anodot Anodot ist eine automatisierte Detektionsplattform, die Machine-Learning-Algo-
rithmen zur Echtzeitidentifizierung von kritischen Geschäftsvorfällen, Anomalien
und Datenausreißern verwendet. Hierdurch wird die Latenz kritischer Geschäfts-
prozesse verringert.
Gigster Gigster bietet einen Softwareentwicklungsservice mit einem On-Demand-Ansatz
zu einem Fixpreis an. Hierfür gewährt Gigster seinen Kunden Zugang zu einem
Netzwerk von Fachexperten aus den Bereichen Entwicklung, Design, KI und Pro-
duktmanagement.
Morph.ai Morph.ai ist eine Chatbot Software-Suite, die es Unternehmen gestattet persona-
lisierte automatische Dialogsysteme selbst zu erstellen und zu managen, um so
ihre individuelle Zielgruppe besser erreichen zu können.
Turtle Die Projektmanagement- und Chat-Software Turtle.ai vereinfacht die Zusammen-
arbeit zwischen Teammitgliedern im Bereich Softwareentwicklung. Zudem inte-
griert Turtle ein Tool zur Anstellung und Projekteinbindung von externen Soft-
wareentwicklern.
Gesture.ai Gesture.ai ist eine leicht zu implementierende Technologie zur Erkennung von
Gesten für Softwareentwickler sowie ein Softwareentwicklungssystem, das da-
rauf zielt, interaktive Gestenerkennung für Entwickler jeder Fähigkeitsstufe zu-
gängig zu machen.
Tangle Tangle ist ein Programm zur vereinfachten Entscheidungsfindung im Bereich De-
sign und Strategie. Hierfür setzt Tangle nicht auf traditionelle Tabellenkalkulatio-
nen, sondern betrachtet die verschiedenen Möglichkeiten, Ursachen und Fakto-
ren. Der Unterschied zu anderen Entscheidungshelfern liegt darin, dass Tangle le-
diglich den Umgang mit schwierigen Situationen, jedoch nicht die Problemstellung
an sich, vereinfacht.
INTERNE ANALYSE
Produkt Funktionsbeschreibung
Deckard.ai Deckard.ai ist eine Projektmanagementsoftware mit der sich durch KI Zeitschät-
zungen automatisieren und Sprint-Planungen optimieren lassen. Hierfür schätzt
Deckard.ai die benötigte Zeit für eine Aufgabe selbst ein und passt die Projektpla-
nung automatisch an.
157
IBM Watson IBM Watson ist ein kognitives System, das seinen Nutzern ermöglicht Daten aus
Text-, Bild-, Audio- und Videodateien zu analysieren und personalisierte Empfeh-
lungen zu erhalten. Hierfür wertet IBM Watson mithilfe von Machine Learning
verschiedene Nutzerparameter wie Persönlichkeit und Emotionen aus.
Sapho Das "Modern Portal" von Sapho personalisiert und vereinfacht Unternehmensan-
wendungen für Mitarbeiter und fasst alle Systeme auf einer einzigen Portalseite
zusammen. Hierfür verwendet Sapho Micro-Apps, die auf bestehenden IT-Syste-
men aufbauen und Mitarbeiter mit Benachrichtigungen u. a. über anstehende
Aufgaben und wichtige Änderungen in den Geschäftsdaten versorgen.
OneFactor OneFactor ist ein Anbieter für KI-Dienstleistungen speziell für Unternehmen mit
Fokus auf die Automatisierung von Entscheidungsprozessen in den Bereichen Ri-
sikomanagement, Einzelhandel und Werbung. Darüber hinaus entwickelt oneFac-
tor Machine-Learning-Algorithmen und Geoinformationsdienstleistungen zur Op-
timierung von Arbeitsvorgängen und Lösung von Geschäftsproblemen.
Rainbird Rainbird ist eine KI-gestützte Entscheidungsfindungs-Plattform, die es Unterneh-
men ermöglicht, Geschäftsprozesse zu optimieren, zu vereinfachen und zu auto-
matisieren. Hierfür trifft Rainbird auf Grundlage von Daten automatisierte Ent-
scheidungen, Vorhersagen und Empfehlungen.
CORE MACHINE LEARNING
Produkt Funktionsbeschreibung
Datacratic Als Anbieter für Zielgruppendaten unterstützt Datacratic Unternehmen dabei, ef-
fektivere und gezieltere Marketingkampagnen für ihre Marken zu erstellen. Durch
die Kombination aus Machine Learning, KI und Technologien in der digitalen Wer-
bung, hilft Datacratic seinen Nutzern bei der Verbesserung der Zielgruppenan-
sprache.
Deepsense.ai Deepsense.ai ist ein Dienstleister für KI-Lösungen, der Unternehmen ohne Exper-
tise im Bereich Data Science dabei unterstützt Machine Learning Modelle und KI-
gestützte Prozesse zu entwickeln.
HyperScience HyperScience entwickelt KI-Lösungen zur Automatisierung von bestimmten Pro-
zessen im Büro und zur Reduzierung des bürokratischen Aufwands von Unterneh-
men und Behörden und deren Kunden.
SigOpt SigOpt ist ein Anbieter zur Beschleunigung von Machine-Learning-Modellen. Hier-
für schlägt SigOpt seinen Nutzern basierend auf Bayes'scher Optimierung Para-
meterkonfigurationen vor.
Amazon Machine
Learning
Amazon Machine Learning on AWS bietet eine Reihe von Programmierschnittstel-
len, mit denen Entwickler verschiedener Fähigkeitsstufen Machine Learning prob-
lemlos nutzen und in jede Anwendung integrieren können. Hierfür werden ver-
schiedene gebrauchsfertige Anwendungsprogrammschnittstellen in den Berei-
chen Bilderkennung, Konversation und Sprache bereitgestellt.
CONNECTED EVERYTHING, IOT UND SENSOREN
158
Produkt Funktionsbeschreibung
Black.ai Black.ai ist ein Anbieter von Ortungssystemen mit "Plug-and-Play"-Funktionalität.
Hierfür zeichnet eine Blackbox Bewegungs- und Verhaltensmuster mithilfe eines
3D-Sensorsystems auf und hilft so bei der Entwicklung von autonomen Systemen.
KONUX KONUX bietet IoT-Lösungen für industrielle Anwendungen und das Bahnwesen an
und nutzt hierfür intelligente Sensoren, Datenfusion und KI. So können Überwa-
chungssysteme, Zustandsanalysen sowie die Instandhaltungsplanung unterstützt
und vorausschauend geplant werden.
Planet OS Planet OS bietet Big-Data-Infrastrukturen, die Energiefirmen mit Fokus auf erneu-
erbare Energien dabei helfen, umweltbezogene Daten besser zu nutzen. Über ver-
schiedene Anwendungen können solche Daten besser in bestehende Systeme in-
tegriert und mit diesen ausgetauscht sowie visualisiert werden.
Snips Snips ist ein Anbieter von Spracherkennungs- und -verarbeitungssystemen, durch
die sich Alltagsgeräte wie Radios, Kaffee- oder Waschmaschinen steuern lassen.
Der angebotene Sprachassistent verfügt über KI und nutzt Machine-Learning-Al-
gorithmen zum Verstehen natürlicher Sprache, zur Transformation und zur Erken-
nung von aktivierenden Wörtern.
Verdigris Mithilfe der Hard- und Software von Verdigris können Unternehmen ihren Ener-
gieverbrauch analysieren und -bedarf vorhersagen, um so Gebiete mit Optimie-
rungs- und Einsparungspotential aufdecken zu können. Hierfür bietet Verdigris ei-
nen intelligenten Sensor zum Nachverfolgen sowie ein Internet-Dashboard zur
Überwachung des Verbrauchs.
TEXTANALYSE UND -KREATION
Produkt Funktionsbeschreibung
Agolo Agolo nutzt KI, um automatisch inhaltliche Zusammenfassungen aus verschiede-
nen internen bzw. externen Dokumenten und Informationsquellen zu erstellen.
Zu diesem Zweck scannt Agolo die ausgewählten Dokumente, erkennt Zusam-
menhänge zwischen den Quellen und deckt die wichtigsten Informationen auf.
Textio Textio ist eine Software, die Unternehmen dabei unterstützt, effektivere Stellen-
anzeigen zu schreiben. Durch die Analyse einer Vielzahl von Jobausschreibungen
bewertet Textio die Qualität von Unternehmensanzeigen und schlägt in Echtzeit
Verbesserungen vor.
AX Semantics Die Software von AX Semantics erstellt automatisierte Massentexte wie Produkt-
anzeigen für Onlinehändler und kann diese in verschiedenen Sprachen generie-
ren. Hierbei greift AX Semantics auf KI zurück, um auf Basis klassifizierbarer Daten
nutzerkonfigurierte Inhalte zu erstellen.
Retresco Retresco ist ein Anbieter KI-basierter Automatisierung von digitalen Inhalten. Die
Expertise von Retresco reicht von semantischen Analysen zur inhaltlichen Er-
schließung von Texten über die Generierung von Themen-Managementsystemen
159
bis hin zur automatischen Erstellung von datenbasierten Texten wie Sportbericht-
erstattungen, Produkttexten oder Marktanalysen in natürlicher Sprache.
Wordsmith Wordsmith ist eine Plattform, die natürliche Sprache generiert und Daten in nar-
rative Texte transformiert. Wordsmith's Technologie ist integrierbar in eine Reihe
von Anwendungen und bietet eine Programmierschnittstelle zur Erstellung von
Textinhalten in den Bereichen Finanzwesen, E-Commerce, Sport, Business Intelli-
gence, etc..
VISION UND VIDEO
Produkt Funktionsbeschreibung
Achron Bei Achron handelt es sich um einen Anbieter von autonomen Drohnen für den
industriellen Einsatz. Die Drohnen werden zur Videoüberwachung, zur Inspektion
oder beispielweise zum 3D-Mapping verwendet. Hierfür setzt Achron auf KI zur
Automatisierung der unbemannten Fluggeräte.
Affectiva Durch das Auswerten verschiedener Parameter erkennt die Emotionserkenungs-
software von Affectiva über eine Standardwebcam spezielle Emotionen und Ge-
sichtsausdrücke von Nutzern. Hierdurch können Unternehmen Einblicke in die
emotionale Reaktion ihrer Kunden erhalten, um so ihre Produkte anzupassen bzw.
zu verbessern.
GrokStyle GrokStyle ist Anbieter einer visuellen Suchmaschine für die Bereiche E-Commerce
und Einzelhandel. Mithilfe eines Deep-Learning-Algorithmus können Bildobjekte
erkannt und es kann nach gleichen bzw. vergleichbaren Produkten gesucht wer-
den, ohne dass manuelle Beschreibungen vorgenommen werden müssen.
Flixsense Flixsense bietet eine intelligente Videoinhaltsanalyse-Lösung für verschiedene Be-
reiche wie Sport, Umwelt und Medien. Durch den Einsatz von Deep-Learning-Al-
gorithmen können so Objekte, Menschen und Aktionen automatisch erkannt und
in praktisch umsetzbare Erkenntnisse umgewandelt werden.
Lunit Inc Lunit Inc. hat mit Hilfe von Deep Learning eine Software zur Analyse, Auswertung
und Interpretation von medizinischen Daten und Bilddateien entwickelt. Ärzte sol-
len so dabei unterstützt werden, genauere, auf Daten basierende, einheitliche
und effizientere Behandlungsentscheidungen zu treffen.
Sticky.ai Sticky.ai ist eine Cloud-Plattform, die anhand von biometrischen Daten Blick- und
Emotionsverläufe erkennt und dokumentiert. Hierdurch können u. a. Vermarkter,
Agenturen, Designer und Marktforscher Medien und Kampagnen erfolgreicher
gestalten.
Irvine Sensors Irvine Sensors ist ein Unternehmen, das Sensoren- und Kamerasysteme zur Über-
wachung entwickelt. Durch die automatische Analyse von Videoaufnahmen kön-
nen so kritische Szenarien wie schädliche Fremdkörper und absichtlich abgestellte
Objekte schneller erkannt werden, um hierdurch schneller entsprechende Maß-
nahmen ergreifen zu können.
CHATBOTS
160
Produkt Funktionsbeschreibung
Msg.ai Msg.ai ist eine KI-Lösung zum Managen und Analysieren von verschiedenen Mes-
saging-Präsenzen von Unternehmen auf verschiedenen Plattformen mithilfe eines
an den Kunden angepassten Dashboards. Durch den Einsatz von Deep Learning
lassen sich so intelligente Chatbots für die Bereiche Marketing, Kundenservice so-
wie im Handel einrichten und verwalten.
Chatfuel In nur wenigen Minuten und ohne benötigte Programmierkenntnisse ermöglicht
Chatfuel das Erstellen von Facebook-Chatbots für verschiedene Branchen. Durch
den Einsatz von künstlicher Intelligenz versteht der Chatfuel-Algorithmus die Nut-
zereingaben und beantwortet Anfragen vollautomatisch.
Unu.ai Mithilfe von UNU können Personen Fragen stellen und durch eine Community be-
antworten lassen. Durch das Zusammenwirken von Gruppenintuition sowie dem
kollektiven Wissen der Nutzer wird eine Form von künstlicher Schwarmintelligenz
erzeugt, die bspw. dazu genutzt werden kann, Entscheidungen zu treffen oder
Vorhersagen zu machen. Die Themen der Fragen sind nicht begrenzt.
Kriya.ai Kriya.ai ist eine KI-Plattform über die Freiberufler ihre Arbeit verwalten und neue
Aufträge finden können. Gleichzeitig bietet Kriya.ai Unternehmen die Möglichkeit
unmittelbar und automatisiert die richtigen Personen für ihre Projekte zu ver-
pflichten. Hierfür nutzt die Plattform einen eigenen Sofortnachrichtendienst um
die Projektpartner miteinander zu verbinden und Zahlungen abzuwickeln.
Pandorabots Pandorabots ist ein Webdienst zur Erstellung und zum Testen von künstlich intel-
ligenten Chatbots. Über eine integrierte Entwicklungsplattform können diese
textbasierten Dialogsysteme erstellt und in externe Applikationen integriert wer-
den. Pandorabots bietet zudem verschiedene Funktionen zur individuellen Anpas-
sung, unterstützt mehrsprachige Texteingaben und ermöglicht es Schnittstellen
zur Unterstützung natürlicher Sprache einzufügen.
BRiN BRiN unterstützt durch sein auf KI basierendes System Millionen Entrepreneure
im Bereich personalisierte Bildung auf eine menschenähnliche Art und Weise. Ziel
ist es, Gründern beim Aufbau eines erfolgreichen Unternehmens beratend zur
Seite zu stehen. Dabei hält BRiN die Antwort auf fast jedes Problem, das kleineren
Unternehmern begegnet, parat und versorgt den Nutzer mit Lösungen und Hand-
lungsempfehlungen in kürzester Zeit.
CRM
Produkt Funktionsbeschreibung
Dynamic Yield Dynamic Yield ist eine Personalisierungsplattform, die es Unternehmen ermög-
licht Kampagnen nutzergerecht über alle Kanäle zu personalisieren und optimie-
ren. Durch eine Machine Learning-gestützte Kundensegmentierung können so
in Echtzeit Produktempfehlungen gegeben und verhaltensgerechte Nachrichten
versendet werden, um hierdurch Umsätze und Conversions zu steigern.
161
Rep.ai Durch den Einsatz der Multikanal-Kundenkommunikationsplattform Rep.ai ha-
ben Vertriebsmitarbeiter über eine einzige Plattform Zugriff auf alle unterneh-
mensweiten Kundendatensätze und die Möglichkeit über die Anwendung direkt
mit dem Kunden zu korrespondieren ungeachtet des durch den Kunden genutz-
ten Kommunikationsmittels. Zudem lässt sich Rep.ai in bestehende E-Commerce
und Auftragsabwicklungssysteme integrieren.
Kasisto Die auf KI basierende Konversationsplattform KAI bietet verschiedene virtuelle
Assistenten zur Integration in Apps, Websites, Nachrichtendienste und IoT-Ge-
räte. Durch die Spezialisierung der Bots in spezifische Gebiete wie Finance, Han-
del, etc. können die Dialogsysteme intelligent mit Kunden interagieren. Natürli-
che Sprachverarbeitung und Spracherkennung ermöglichen eine menschenähn-
liche Verständigung mit dem virtuellen Assistenten.
Maia Maia ist ein virtueller Assistent, der Vertriebsmitarbeiter dabei unterstützt, mit-
hilfe von KI und Machine Learning große Datenmengen aus dem CRM-System zu
analysieren. Unter Verwendung von natürlicher Sprachverarbeitung werden die
gewonnenen Erkenntnisse in handlungsorientierte Empfehlungen umgewandelt
und dem Nutzer vorgeschlagen.
Cogito Cogito ist Anbieter einer Software zur Unterstützung der Gesprächsführung für
professionelle Telefonisten, die KI und verhaltenswissenschaftliche Erkennt-
nisse einsetzt, um Verhaltenssignale in der Stimme zu erkennen und auszuwer-
ten. Dem Nutzer werden dann in Echtzeit Informationen zur Kundenbefindlich-
keit und Empfehlungen zur Konversationsführung übermittelt.
MARKTFORSCHUNG
Produkt Tätigkeitsbeschreibung
Tanjo Tanjo erstellt animierte Darstellungen von Buyer-Personas und Kundensegmen-
ten. Mit Hilfe des Programms kann das Unternehmen in Echtzeit nachvollziehen,
an was die Kunden interessiert sind und womit sie ihre Zeit verbringen. Diese
Daten helfen Marktfoschern und Produktdesignern dabei, die Bedürfnisse der
Zielgruppe zu verstehen.
Dataminr Noch bevor Neuigkeiten in den Nachrichten auftauchen, werden die Nutzer von
Datminr über einschlägige, wichtige Informationen und bedeutende Events be-
nachrichtigt. Der Wissensvorsprung ermöglicht den Unternehmen schneller zur
reagieren. Dataminr nutzt innovative KI für die Klassifizierung und Echtzeit-Er-
kennung signifikanter öffentlicher Informationen. Millionen Menschen teilen
der Welt auf Social-Media-Plattformen mit, was sie sehen und Dataminr gene-
riert aus diesen Echtzeit-Daten einen globalen Augenzeugen-Sensor, der die In-
formationen in Warnmeldungen umwandelt.
Predata Predata verbindet alternative Informationsquellen mit Machine Learning, um
gesellschaftliche Daten in Risiko-Signale, Marktindikatoren und Prognosen um-
zuwandeln. Die Analyse-Plattform bietet Finanzexperten die Möglichkeit alter-
162
native Daten aus sozialen und kollaborativen Medien in ihre Investmentstrate-
gien miteinzubeziehen. Das Unternehmen erhält Warnmeldungen über aktuelle
Risiken.
Mattermark Mattermark ermöglicht es, den richtigen Ansprechpartner im entscheidenden
Unternehmen zu ermitteln. Die Datenbank enthält detaillierte Unterneh-
mensprofile, über 20 Millionen E-Mail-Adressen von Personal in Schlüsselpositi-
onen und registriert Unternehmens-Wachstumssignale.
Quid Quid ermöglicht eine Vogelperspektive auf Top-Investments, Marktgröße,
Wachstum und Hindernisse. Auf einen Blick erkennt der Nutzer sowohl aufkom-
mende Technologien als auch IP-Landschaften und kann jede Branche durch-
dringen. Mit Hilfe von Quid können Unternehmen Trends und treibende Kräfte
erkennen und diese für Investitionen und Übernahmen nutzen. Das Programm
vereint menschliche Intuition und Machine Learning, um Organisationen eine
bessere Entscheidungsbasis zu ermöglichen.
KUNDEN-SUPPORT
Produkt Tätigkeitsbeschreibung
Agent.ai Agent.ai sorgt dafür, dass häufige Kundenanfragen innerhalb von Sekunden be-
antwortet werden. Zusätzlich können Fragen innerhalb des Teams geklärt wer-
den. Das Programm lernt durch FAQs, historische Tickets, die Supportdokumen-
tation und funktioniert auf allen verbreiteten schriftlichen Kommunikationska-
nälen. Agent.ai definiert automatisch die einzelnen Kundensegmente anhand
des Customer Lifetime Values.
Clarabridge Clarabridge analysiert das Feedback von Kunden und konzipiert worauf die Kun-
denwahrnehmung basiert. Auf diese Daten gestützt, übernimmt Clarabridge das
Beantworten von Anfragen und die Optimierung des Geschäfts.
Smith Smith ist ein virtueller Rezeptionist und nimmt Anrufe für kleinere Unternehmen
und einzelnen Personen entgegen. Die Gespräche werden durch eine Person mit
Sitz in den USA angenommen und durch eine intelligente Software ergänzt. Dies
ermöglicht eine persönliche Betreuung inklusive Screening und Prioritätenset-
zung. Dabei wird gleichzeitig eine detaillierte Kunden-Anrufliste-Übersicht ange-
legt, für die zu jedem Gespräch eine Zusammenfassung angefertigt wird.
Eloquent Labs Eloquent Labs kombiniert Conversational-KI mit einem Live-Chat und bearbeitet
eingehende Supportanfragen. Durch das Programm kann das Unternehmen ge-
währleisten einen 24-Stunden-Service anzubieten. Mit Conversational-KI und ei-
ner Kunden-Metadaten-Cloud können sich wiederholende Probleme automa-
tisch gelöst werden.
Zendesk Zendesk baut Software-Programme, die einer besseren Kundenbeziehung die-
nen. Die Produkte ermöglichen es dem Unternehmen zuverlässiger, flexibler
und skalierbar auf die Bedürfnisse des Kunden einzugehen. Kundensupport-An-
liegen werden erfasst, priorisiert und zielführend bearbeitet. Alle verfügbaren
Informationen über die Kunden werden zentral gesammelt. Der personalisierte
163
Service basiert sowohl auf Machine Learning als auch auf Kunden- und Daten-
analysen.
MARKETING
Produkt Tätigkeitsbeschreibung
AirPR AirPR ist eine Analyse-Plattform für Content-Vermarktung und PR. Welchen Ef-
fekt haben PR-Maßnahmen auf die Rendite? Wie kann die Entwicklung gemes-
sen werden? Die Plattform ermittelt Daten, die einen direkten Zusammenhang
zwischen der Öffentlichkeitsarbeit und den Geschäftskennzahlen herstellen. Zu-
sätzlich wird verdeutlicht, in welchem Ausmaß die jeweiligen Artikel, Autoren
und Influencer die Markenbindung beeinflussen.
Albert Die KI-Marketing-Plattform reduziert die Komplexität des modernen Marke-
tings, indem Albert viele der zeitintensiven, manuellen Tätigkeiten übernimmt.
Dadurch ist eine effektivere und effizientere Interaktion mit dem Kunden mög-
lich. Albert arbeitet konsequent an einer konstanten Verbesserung und Analyse
der Firmenkampagne. Zu den Schwerpunkten zählen: Autonomous Targeting,
Autonomous Media Buying, Cross-Channel Execution, Testing & Optimization
und Analytics & Insights.
Amplero Amplero vereint adaptive Experimente und Machine Learning zu einer KI-Mar-
keting-Plattform. Die Technologieplattform des Unternehmens wird mit Daten-
quellen verbunden. Dabei werden die Interaktionen mit dem Kunden kontinu-
ierlich optimiert und manuelle Prozesse reduziert, um sich der Geschwindigkeit
des modernen Kunden anzupassen. Mit Amplero kann der "Customer Lifetime
Value" in einem Maße gesteigert werden, wie es nicht von Menschenhand mög-
lich wäre.
Automat Automat beschäftigt sich hauptsächlich mit der Optimierung von Conversational
Marketing, der Schnittstelle von Künstlicher Intelligenz und dem Austausch von
Nachrichten. Mit Hilfe von Conversational Marketing können Unternehmen per-
sonalisierte Einzelgespräche mit ihren Kunden in einer neuen Größenordnung
führen. Durch die KI des Programms kann das Unternehmen neue Erkenntnisse
über Kundenbedürfnisse erlangen und die Kommunikation über Messaging-Ka-
näle ideal für sich nutzen.
Persado Persado ist eine Marketing-Cloud, die die verwendete Sprache auf die Ziel-
gruppe abstimmt. Der Sprachgebrauch und das Vermitteln von Emotionen in-
spiriert den Gesprächspartner zu Handlungen. Die KI-Solution-Cloud basiert auf
der weltweit größten Datenbank mit über einer Million Wörter für den Ge-
brauch im Marketing und ermöglicht es den Unternehmen, sich mit den Kunden
individuell auf allen Kommunikationskanälen auszutauschen.
SALES
Produkt Tätigkeitsbeschreibung
6sense Das Ziel von 6sense ist es, dem Marketing- und Sales-Team eine vollständige
Übersicht über die Käufer und deren Bedürfnisse zu liefern, um das Timing zu
164
optimieren. Wer im Markt kauft welches Produkt und zu welchem Zeitpunkt?
Zusätzlich versorgt 6-Sense das Team mit einer umfassenden Rundum-Analyse
des Marktes, der entsprechenden Nachfrage und des jeweiligen Umsatzes.
Aviso Die Aviso-Technologie und die auf KI basierenden Einblicke werden von den Sa-
les-Teams bei Apttus, Zuora und RingCentral dazu genutzt, äußerst akkurate
Prognosen zu treffen, Deals durch die Pipeline zu bringen und die richtigen Ge-
schäfte zu fokussieren. Mit dieser einzigartigen Zusammenstellung von Progno-
sen, kann ein Unternehmen einschätzen, ob die Quartals-Planung aufgeht, was
dem Ziel im Weg steht und wie die Ergebnisse im Quartal optimiert werden kön-
nen.
BloomReach BloomReach ist eine offene, intelligente digitale Plattform und ist darauf ausge-
legt, herauszufinden, was für eine gute Beziehung zum Kunden notwendig ist.
Die Plattform analysiert das Kundenverhalten und ermöglicht es dem Auftrag-
geber mehr über das Kundenengagement, die Kundenkonversion und das lang-
fristige Erfolgspotential der eigenen Marke herauszufinden.
Chorus.ai Die Plattform zeichnet Meetings in Echtzeit auf. Dabei führt das Programm eine
automatisierte Analyse des Geschäftstermins durch, um dem Nutzer einen kriti-
schen Einblick in die Vertriebsmöglichkeiten und die eigene Performance bei
Meetings zu geben. Chorus dient dazu, die Kundenkonvertierung zu optimieren
und der Mitarbeiter kann beispielweise eine Echtzeit-Beratung während eines
Online-Meetings in Anspruch nehmen.
Clari Clari unterstützt das Sales-Team dabei, mehr Geschäfte abzuschließen. Die Soft-
ware verwendet KI, um sich der größten Herausforderung im Vertrieb, dem Ab-
wickeln von Deals, zu widmen. Mit Clari können genaue Prognosen getroffen
werden und die Software zeigt dem Sales-Team worauf geachtet werden muss,
damit mehr Verträge abgeschlossen werden.
Collective[i] Collective[i] hat das größte Netzwerk an Aufzeichnungen über das B2B-Kaufver-
halten aufgebaut und bedient sich an diesen Daten, KI und Predictive-Technol-
gien, um Mitarbeitern im Vertrieb Strategien aufzuzeigen, die direkt zu einem
erhöhten Umsatz im Sales-Bereich führen. Das Programm verbindet sich mit
dem CRM-System und weiteren relevanten Datenquellen des Unternehmens,
um diese in Erkenntnisse und Intelligenz umzuwandeln. Zusätzlich verknüpft
Collective[i] das Käuferverhalten mit der Verkaufstätigkeit.
ZEN.AI ZEN.AI sorgt für personalisierte Empfehlungen im Shopify Store des Nutzers. Be-
sucher einer Homepage erhalten relevante und personifizierte Produktempfeh-
lungen, die auf ihrem Kaufverhalten basieren. Dies ist der Schlüssel für ein bes-
seres Kundenerlebnis und führt zu höheren Absatzzahlen.
HR UND RECRUITING
Proukt Tätigkeitsbeschreibung
Entelo Entelo arbeitet mit einem urheberrechtlich geschützten Algorithmus, der Kan-
didaten identifiziert, die zu einem Jobwechsel neigen und somit einem Joban-
gebot offener gegenüberstehen. Zusätzlich wird KI mit Predictive-Analytics
165
kombiniert, um das individuelle Kandidaten-Sourcing zu automatisieren und
schneller die besten Kandidaten erreichen zu können.
GLIDER Glider ist ein KI-Autopilot für das Rekrutieren von Personal. Potentielle Kandi-
daten werden anhand ihrer Online-Profile identifiziert und mit einer persona-
lisierten Vorlage und einem optimierten Pitch kontaktiert. Außerdem ist es
möglich dem Bewerber eine möglichst realitätsnahe Aufgabe im Firmenum-
feld zu stellen, die er aber von seinem eigenen Gerät aus bearbeiten kann. Da-
bei kann über einen Chat oder ein Videotelefonat mit dem Kandidaten kom-
muniziert werden.
hiQ hiQ verwendet öffentlich zugängliche Daten über die Mitarbeiter eines Unter-
nehmens, um individuell auf die Mitarbeiter abgestimmte Maßnahmen und
Aktionen zu ermöglichen.
Die SaaS-Plattform basiert auf Machine Learning und erstellt anhand dieser
Daten eine Übersicht über die Fähigkeiten und Probleme der einzelnen Mitar-
beiter. Dadurch kann das HR-Team vorzeitig einem Arbeitskräfteabgang ent-
gegenwirken und verantwortungsbewusste Entscheidungen treffen.
HireVue HireVue verbindet KI mit der Wissenschaft der Arbeitspsychologie, um dem
Kunden eine benutzerdefinierte Bewertung des Kandidaten in Form eines Vi-
deos zu liefern. Die Plattform vereint und übernimmt Video-Interviews, - As-
sessments und -Coaching. Die Video-KI ermöglicht es zusätzliche Erkenntnisse
in Bezug auf den Kandidaten zu liefern.
Olivia Olivia ist eine KI-Assistentin, die den Rekrutierungsprozess vereinfacht und die
Kandidatensuche, -überprüfung und sowohl die Terminkoordination als auch
die Kommunikation mit den Kandidaten übernimmt.
Stella Stella´s künstliche Intelligenz identifiziert automatisch die Kandidaten aus der
Datenbank, die am besten zum Unternehmen passen. Zusätzlich arbeitet Stella
nahtlos mit HR-IT-Systemen zusammen.
PROFESSIONELLE ASSISTENTEN
Produkt Tätigkeitsbeschreibung
Clara Clara vereinbart und koordiniert Termine und übernimmt die Terminierung
von E-Mails für den Nutzer, indem sich Clara dem individuellen Arbeitsablauf
anpasst. Dafür wird Clara in den CC einer E-Mail mit den Teilnehmern des Mee-
tings gesetzt. Es handelt sich um einen "Human-in-the-Loop-Assistant".
Julie Desk Julie ist eine virtuelle Assistentin, die dem Nutzer die Terminplanung abnimmt.
Ziel ist es das Hin- und Herschicken von E-Mail zum Koordinieren eines Mee-
tings zu vermeiden. Mit Julie können Termine gefunden werden, die allen Teil-
nehmern passen, Einladungen verschickt werden und unerwartete Ereignisse
bewältigt werden.
166
Kono Kono nutzt Big Data und KI, um dafür zu sorgen, dass Geschäftspersonen bes-
ser organisiert sind und produktiver arbeiten können. Zu den Funktionen ge-
hören das automatische Buchen von Konferenzräumen und das smarte Arran-
gieren von Gruppenmeetings. Dabei integriert sich Kono in das bestehende
Kalendersystem und kann Gäste von innerhalb und außerhalb des Unterneh-
mens einladen.
Mimetic Bei Evie handelt es sich um einen intelligenten Terminkoordinierungs- und
Verwaltungs-Assistenten. Dabei übernimmt Evie die gesamte Verhandlung
von Terminen, behält die Teilnehmeranzahl im Blick und verschickt Einladun-
gen und Erinnerungsnachrichten. Für die Termine werden stets die besten
Zeitfenster des Nutzers gewählt und die persönlichen Präferenzen berücksich-
tigt.
My Ally Mittels Machine Learning und Natural Language Processing organisiert der
Personal Assistent Alex genau und effizient die anfallende Terminkoordinie-
rung. My Ally verknüpft jahrelange praktische Erfahrungen mit einer KI-Sof-
ware. Dabei dient Alex hauptsächlich der Unterstützung von Recruiting-
Teams. Dadurch, dass die KI-Software zusätzlich durch einen Menschen über-
wacht und geprüft wird, erscheint die gesamte Kommunikation, die über Alex
läuft, sehr natürlich.
Carly Carly ist ein Personalassistent für vielbeschäftigte Manager und koordiniert
insbesondere die Telefongespräche. Die App behält den Terminkalender im
Auge und verbindet beispielweise den Nutzer 30 Sekunden vor Start eines
Calls und funktioniert mit allen Telefonkonferenz-Services.
ETCH ETCH koordiniert das bestehende Network und wandelt es in eine durchsuch-
bare Datenbank um. Zusätzlich ergänzt ETCH fehlende Kontaktinformationen
durch intelligente Recherche.
Notion Trove interpretiert das gesamte Netzwerk eines Unternehmens, um zu ver-
deutlichen wer mit wem über wen vernetzt ist. Außerdem fließt die gesamte
Kommunikationshistorie mit in die Analyse ein und Notion unterstützt bei E-
Mail-Überlastungen, Organisation und Kommunikation.
Mezi Mezi ist ein auf KI und Machine Learning basierender Travel-Assistent. Durch
eine Kombination aus gehobenen Service und Begeisterung für die Branche
sollen sich Geschäftsreisen nicht mehr wie Arbeit anfühlen. Ein KI-betriebener
Chatbot und ein Travel-Dashboard, das die Leistung des KI-Assistenten in die
Hände von Reisevermittlern gibt und eine schnellere, automatisierte Beant-
wortung von Fragen ermöglicht, ergänzt durch einen personalisierten Service,
erleichtern das Buchen von Geschäftsreisen.
KOLLABORATION
Produkt Tätigkeitbeschreibung
Aviva Als Digital-Assistant organisiert Aviva die Kommunikation am Arbeitsplatz ent-
sprechend der Bedürfnisse des Unternehmens. Dabei nutzt Aviva Machine
Learning und selektiert die einschlägigsten Dokumente, die im Umlauf sind,
167
um die Teams auf dem gleichen Informationsstatus zu halten. Wenn Aviva zu
Meetings oder Telefonkonferenzen hinzugeschaltet wird, kann das Programm
Notizen anfertigen und an die richtigen Personen weiterleiten.
Brand.ai Brand.ai erleichtert das Management des Design-Systems. Das Programm eli-
miniert Konflikte, die durch unterschiedliche Versionen einer Datei entstehen
und zentriert UI-Components, Fonts und Icons in einer Cloud. Der Nutzer kann
seine Design-Assets mit dem gesamten Team über Sketch oder Adobe Illustra-
tor teilen.
Cyclops Mit Cyclops kann eine Videokonferenz mit bis zu acht Teilnehmern mit nur ei-
nem Klick gestartet werden. Gleichzeitig können Productivity-Apps, eine Phy-
sical-Whiteboard-App, Bots und Screenshare als Tools genutzt werden, um die
Produktivität der Konferenz zu erhöhen. Bei Bedarf übernimmt Cyclops die
Mitschrift und verschickt sie im Anschluss via Slack oder E-Mail.
DECKARD Deckard Intelligence automatisiert die Zeitkalkulation, optimiert die Planung
von Sprints und steigert die Team-Performance im Allgemeinen. Das gesamte
Projektmanagement wird optimiert und es werden äußerst genaue Prognosen
getroffen.
Howdy Howdy ist ein nutzerfreundlicher, anpassungsfähiger Chatbot, der den Nut-
zern von Slack dabei hilft, die Zusammenarbeit im Team zu optimieren. Bei-
spielsweise kann Howdy automatisch Informationen vom Team sammeln und
in einem Bericht zusammenfassen.
Crowdfunding.AI Crowdfunding.AI vereint zwei revolutionäre Konzepte: Crowdfunding und
Künstliche Intelligenz. Auf der Plattform können sich die Investoren und die
Innovatoren treffen und zusammen an Ideen und Produkten zum Thema KI
arbeiten. Die Plattform soll die Investoren dazu bewegen in KI-Projekte, und
damit in die Zukunft, zu investieren.