35
2017 Lehrstuhl für Technik- und Organisationssoziologie Institut für Soziologie RWTH Aachen Roger Häußling, Michael Eggert, Daniel Kerpen, Jacqueline Lemm, Niklas Strüver, Nenja Ziesen Schlaglichter der Digitali- sierung: Virtureale(r) Kör- per – Arbeit – Alltag Ein Vorstoß zum Kern der Digitalisierung aus einer techniksoziologisch-relationalen Perspektive Working Paper des Lehrstuhls für Technik- und Organisationssoziologie Herausgegeben von / communicated by Roger Häußling

Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Embed Size (px)

Citation preview

Page 1: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

2017

Lehrstuhl für Technik- und Organisationssoziologie Institut für Soziologie RWTH Aachen Roger Häußling, Michael Eggert, Daniel Kerpen, Jacqueline Lemm, Niklas Strüver, Nenja Ziesen

Schlaglichter der Digitali-sierung: Virtureale(r) Kör-

per – Arbeit – Alltag EinVorstoßzumKernderDigitalisierungauseiner

techniksoziologisch-relationalenPerspektive

Working Paper des Lehrstuhls für Technik- und Organisationssoziologie Herausgegeben von / communicated by Roger Häußling

Page 2: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

1

Schlagworte Datafizierung, Phasenmodell der Datentechnologie, tiefe Hirnstimulation, soziotechnische As-sistenzsysteme, Smart Homes/Grids, Cloud-Computing, soziotechnische Relationen

Abstract Der Beitrag betrachtet aus techniksoziologischer Perspektive das Phänomen der Digitalisie-rung, die dabei als voranschreitende Datafizierung der sozialen Wirklichkeiten entlang daten-technologischer Prozesse gefasst wird. Die Betrachtung von Produktion, Strukturierung, Dis-tribution, Visualisierung und Steuerung als diese fünf datentechnologischen Phasen ermög-licht, dezidiert aufzuschließen, wie die technischen Prozesse in der Sphäre des Digitalen ge-artet sind – im Hinblick darauf, wie sie von sozialen Prozessen ‚gespeist‘ sind und in soziale Prozesse einfließen. Zur Veranschaulichung wird auf Forschungsarbeiten zur tiefen Hirnsti-mulation, zu soziotechnischen Assistenzsystemen in industriellen Produktionssystemen sowie auf Arbeiten zu den Themen Smart Home/Smart Grids und Cloud-Computing zurückgegriffen, die aktuell am Lehrstuhl für Technik- und Organisationssoziologie (STO) der RWTH Aachen University betrieben werden.

Page 3: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

2

1 Einleitung Der vorliegende Beitrag befasst sich aus einer genuin techniksoziologischen Perspektive mit dem Phänomen der Digitalisierung. Bislang wird die Debatte um Digitalisierung in der Sozio-logie von medientheoretischen Ansätzen dominiert. Derartige Ansätze betrachten vorzugs-weise den Einsatz digitaler Medien und ihre Auswirkungen bzw. Wechselwirkungen in Bezug auf soziale und gesellschaftliche Prozesse. Demgegenüber ist ein techniksoziologischer An-satz in der Lage, die ‚black box‘ zu öffnen und dezidiert aufzuschließen, wie die technischen Prozesse in der Sphäre des Digitalen geartet sind – im Hinblick darauf, wie sie von sozialen Prozessen ‚gespeist‘ sind und in soziale Prozesse einfließen werden. Uns erscheint ein sol-cher Zugang dahingehend vielversprechender, da er in der Lage ist, das Spezifische der Digi-talisierung zu erfassen und dessen Interdependenz mit dem Sozialen präzise herauszuarbei-ten.

Um dies zu veranschaulichen, wird der Text nicht nur diesen techniksoziologischen Zugang darstellen, sondern ihn auch auf verschiedene Phänomene der Digitalisierung anwenden. Der Beitrag liefert damit gleichzeitig auch einen Überblick über die aktuellen Forschungen, die am Lehrstuhl für Technik- und Organisationssoziologie an der RWTH Aachen University zu die-sem Thema betrieben werden.

Unter Digitalisierung soll verstanden werden, dass immer mehr Lebensbereiche eine daten-mäßige Repräsentation erfahren, und Daten unterschiedlicher Herkunft miteinander in Bezug gebracht werden, indem weitergehende Auswertungen mittels Algorithmen vorgenommen werden. Die auf diese Weise erzeugten Ergebnisdaten fließen wieder in die sozialen Wirklich-keiten ein und vernetzen sich mit den dortigen Prozessen, sodass diese Wirklichkeiten eine grundlegende Wandlung erfahren.

Am besten fängt der Begriff der Datafizierung diese Verschränkung zwischen technischen und sozialen/gesellschaftlichen Wandel ein. Er bringt zum Ausdruck, dass alle Lebensbereiche datenförmig erfasst werden. Insofern kann Datafizierung als der Kern der Digitalisierung ver-standen werden. Durch ihn wird es zudem möglich, die Relationalität des Phänomens Digita-lisierung adäquat zu erfassen. Denn Datafizierung bezeichnet die soziotechnische Verschrän-kung von sozialer und digitaler Sphäre.

Daten sind die kleinsten binären Einheiten, die instantan und skalenfrei miteinander ver-netzt werden können. Die klassische Unterscheidung in Daten, Information und Wissen greift nicht mehr, da sie suggeriert, dass Daten etwas wären, das interpretationsfrei zu haben sei (vgl. z.B. Aamodt/Nygård 1995). Sie sind allerdings sozial konstruiert – in Form von Algorith-men, die sie produzieren bzw. abgreifen und Datenbanken, die sie zugänglich machen (insbe-sondere über Metadaten, die über in Datenbanken abgelegten Daten vergröbernde Aussagen bilden, vgl. Burkhardt 2015). Es handelt sich bei der Vernetzung von modularisierten Daten um die Erzeugung einer modularen, auf unterschiedlichen Skalenniveaus selbstähnlichen Netzwerkstruktur.

Und nicht nur das: Die Datenwolke erzeugt mit der offline-Welt einen eigenen paradigma-tisch neuen Realitätsbereich: die Virturealität. Sie wird geprägt sein von einer situationsspezi-fisch erzeugten Sozialraumkonstruktion, in der ‚silicon data‘ – also Daten, die rein simulations-erzeugt sind – einen Aktivitätsraum des Möglichen aufspannen. Unsere Wahrnehmungen wer-den dabei durch Daten gesteuert, die immer mehr in unsere Entscheidungen einfließen, und das für real halten, was sich datenmäßig als das sinnvollste Szenario errechnen lässt. Aller-dings befindet sich die Bewertung, ob etwas sinnvoll ist oder nicht, nicht mehr unter der Kon-trolle des Menschen, sondern wird zunehmend in Algorithmen eingebaut. Virturealität ist nichts Anderes als die situativ sich ergebende Vernetzung und konsequenzielle Wechselwirkung di-

Page 4: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

3

gitaler und nicht-digitaler Module. Zu letzteren sind eben die Elemente der offline-Welt ein-schließlich der Individuen zu rechnen. Eine solche Virturealität löst die bisherigen Vorstellun-gen von Raum und sozialer Wirklichkeit kategorial ab.

Für die Sozialwissenschaften stellt sich die Herausforderung, für diesen paradigmatischen Wandel Konzepte und empirische Zugänge zu liefern. Hier scheint eine Relationale Technikso-ziologie (vgl. z.B. Häußling 2012) aus mehrerlei Aspekten ein besonders geeigneter Aus-gangspunkt darzustellen. Zum einen verfolgt sie ein Denken in soziotechnischen Netzwerken, in denen sich heterogene Entitäten (technische und nicht-technische) verkoppeln. Zum Zwei-ten hebt sie auf die Mechanismen der Verkopplung ab und kann damit den raschen situativen Wechsel der sich vernetzenden Module in der Virturealität adäquat Rechnung tragen. Wenn technische Prozesse ferner immer mehr datenspezifische Strukturen hinterlassen, können diese einer techniksoziologischen Auswertung zugeführt werden und in Relation zu sozialen Prozessen, die mit den technischen verkoppelt sind, gebracht werden. Hierbei können zum Dritten die vielfältigen netzwerkanalytischen Verfahren zur Analyse von Figurationen zur An-wendung gebracht werden (Wasserman/Faust 1994). Die Relationale Perspektive wiederholt konzeptuell das, was der Gegenstand einfordert: sowohl die Skalenfreiheit als auch die dyna-mische Verknüpfung von Modulen zu sich einstellenden ‚Ordnungsbildern‘.

Doch es gibt noch ein grundsätzlicheres Argument, das dafür spricht, Digitalisierung und Datafizierung vor dem Hintergrund einer relationalen Perspektive zu behandeln. Daten selbst sind relationale Phänomene: (a) die oben genannten silicon data sind nichts anderes als das Ergebnis der Verknüpfung vorhergehender Daten. Sie sind damit relationale Phänomene, die Material für weitere Verarbeitung bilden können, also für neue silicon data. Darin liegt die Ska-lenfreiheit und Selbstähnlichkeit von Daten, die sich am besten mit Netzwerkansätzen einfan-gen lässt, die diese Prinzipien stark machen. (b) die Archivierung und Verfügbarmachung der Daten in Form von Datenbanken findet relational statt. Metadaten informieren darüber, wo Daten aufzufinden sind (Stichwort: Relationale Datenbanken) (vgl. Burkhardt 2015: 144f.). (c) Daten selbst sind auf Konnektivität angelegt. Sie sind in Formation gebrachte Entitäten. Die Formation ist dergestalt, dass sie einer technischen Verarbeitung zugänglich werden können. Sie stellen sich damit auf die Logik technischer Prozesse und nicht menschlicher oder sozialer Prozesse ein (vgl. Bächle 2016: 123f.). Zwar werden Daten sozial konstruiert, aber ihr Refe-renzpunkt ist etwas Nicht-Soziales: die Computertechnik. Insofern sind Daten in ihrem Kern nichts anderes als Relationen: Sie transferieren ein Datum sozialer Wirklichkeit in einen Fakt technischer Operationalität.

Ein solcher Ansatz ist von der Überzeugung getragen, dass man die Phänomene der Digi-talisierung, Datafizierung etc. nur angemessen erfassen kann, wenn man auf die soziotechni-sche Struktur des Phänomens abstellt. Eine solche, insbesondere prozessorientierte Struktur bleibt bei den zumeist üblichen mediensoziologischen Betrachtungen ausgespart. Es wird hier also davon ausgegangen, dass erst eine genaue Kenntnis, wie Daten konstruiert, weiterverar-beitet, distribuiert, visualisiert und instrumentalisiert werden, der Schlüssel für ein gegen-standsadäquates Konzept der Digitalisierung und Datafizierung ist. Das bedeutet aber auch, dass sich die soziologische Analyse weit in die Datenerzeugungs- und Datenverarbeitungs-prozesse hineinwagen muss. Es geht also um eine Fokussierung dessen, was sich in und zwischen den einzelnen Datenerzeugungs- und verarbeitungsprozessen abspielt: die Ver-kopplungsprozesse. Ein solcher prozessorientierter Zugang ist genuin techniksoziologisch (vgl. Häußling 2014: 356).

Page 5: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

4

In Anlehnung an Flyverbom/Madsen (2015) erscheint es aussichtsreich, ein Phasenmodell der Datentechnologie1 zu erarbeiten. Dieses um eine weitere Phase ergänzte Modell sieht 5 Pha-sen vor: die (1) Produktion von Daten, (2) ihre Strukturierung, die (3) Distribution von struktu-rierten Daten, (4) ihre Visualisierung sowie ihre (5) datenbasierte oder sogar -induzierte Ent-scheidungen. Diese Phasen sind nicht strikt chronologisch zu begreifen. Vielmehr können Schleifen zwischen einzelnen Phasen auftreten; eine Phase bzw. einzelne Phasen häufiger durchlaufen werden; auch ein komplettes Durchlaufen der Phasen ist nicht zwingend.

(1) Produktion von Daten: Daten fallen nicht vom Himmel, sondern müssen erzeugt und als für weitere Auswertungen relevante Daten identifiziert werden. Dabei gibt es zwei Quellen der Datenproduktion: Zum einen kann es sich um Daten handeln, die durch die Nutzung von Geräten bzw. Diensten anfallen. Spezifischer lassen sich diese Daten nochmal in Konfigurationsdaten, Daten aus der eigentlichen Gerätenutzung sowie Daten, die durch Eingaben der NutzerInnen erzeugt wer-den, differenzieren. Zum anderen kann es sich um Metadaten (vgl. auch Baecker 2013) han-deln; dies sind Daten, die durch die Auswertung von anderen Daten erzeugt werden. Bereits bei Metadaten handelt es sich um silicon data. Die in Algorithmen eingeschriebenen Zweck-setzungen wirken sich dabei ungebremst auf das soziotechnische Umfeld aus.

Neben den Datenquellen lassen sich auch Formen der Datenproduktion differenzieren: Zum einen fallen Daten bei der Nutzung digitaler Dienste an (wie z.B. die Ausgestaltung eines Accounts bei Facebook). Zum Zweiten gibt es die Klasse der Sensordaten von miteinander vernetzten Geräten. Hier setzt die Diskussion um das ‚Internet der Dinge‘ an (vgl. z.B. Spren-ger/Engemann: 2015). Zum Dritten können Daten aus der Selbstvermessung von Entitäten (Individuen, Maschinen) insbesondere für Analysezwecke gewonnen werden (wie z.B. Ge-sundheitsmonitoring mit entsprechenden Apps). Das Individuum wird damit zum sogenannten ‚Quantified Self‘. Gerade bei letzterem wird die Identitäts-transformative Wirkung von Daten in soziotechnischen Umfeldern besonders deutlich.

(2) Strukturierung von Daten: In der nächsten Phase der sozialen Konstruktion der Daten findet deren Strukturierung statt. Hier kommen technische Verfahren wie etwa das Data-Mining, die Datenvisualisierung oder das Maschinenlernen zur Anwendung. Diese Programme können u.a. auf eine Mustererken-nung, eine Profilbildung oder auf die Ermittlung auffälliger Werte abzielen. Es lassen sich aber auch generelle Prinzipien bei der Strukturierung von Daten ausmachen: (a) Es können große verteilte Datenmengen zu Auswertungszwecken gebündelt werden. (b) Ein durchgängiges Prinzip bildet die Modularisierung. Module können beliebig miteinander verknüpft werden, da die Schnittstellen vereinheitlicht sind. (c) Durch Datenaggregation kann die Auswertung ska-liert werden. Auf den unterschiedlichen Skalenniveaus der Auswertung kommen trotzdem die gleichen Verfahren zur Anwendung. (d) Aufgrund der bei der Nutzung anfallenden Daten kön-nen mit ihnen Echtzeitanalysen durchgeführt werden und deren Ergebnisse wiederum in die weitere Nutzung mit einfließen.

(3) Distribution von Daten: Die Distribution der strukturierten Daten ist ausschlaggebend dafür, welche sozialen Akteure Zugriff auf sie haben, und welche Akteure in welcher Form von ihnen betroffen sind. Es lassen sich mindestens drei datenspezifische Akteurstypen unterscheiden: Die DatenproduzentIn-nen, die DateneignerInnen und die EndnutzerInnen. 1 Unter ‚Datentechnologie‘ sollen alle soziotechnischen Verfahren verstanden werden, die Daten ver-wenden, bearbeiten und/oder produzieren.

Page 6: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

5

(4) Visualisierung von Daten: Die Darstellung der Daten ist eine eigene konstruktive Phase im Prozess der Datentechnolo-gie. Denn in der Regel werden nicht alle Quelldaten und strukturierten Daten dargestellt, son-dern eine auf einen Zweck hin ausgerichtete Auswahl getroffen. Des Weiteren werden die Daten in einer bestimmten Form präsentiert, die nicht zuletzt darüber entscheidet, ob techni-sche Laien ebenfalls in der Lage sind, ihren Bedeutungsgehalt zu interpretieren.

(5) Steuerung mittels Daten: Die Digitalisierung steht nicht zuletzt für das neue Phänomen der zunehmenden Verschrän-kung der Messdaten in Echtzeit mit Simulationsdaten, den ‚silicon data‘ (s.o.). Das, was die Simulation als wahrscheinliches zukünftiges Szenario berechnet, findet Eingang in die Steue-rung der Gegenwart, um einen als wünschenswert festgelegten Zustand anzusteuern. Es han-delt sich damit um nicht-linear-rückgekoppelte Systeme, die generell nicht exakt berechenbar sind, da sie mit der offline-Welt interagieren.

Es entsteht auf dieser Basis ein ‚seamless web‘2 zwischen der Datenwelt und der sozialen Wirklichkeit. Wirklichkeit wird nicht nur in Daten dekomponiert, sondern zunehmend durch Da-ten erzeugt (vgl. auch Gramelsberger 2010: 255ff.). Alle Identitäten – ob soziale Gebilde, Indi-viduen oder technische Artefakte – werden wesentlich aus Daten bestehen. Derartige Netz-werke können skalenfrei miteinander vernetzt werden.

Dies hat nicht zuletzt zur Konsequenz, dass sich die verschiedenen, sich jeweils zu einer Virturealität transformierenden Lebensbereiche durch die Digitalisierung vernetzen – einerlei, ob es sich um die Datafizierung des Körpers, der Arbeit oder des Alltags handelt.

Im Folgenden werden entsprechend Datafizierungsphänomene dreier Lebensbereiche exemplarisch erörtert und mittels des vorgestellten 5-Phasenschemas techniksoziologisch ge-deutet. Darüber hinaus wird mit dem Cloud-Computing ein Bereich thematisiert, der wie kaum ein anderer Bereich für den ‚Take-off‘ der Datafizierung steht.

2 Daten des Körpers

2.1 Einführung: Neuroanatomische Daten des Körpers aus soziologischer Per-spektive

Die datenförmige Erfassbarkeit aller Lebensbereiche schließt auch körperliche Aspekte ein: In Bezug auf den Körper erfolgen Analysen – und Entscheidungen – auf Daten basierend, vor allem im gesundheitlichen und medizinischen Bereich.3 Es fehlt allerdings an einer soziologi-

2 Dieser Begriff wird hier in freier Anlehnung an Hughes verwendet. Ging es bei Hughes (1986) um die Beschreibung eines nahtlosen Gefüges aus sozialen, gesellschaftlichen, kulturellen, ökonomischen, rechtlichen und technischen Faktoren, so soll hier die Unentwirrbarkeit der digitalen mit der analogen, mithin sozialen Sphäre bezeichnet werden. 3 Zwar erschien der Körper zunächst als kein zentrales Thema in der Soziologie (vgl. Schroer 2005; Gugutzer 2006) und allenfalls am Rande bei Klassikern thematisiert (vgl. Gugutzer 2006; Stadelbacher 2016). Mittlerweile ist der Körper jedoch zu einem zentralen Betrachtungsgegenstand in der Soziologie avanciert (vgl. Gugutzer et al. 2016), wobei sich verschiedene Perspektiven auf den Körper differenzie-ren lassen: Der Körper als Produkt von Gesellschaft, beispielsweise bei Bourdieu und Foucault, mit einer Betrachtung von Körperformungen; der Körper als Produzent von Gesellschaft, wie der Beitrag des Körpers zur Konstitution sozialer Ordnung, durch Körperroutinen, Körperinszenierungen, Körperei-gensinn etc. (vgl. Gugutzer 2006). Meuser differenziert beispielsweise als soziologische Perspektiven auf den Körper die kulturelle Formung des Körpers, den Körper als Zeichenträger, mit Auskunft über Zugehörigkeiten, oder den Körper als Agens (vgl. Meuser 2006). Einen wissenssoziologischen Zugang für eine Betrachtung der körperlichen Konstruktion des Sozialen bietet beispielsweise Stadelbacher

Page 7: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

6

schen Betrachtung, welche die Daten des Körpers in den Mittelpunkt rückt, Daten, die bei-spielsweise medizinisch betrachtet und ausgewertet werden, welche die Grundlage für Ent-scheidungen, wie Behandlungen, darstellen. Daran anknüpfend werden wiederum (neue) Da-ten produziert. Ein Beispiel für die datenförmige Erfassbarkeit des Körpers ist die Quantified-Self-Bewegung, bei der die Vermessung und Überwachung des eigenen Körpers zur Optimie-rung und Leistungssteigerung zentral ist.4 Allerdings geht es hier um gesunde Körper, die op-timiert werden sollen. Die folgende Betrachtung ist basaler, indem der Fokus nicht auf eine Optimierung und Steigerung von gesunden Körpern sondern auf die medizinische Betrach-tung, Behandlung und Reduktion von Symptomen mittels Daten gelegt wird. Es sind weniger offenkundige bzw. direkt (laienhaft) sichtbare, vielmehr tiefliegende Daten, die soziologisch auch von Interesse sind: neuroanatomische Daten aus einem Nervennetzwerk im menschli-chen Gehirn, die zum einen ein Störungsbild bzw. eine Inaktivität, beispielsweise bei schweren Depressionen, erklären und zum anderen einen Ansatzpunkt zur Behandlung von Erkrankun-gen bieten, wodurch wiederum Daten generiert werden.

Mit diesem Fokus auf neuroanatomische Daten geht einher: Einerseits wird das Gehirn als zentraler Bestandteil des Körpers begriffen, und es wird von einem relationalen Verhältnis zwi-schen Gehirn und Körper ausgegangen; denn das Nervensystem und Gehirnareale werden durch Körperbewegungen, Wahrnehmungen, Begegnungen und Interaktionen aufgebaut und geprägt (vgl. Bauer 2002; Abraham 2006). So werden Erinnerungsspuren, die in den Körper eingezeichnet sind, im Gehirn durch die Ausbildung spezifischer Synapsen materialisiert (Lo-renzer 2002). Andererseits werden über das Gehirn, als kognitives Zentrum, Körpervorgänge und (wechselseitige) Beziehungen mit der Umwelt gesteuert (vgl. Synofzik 2005).

2.2 Das Gehirn als ‚Datenproduzent‘5 Für Computerpioniere erschien es naheliegend, das Gehirn in Analogie zum Computer zu be-trachten und Denkprozesse mit Algorithmen und symbolischen Datenstrukturen zu verglei-chen. Beispielsweise baut auch die weiterführende Annahme der sogenannten starken KI-These darauf auf, dass Denkprozesse in einer formalen Programmsprache darstell- und bere-chenbar sind (vgl. Mainzer 1997: 85). Diese vereinheitlichende Perspektive wird auch in der Kybernetik eingenommen, mit der Annahme bestehender Analogien zwischen Computer und menschlichem Gehirn sowie stattfindender vergleichbarer Mechanismen.6 Auch Alan Turings bereits im Jahr 1950 verfasste Gedanken sind in diesen Kontext der Gehirn-Computer-Analo-gie einzuordnen: Das menschliche Denken sei als ein Programm des menschlichen Gehirns durch eine Simulation auf dem Computer nachahmbar. Die in dieser Tradition stehende tech-nisch-mechanistische Deutung des menschlichen Gehirns fokussiert u.a. die bioelektrischen Aspekte neuronaler Prozesse, um eine Konstruktion von Schnittstellen zwischen dem Gehirn

(2016) an: Das Wissen über den Körper (Körper als Gegenstand von Wissen), das Wissen des Körpers (Körper als Wissensspeicher), das Wissen am Körper (Körper als Ausdrucksfeld), das Wissen mittels Körper (Körper als Wissensmedium) und das Wissen durch den Körper (Körper als Wissensquelle). 4 Auf der Internetpräsenz der Quantified-Self-Gemeinschaft wird deutlich, dass es bei der Anwendung von körperbezogenen Self-Tracking-Lösungen um Selbsterkenntnisse geht, aus den körpervermittelten Daten der eigenen Lebensbereiche abgeleitet (vgl.: http://qsdeutschland.de/; letzter Abruf: 19.12.2016.). 5 Das Gehirn als ‚Datenproduzent‘ aufzufassen erlaubt eine Sichtbarwerdung von bestehenden Ana-logien und dient hier analytischen Zwecken. Zugleich sei jedoch darauf verwiesen, dass damit nicht die Widerspenstigkeit und die „faktische Störrigkeit des Gehirns und des neuronalen Gewebes" (Christen 2011: 139) gänzlich ausgeblendet werden. Entsprechend kann die Auffassung des Gehirns als ‚Daten-produzent‘ auch kritisch betrachtet werden. 6 Deutlich werdend bereits bei Norbert Wiener (1948).

Page 8: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

7

und Technik zu vereinfachen, ohne dabei jedoch die Gänze kognitiver und emotionaler Funk-tionen des menschlichen Gehirns zu erfassen (vgl. Müller et al. 2009: 11). Obwohl eine uni-verselle numerische Codierung des menschlichen Denkens sowie eine umfassende program-matische Darstellung dessen durch berechenbare algorithmische Prozesse mehr als zweifel-haft sind, zeigen Brain-Computer-Interfaces die möglichen Verknüpfungen zwischen mensch-lichen und technischen Bereichen sowie zunehmende Potentiale der Schnittstellengestaltung.7 Diese Schnittstellen, zum Austausch von bioelektrischen Signalen über eine Verbindung zwi-schen Elektroden und dem menschlichen Gehirn, werden in der Regel in ableitende Systeme – bei denen bioelektrische Signale des Gehirns erfasst und decodiert werden – und in stimu-lierende Systeme – zur Stimulation einzelner Hirnregionen über elektrische Impulse – unter-teilt, wobei zukünftig, über integrierende Systeme, beide Systemfunktionen kombiniert werden sollen (vgl. u.a. Donoghue 2002; Abbott 2006; Müller et al. 2009). Die tiefe Hirnstimulation ist eine Form der Gehirn-Maschine-Schnittstelle, die vor allem bei an Morbus-Parkinson- oder an essentiellem Tremor-Erkrankten angewandt wird, mit einer Implantation von Elektroden mittels funktioneller Neurochirurgie in tiefliegende Hirnstrukturen.

Insgesamt ergeben sich hier untersuchungsrelevante Körper-Technik-Grenzen und Vernet-zungen auf unterschiedlichen Ebenen: Vernetzungen durch die Verbindung von Gehirnen mit Computern oder Prothesen, u.a. zur Unterstützung von körperlichen Bewegungsfunktionen (Brain-Computer-Interfaces bzw. Brain-Machine-Interfaces); technische oder pharmakologi-sche Einwirkungen auf Hirnstrukturen und -funktionen (z.B. durch Magnetstimulation oder Neuroenhancement); oder die Inkorporation von technischen Artefakten in die biologische Ma-terialität des Gehirns (z.B. Hirnimplantate). Aber wie wird das so vernetzte Gehirn gedacht und welche Daten werden produziert?

In der modernen Neurobiologie wird das Gehirn „als komplexes neuronales Netzwerk ver-standen, das seine Leistungsfähigkeit im Laufe der Evolution entwickelt hat. Die Neuroinfor-matik benutzt die neuronale Architektur und die Lernverfahren natürlicher Nervensysteme als „Blaupausen, um technische neuronale Netze z.B. für Robotik, Bild-, Muster- und Spracher-kennung zu konstruieren“ (Müller et al. 2009: 1). So beherberge das Gehirn eine komplexe Population von vielen Milliarden – aktiver und teilweise inaktiver – Neuronen, mit Vernetzun-gen an Übergängen und einer Erzeugung neuer Muster durch Selbstorganisation (vgl. ebd.: 3). Das Gehirn, als komplexes neuronales Netzwerk begriffen, produziert ebenso komplexe Daten, die es zu spezifizieren gilt und die ebenso programmatisch zu übersetzen sind. So werden im Großhirn Sinneseindrücke verarbeitet und Körperbewegungen koordiniert, im Klein-hirn Bewegungsabläufe und der Spracherwerb ermöglicht. Zentrale, meist unbewusste Kör-perfunktionen, wie die Körpertemperaturregulierung und Hunger- sowie Durstgefühl, werden im Zwischenhirn gesteuert. Der Herzschlag wird im ältesten Areal, im Hirnstamm, reguliert, ebenso die Atmung und Reflexe, wie das Husten, aber auch Augenbewegungen auf be-stimmte Sinneseindrücke (vgl. Braus 2014). Entsprechend unterschiedliche Daten(mengen) fallen an, lassen sich medizinisch untersuchen, auswerten, unterschiedlich darstellen und – durch den Einsatz verschiedener Behandlungsmethoden – (neu) generieren.

Besonders Eingriffe in das menschliche Gehirn nehmen eine herausragende Bedeutung ein, da das Gehirn als das determinierende Organ der Person und Identität angesehen wird (vgl. Schmitz 2010: 97 ff.). Die Bedeutung des Gehirns, vor allem im Hinblick auf ethische Identitäts- und Personalitätsdebatten, wird vor allem an der bestehenden Hirntoddefinition markant sichtbar, die den Dualismus von Körper und Geist weiter fortführt. Das Gehirn gilt als

7 Merkel et al. (2007) bieten beispielsweise einen Überblick über verschiedene Arten solcher Neuro-technologien.

Page 9: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

8

Zentrum für Bewusstsein, Identität und Personalität, während die anderen Körperteile entper-sonalisiert werden: Gilt ersteres als Tod, können letztere zur Organspende freigegeben wer-den (vgl. Manzei 1997). Einen anderen vielversprechenden Betrachtungsgegenstand stellt die tiefe Hirnstimulation dar, als (reversible) invasive Behandlungsmethode, bei der computerver-mittelt Daten von dem externen Interface an das interne Interface interpretiert, generiert und weitergeleitet werden (vgl. Claußen 2009: 21).

2.3 THS bei schwerst Depressiven – Ein Beispiel Die tiefe Hirnstimulation (THS) ist ein bereits etabliertes Verfahren zur Behandlung von Bewe-gungsstörungen, vor allem bei der Parkinson’schen Erkrankung. Die Wirksamkeit dieser The-rapieform ist in den vergangenen Jahren verstärkt auch bei Zwangsstörungen, dem Tourette-Syndrom sowie bei therapieresistenten depressiven Erkrankungen erprobt worden (vgl. Ba-jbouj 2013). Dabei handelt es sich bei der THS (DBS: Deep Brain Stimulation) in der Psychi-atrie noch um ein experimentelles Verfahren, während es bei der Behandlung von Bewegungs-störungen, wie Morbus Parkinson, bereits etabliert ist. Aufgrund neuerer bildgebender und molekularer Daten werden Depressionen als Störung eines Netzwerkes begriffen, das affek-tive Reize verarbeitet und in verschiedenen Aspekten dysfunktional sein kann. So liegt der THS die Annahme zugrunde, dass innerhalb eines dysfunktionalen Depressions-Netzwerks Knotenpunkte existieren, die stimuliert werden können. Mithilfe von bildgebenden Verfahren können dysfunktionale neuronale Netzwerke identifiziert und Kenntnisse über abgrenzbare, dysfunktionale neuroanatomische Strukturen – als Zielregionen der THS – gewonnen werden. Bei der THS als therapeutische Intervention werden Elektroden in einer stereotaktischen Ope-ration in eine zuvor definierte Hirnregion eingebracht und mithilfe eines implantierten Hirn-schrittmachers permanent stimuliert. Während der Einbringung der Elektroden ist der/die Pa-tientIn unter vollem Bewusstsein, was notwendig ist, um einerseits zu kontrollieren, dass keine weiteren Hirnregionen (die für die Motorik, Mimik, Gestik etc. zuständig sind) verletzt werden und andererseits festzustellen, ob die Stimulation ihre Wirkung erzielt. Während des Behand-lungsverlaufs werden die Stimulationsparameter von behandelnden PsychiaterInnen ange-passt und entsprechend der erzielten (oder nicht erzielten) Wirkung verändert.8 Obwohl die THS reversibel ist, handelt es sich bislang um eine Ultima-Ratio-Behandlungsmethode, bei der auch nicht alle Ursachen und Wirkungen vollständig geklärt sind. Der relativ neue Stimu-lationsort des medialen Vorderhirnbündels erscheint bislang als eine besonders vielverspre-chende zu stimulierende Netzwerkstruktur, da hier zum einen ein schnelleres Ansprechen der PatientInnen (binnen Tage) verzeichnet wurde – auf Basis produzierter neuronaler Daten – und zum anderen für dieses Ansprechen weniger Stimulationsfrequenz – körper-extern einge-setzte, generierte Daten – notwendig ist (vgl. Schläpfer et al. 2013).

Hier bietet sich insgesamt eine relationale Betrachtung an, da es sich erstens um ein neu-ronales Netzwerk handelt, welches ablesbare Daten produziert. Zweitens besteht im Kontext dieser Behandlungsmethode die Relation Mensch-Körper-Technik, woraus sich ebenfalls ab-lesbare Daten ergeben sowie Daten potentiell verändert werden können (im Kontext der Inter-aktion zwischen Mensch, Körper, Technik). Drittens besteht eine Relation zwischen Arzt/Ärz-

8 Verschiedene Forschungsgruppen haben bereits erste Ergebnisse zu der tiefen Hirnstimulation an unterschiedlichen Zielgebieten im Gehirn veröffentlicht, wobei auch Verbesserungen der depressiven Symptomatik belegt werden konnten. Bislang wurden Studien mit einer Gesamtzahl von circa 140 Pati-entInnen, die unter therapieresistenter Depression litten und mit der THS behandelt wurden, durchge-führt. Aktuell stehen vier Zielregionen im Zentrum der Stimulationsanwendung: Das Subgenuale Cingu-lum (Cg25, Brodman Area 25), der Nucleus accumbens, die Capsula interna und das Mediale Vor-derhirnbündel (vgl. Schläpfer/Kayser 2010; Schläpfer et al. 2013).

Page 10: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

9

tin, (Technik) und PatientIn, in deren Kontext ebenfalls Daten produziert, ausgelesen, verän-dert und wieder (neu) produziert werden: So wird während des Behandlungsverlaufs die Sti-mulation durch behandelnde PsychiaterInnen verändert, angepasst, erhöht, niedriger gestellt etc.

Dieses Betrachtungsbeispiel aus einem soziologischen Dissertationsprojekt weiterhin auf-greifend, werden im Folgenden Daten des Körpers am bereits benannten 5-Phasen-Modell der Datentechnologie exemplifiziert.

2.4 Das 5-Phasen-Modell der Datentechnologie: Daten des Körpers

(1) Produktion von Daten: Der Körper ‚produziert‘ (Zustands-)Daten, zu einzelnen Funktionen, Organen, zu Gesundheit und Krankheit, einzelnen Bestandteilen oder zum gesamten Körper. Um diese zu beschreiben und auszuwerten, sind Metadaten erforderlich. Betrachtet man beispielsweise die Produktion von Daten zur Krankheit schwerer Depressionen, so werden mit diesen Dysfunktionen von Netzwerken im menschlichen Gehirn, die motivationale und affektive Stimuli verarbeiten, of-fenkundig. Entsprechend können strukturelle und molekulare Daten identifiziert werden und zu einer neuen Konzeptualisierung der neurobiologischen Grundlagen von Erkrankungen bei-tragen (vgl. Schläpfer/Kayser 2010). Die Produktion von Daten zu (Verbindungen der) Netz-werkstrukturen im Gehirn fußt dabei auf der DTI (Diffusion Tensor Imaging), zur dysfunktiona-len Zielregion-Festlegung sowie zur Lokalisierung einer erforderlichen Stimulation, um eine Behandlung zu ermöglichen. Die soziale Konstruiertheit wird besonders deutlich im Hinblick auf die hypothesengeleiteten unterschiedlichen Zielregionen, die von verschiedenen For-schungsgruppen für eine Stimulation fokussiert werden.

Bei der Stimulation werden dann metrische Daten eingesetzt, wie die Impulsbreite der Wel-len, die Stimulationshöhe in Volt und der Wellenabstand bzw. die Frequenz in Hertz. Der Ein-satz elektrischer Impulse zur Behandlung einer körperlichen Erkrankung und auch seit einiger Zeit von psychiatrischen Erkrankungen bringt besonders deutlich das digitale Paradigma zur Geltung. Neuroanatomische, molekulare und strukturelle Quellen der Datenproduktion geben (interpretierte, sozial konstruierte) Hinweise auf eine Funktionalität oder Dysfunktionalität, auf festgelegte Kriterien von Gesundheit und Krankheit.

Die Vernetzung des Körpers mit (technischen) medizinischen Gerätschaften und vor allem Bildgebung sind zentral für unterschiedliche Formen der Datenproduktion: Hier ist entschei-dend, was für welche Körperdaten zur Beobachtung bzw. Sichtbarwerdung eingesetzt wird.

(2) Strukturierung von Daten: Bei der Strukturierung von Körperdaten werden medizinische bzw. technische Verfahren ein-gesetzt, um auf dieser Grundlage (mit entsprechender Expertise) eine Auswertung von Daten zu vollziehen. Prinzipien wie die Zusammenschaltung großer (körperlich) verteilter Datenmen-gen sowie eine dezentrale Verarbeitung (auf medizinischen Gerätschaften) sind hier beson-ders entscheidend. Bei körperlichen Daten sind zudem die Mustererkennung und die Ermitt-lung auffälliger bzw. unauffälliger Werte besonders relevant, um hieran Entscheidungen über eine Fortführung bisheriger oder neuer (Behandlungs-) Strategien anschließen zu können. Beispielsweise wird mit dem MADRS-Kriterium (Montgomery-Asberg-Depression-Rating-Scale) eine Strukturierung im Kontext der Daten bei der Behandlung schwerst Depressiver mit der THS vorgenommen: Eine Abnahme des MADRS-Wertes kleiner als zehn bedeutet eine 50%-Reduktion der Schwere der beobachteten depressiven Symptome (vgl. Schläpfer et al. 2013). Zudem bietet bei klinischen Forschungsstudien das Forschungsprotokoll einen ent-scheidenden Strukturierungsansatz neben weiteren medizinischen Forschungswerkzeugen,

Page 11: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

10

wie Subskalen zur Gesundheitszustandsbewertung, standardisierte neuropsychologische Testbatterien zur Erfassung kognitiver Effekte sowie allgemeine Analyseverfahren (SPSS etc.). Am Beispiel der tiefen Hirnstimulation bei schwerst Depressiven bietet die phasenweise stattfindende Ergebnisbewertung Formen der Datenstrukturierung im Hinblick auf eine Anpas-sung der Stimulationsparameter sowie eine daraufhin stattfindende erneute Datengenerie-rung.

Ein weiterer zentraler Aspekt sei im Hinblick auf das Versuch-Irrtum-Prinzip aufgeführt. Die Einstellung stimulierter Personen verläuft zumeist nach dem Trial-and-Error-Prinzip: Zum ei-nen ist dies der individuellen Gehirn-Spezifik geschuldet. Zum anderen bestehen mehr als tausend mathematische Möglichkeiten von Kombinationen einzelner Parameter: „Würde man jede Option mehrere Minuten ausprobieren, so würde dies Tage dauern“ (Alesch/Kaiser 2010: 107). Entsprechend wird eine Systematisierung versucht, beispielsweise im Hinblick auf eine exakte Kenntnis der Elektrodenlage durch kernspin- oder computertomographische Daten. Hier zeigt sich zugleich eine enge Kopplung zwischen der Strukturierung und der Distribution von Daten.

(3) Distribution von Daten: Die Unterscheidung zwischen ProduzentIn, EignerIn und NutzerIn ist bezüglich des Datenzu-gangs entscheidend. Jedoch zeigen sich bei Körperdaten, gerade im medizinischen Kontext, Überschneidungen der Rollen: PatientIn kann zugleich ProdzentIn und NutzerIn gewonnener Daten sein, beispielsweise durch eine entsprechende Lebensumstellung auf Grundlage pro-duzierter Krankheitsdaten. Zugleich kann das medizinische Fachpersonal die Daten sich an-eignen und nutzen, wie für weitere Forschungszwecke, Vergleiche mit anderen PatientInnen-Daten etc. Entscheidend ist die Exklusion vs. Inklusion beim Zugang: Umfassendere Daten-kenntnisse zeigen sich auf Seiten der medizinischen ExpertInnen, sodass auch ein Exklusi-onsgefühl von den eigenen Körperdaten bei PatientInnen in Form eines Nichtwissens oder Teilwissens entsteht. Dies kann beispielsweise verstärkt werden, wenn (aus PatientInnen-Sicht) eine erforderliche Gefühlsarbeit vom medizinischen Personal aufgrund einer intensiven Orientierung an technischen Geräten sowie an dem eigentlichen medizinischen Handlungs-verlauf nicht geleistet wird, wie bereits bei Strauss et al. (1980) beschrieben. Auch eigene PatientInnen-Befragungen im Kontext der Behandlung schwerst Depressiver mit der THS ha-ben ergeben, dass umfassende Kenntnisse – soweit dies in einer klinischen Studie möglich – und Zugänge auf Seiten von ExpertInnen, im Hinblick auf Stimulationseinstellungen, aktuelle Anpassungen etc. bestehen und eine Ahnungslosigkeit über die eigenen (Stimulations-/De-pressions-) Daten der PatientInnen vorliegt. Entscheidend ist bei der Distribution von Daten auch die Dokumentation, sowie die Notwendigkeit im Hinblick auf die Transparenz bzw. In-transparenz der Zugänglichkeit.

(4) Visualisierung von Daten: Die Präsentation und veranschaulichende Aufbereitung verfügbarer Daten verweisen auf die Bedeutung der Datenauswahl und den anvisierten Zweck der Visualisierung. Körperdaten kön-nen mittels unterschiedlicher Visualisierungsverfahren dargestellt werden. Bei der THS sind die DTI und die transkranielle Sonografie zentral, wobei letztere eine hochauflösende Sofort-bildgebung zum intraoperativen Monitoring im Rahmen der Implantation der Elektroden und zur Lagekontrolle der Elektroden darstellt. Hier wird allerdings zugleich die enge Verzahnung von Distribution und Visualisierung deutlich: Präsentiert und auslesbar sind die Daten für Ex-pertInnen – NeurochirurgIn vornehmlich, PsychiaterIn teilweise – für Laien bzw. die eigentli-chen DateneignerInnen, den PatientInnen, jedoch nicht. Visualisierung hängt somit von der

Page 12: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

11

Auswahl, den Darstellungsformen und für ein Verständnis nicht zuletzt von spezifischen Fach-kenntnissen und Erfahrungen ab, sodass eine Kopplung zwischen der Distribution und der Visualisierung von Daten besteht.

Abbildung 1: Visualisierung von Daten am Beispiel der THS

(5) Steuerung mittels Daten: Auch die Steuerung mittels Daten ist im medizinischen Bereich bezüglich Entscheidungen zum weiteren Behandlungsverlauf maßgeblich von der Fachexpertise abhängig; aber auch von ei-ner Berechenbarkeit oder einer Nichtberechenbarkeit von Körper(daten), eingesetzten Unter-stützungssystemen, technischen Werkzeugen etc. Bei dem Beispiel der Behandlung schwers-ter Depressionen mit der THS werden Erkenntnisse zu Zielregionen der Behandlungsme-thode, zur depressiven Erkrankung und allgemein zum Belohnungssystem im Gehirn gewon-nen. Auf Basis der ausgewerteten Daten werden dann Veränderungen vorgenommen – oder bei Bewährung eben nicht: Zentral sind hierbei elektrische Impulsgeberänderungen (Fre-quenz, Amplitude, Polarität, Pulswerte), um eine Aktivität in Hirnregionen oder eine Inaktivität zu ändern. Mit dem eingesetzten technischen Artefakt, dem Stimulationsgerät, wird eine Än-derung bzw. eine Anpassung der Stimulationsparameter entsprechend sich einstellender, nicht vollständig berechenbarer ‚Hirnwiderstände‘ vorgenommen, um eine Änderung bzw. Hemmung neuronaler Strukturen durch die Stimulation zu erzielen. Zentrales Kriterium ist hier die Unterscheidung von Aktivität und Passivität, ein aktiviert – z.B. THS bei Depressionen – oder passiviert Werden – z.B. THS bei Parkinson – im Rahmen von (Körper-)Kontrollprojekten.

3 Daten aus und für Arbeit

3.1 Einführung Die Datafizierung durchdringt alle Lebensbereiche – ebenso die Arbeitswelt. Sowohl Großkon-zerne, als auch kleine und mittelständische Unternehmen (KMU) sind von den Veränderungen der Arbeits- und Produktionsbereiche durch die Automatisierung und Digitalisierung betroffen.

Page 13: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

12

Wer als Unternehmen wettbewerbsfähig bleiben möchte, sieht sich gezwungen, die sachlich-technische Ausstattung, die Organisationsstruktur und -kultur sowie die Kompetenzen seiner MitarbeiterInnen an den technologischen Wandel anzupassen.

Neue soziotechnische Systeme, wie z.B. der Einsatz von Tablet- oder Smartphone-Apps, sollen das Bild des Unternehmens der Zukunft prägen. Durch eine vereinfachte und beschleu-nigte Kommunikation zwischen den einzelnen Organisationseinheiten eines Unternehmens mithilfe von Datenmanagement-Systemen können z.B. Auftragseingänge schneller und Res-sourcen-effizient verteilt werden. Alle ehemals in Papierform kommunizierten Informationen können mithilfe neuer Informations- und Kommunikationstechnologien am Arbeitsplatz data-fiziert werden.

Der Begriff ‚Arbeit 4.0‘ beschreibt die datafizierte/digitalisierte Arbeitswelt und ihre Akteure. Bisher setzen sich überwiegend die Arbeitssoziologie (z.B.Pfeiffer 2016) und die Industrie- und Wirtschaftssoziologie (z.B. Hirsch-Kreinsen 2014) mit den Begriffen ‚Industrie 4.0‘ und ‚Arbeit 4.0‘ auseinander.

Das 5-Phasen-Modell der Datentechnologie ermöglicht eine relational-techniksoziologische Sichtweise bis auf die kleinsten soziotechnischen Kopplungen der datafizierten Arbeitswelt und die entstehende Virturealität von Arbeit. Um im weiteren Verlauf die fünf Phasen des Mo-dells am Beispiel der Arbeit praxisnah erläutern zu können, nehmen wir Bezug auf das For-schungsprojekt ‚SozioTex – Neue soziotechnische Systeme für die Textilbranche‘9, das am Institut für Textiltechnik und dem Lehrstuhl für Technik- und Organisationssoziologie der RWTH Aachen University vom BMBF gefördert wird. SozioTex entwickelt neue soziotechni-sche Systeme (hier Assistenzsysteme) für die Textilbranche. Der Einsatz einer App als Assis-tenzsystem zur vereinfachten Bedienbarkeit von Webmaschinen (z.B. mithilfe von Tutorials) und zur Optimierung der Kommunikation zwischen der Weberei und der Verwaltung dient hier exemplarisch dem Anwenden der fünf Phasen des Modells der Datafizierung auf den Bereich der Arbeit.

3.2 Das 5-Phasen-Modell der Datentechnologie der Arbeit

(1) Produktion von Daten: In der Arbeit können Daten primär aus drei verschiedenen Quellen gewonnen werden: Den MitarbeiterInnen, den verwendeten Maschinen und den zwischen Mensch und Maschine ste-henden Assistenzsystemen. Alle Datenproduzenten sind miteinander vernetzt und produzie-ren verschiedene Daten, wie in der 1. Phase des Modells beschrieben.

Bezüglich der Produktion von Daten wird zwischen Nutzungs- und Metadaten unterschie-den. Als Nutzungsdaten bezeichnet man Daten, die bei der direkten Nutzung von Geräten durch die MitarbeiterInnen anfallen. In dieser Kategorie lassen sich drei weitere Unterschei-dungen treffen:

a) Konfigurationsdaten Konfigurationsdaten bezeichnen Daten, die bereits bei der (Grund-)Einstellung einer Maschine entstehen. Weiterführend können Prozesse wie bspw. die Werkseinstellungen von Geräten, oder die spezifische Einstellung einer Maschine für ein bestimmtes Produkt als Konfigurati-onsdaten kategorisiert werden. Konfigurationsdaten fallen beim Einstellen einer Maschine für die Produktion eines spezifischen Produktes an. Ein solches Produkt kann z.B. ein bestimmtes

9 Wir danken dem Bundesministerium für Bildung und Forschung (BMBF) für die Förderung der For-schungsgruppe „Neue soziotechnische Systeme in der Textilbranche (SozioTex)“ (FKZ: 16SV7113), sowie dem Projektträger VDI/VDE Innovation + Technik GmbH für die Unterstützung bei Beantragung und Durchführung des Projektes.

Page 14: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

13

Gewebe in der Textilproduktion sein. Konfigurationsdaten sind die Grundparameter, basierend auf den inhärenten Grundeigenschaften der Maschine, vorgegeben durch die Werkseinstel-lungen des Herstellers. Außerdem sind hier die flexiblen Einstellungsmöglichkeiten von Ma-schinen, z.B. Webmaschinen, gemeint, die für mehrere Produkte nutzbar sein und somit eine gewisse Vielfalt an Einstellungen ermöglichen müssen.

b) Daten durch die Gerätenutzung Eine weitere Klasse der Nutzungsdaten fällt bei der Gerätenutzung an. Gemeint sind hiermit Daten, die den Produktionsprozess objektiv beschreiben bzw. protokollieren und ihn somit re-konstruierbar machen. Diese Daten werden über verschiedenste Sensorik- und Aktorik-Ele-mente generiert, die für die Auslesung der jeweiligen Maschine ausgelegt werden. Als Daten, die die eigentliche Gerätenutzung beschreiben, können bspw. die Temperatur oder die Lauf-geschwindigkeit der Webmaschinen im Produktionsvorgang genannt werden, da diese Para-meter Einfluss auf die Qualität des Endproduktes haben.

c) Daten durch NutzerInneneingaben Die dritte Klasse der Nutzungsdaten besteht aus den tatsächlichen NutzerInneneingaben. Sol-che Daten werden aus den Eingaben der nötigen Produktionsdaten in die Maschine durch die MitarbeiterInnen über ein Bedientool gewonnen. Die verschiedenen Bedientools der Maschi-nen sind per Definition mit Sensoren zur Erfassung ihrer Benutzung und ihrer Umgebung aus-gerüstet und liefern so nativ umfassende Einblicke in den Arbeitsalltag.

Den bisher erwähnten Nutzungsdaten sind simultan Metadaten hinzuzufügen, die mit der Er-hebung der Nutzungsdaten entstehen. Im gesamten Arbeitsprozess fallen Daten über die Fre-quentierung von Maschinen und Assistenzsystemen an, während die MitarbeiterInnen gleich-zeitig unbewusst Daten über ihr Arbeitsverhalten zur Verfügung stellen. Detailliert betrachtet lässt sich anhand der Metadaten beispielsweise das Pausenverhalten, das generelle Arbeits-tempo oder ein abstrakterer Wert wie die Maschinenkompetenz der MitarbeiterInnen (siehe z.B. selbst erzeugter Fehlerquoten/Revidierungen von Eingaben) ablesen. Seitens der Ma-schinen und Assistenzsysteme können unter anderem Daten über die Frequentierung oder Häufigkeit von Funktionsfehlern einer Maschine im Arbeitsprozess gesammelt und ausgewer-tet werden.

Ein weiteres Moment der Analyse wird durch die verschiedenen Formen der Datengenerie-rung dargestellt. Diese können in drei Klassen unterschieden werden:

• Daten werden bei der Nutzung von (digitalen) Diensten generiert, indem die Mitarbei-terInnen ein Tool, etwa zur Anforderung von Prozess-relevanten Elementen, nutzen.

• Sensordaten werden durch die Sensorik und Aktorik gewonnen; dies betrifft v.a. Daten, die durch die Vernetzung von Maschinen ausgetauscht werden.

• Daten entstehen außerdem bei der Selbstvermessung von Entitäten, die sich bezüglich der relevanten Entitäten weiterhin aufschlüsseln lassen in die Selbstvermessung der Maschinen und in die (Selbst-/Fremd-)Vermessung der Entität der MitarbeiterInnen.

Bei der Selbstvermessung der Maschinen werden durch die Maschine Produktionsdaten und Aktivitäten archiviert, die für eine spätere Optimierungsanalyse bereitstehen. Der Begriff der (Selbst-/Fremd-)Vermessung der Entität der MitarbeiterInnen ist an den Begriff des ‚quantified self‘ anzulehnen. So dient ein Assistenzsystem, wie beispielsweise eine Pulsuhr oder ein Ge-sundheitsmonitoring-Shirt, der Einschätzung der gesundheitlichen Belastungsfähigkeit der MitarbeiterInnen, welches sowohl den MitarbeiterInnen (Gesundheitsschutz) als auch den Ar-beitgebern (Einschätzen der Leistungsfähigkeit der MitarbeiterInnen) einen Nutzen bringen kann. Weiterhin ist eine Fremdvermessung der MitarbeiterInnen möglich – etwa anhand einer

Page 15: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

14

Metadatenanalyse der betriebsinternen Serviceangebote. Untersucht wird hierbei z.B. die Häufigkeit der Wahrnehmung von betrieblich angebotenen Gesundheitsangeboten wie Rü-ckenschulen oder Ernährungsberatungen, aber auch der Arbeitsausfall wegen Krankmeldun-gen.

(2) Strukturierung von Daten: Moderne Algorithmen und Softwareprodukte ermöglichen die Strukturierung und die Auswer-tung der Daten aus Phase 1 immer im Hinblick auf einen bestimmten Zweck. Beispielsweise kann hier die Effizienz eines konfigurierten Produktionsvorgangs oder die Qualität der herge-stellten Waren ermittelt werden. Durch das Zusammenschalten verschiedener Maschinen las-sen sich Daten intermaschinell vergleichen, um so beispielsweise einen Vergleich zwischen zwei Maschinen hinsichtlich der Effizienz in den unterschiedlichen Produktionsweisen herzu-stellen. Während die Maschinen anhand ihrer Konfigurations- und Nutzungsdaten analysiert werden können, lässt sich der Mensch anhand der NutzerInneneingabedaten erfassen. Die MitarbeiterInnen produzieren im Umgang mit den Maschinen (z.B. über die Bedienelemente und Assistenzsysteme) Daten, die Auskunft über ihr Arbeitsverhalten geben können. Wie oft nutzen die MitarbeiterInnen beispielsweise Tutorials zur Bedienung der Maschinen, wie hoch ist der Bedarf an Pausenzeiten, oder wie lange brauchen MitarbeiterInnen generell für be-stimmte Arbeitsschritte?

Durch diese Mustererkennung kann eine genaue Fehlerprognose abgeleitet werden, die Bruchstellen im Arbeitsablauf erkennen lässt und den Verantwortlichen entsprechende Ent-scheidungen ermöglicht.

(3) Distribution von Daten: Bei der Distribution von Daten stellt sich die zentrale Frage, wer auf die strukturierten Daten zugreifen kann und mit welchem Ziel die NutzerInnen dies tun. Hierbei lässt sich die Kategori-sierung in die verschiedenen Hierarchiestufen einer Organisation aufstellen. Die unterschied-lichen Stufen der Organisation haben unterschiedliche Autoritäten und ‚Zwänge‘, bestimmte Daten zu produzieren und auf sie zuzugreifen. Die Unterteilung aller Beschäftigten eines Un-ternehmens in die Kategorien der Datenproduzenten, -eigner und -endnutzer verdeutlicht, dass Unterschiede in der Befugnis/im Umgang mit Daten bestehen.

Daten der Arbeit sind also inhärent exklusiv oder inklusiv, schließen MitarbeiterInnen in bestimmten Diskursen des Betriebs aus oder integrieren sie, was ein klares Charakteristikum der Macht durch Daten sichtbar werden lässt. Durch die Möglichkeiten der Analyse der Daten wird die Machtposition höherer Hierarchiestufen gegebenenfalls gestärkt und dementspre-chend sind gerade in der Distribution der Daten die Strukturen der Organisationen ausschlag-gebend.

Während die Datendistribution exklusiv und inklusiv sein kann, lässt sie sich noch einer zweiten dichotomen Unterscheidung unterwerfen: der aktiven oder passiven Distribution. Kon-kret handelt es sich hierbei um Daten, die den NutzerInnen zum Ablesen/Abgeben vorge-schrieben werden oder um Daten, die er abrufen oder bereitstellen kann, aber nicht muss. Am Beispiel von SozioTex lässt sich dies anschaulich am Einsatz von Assistenzsystemen durch die MitarbeiterInnen auf dem Shopfloor zeigen: Die MitarbeiterInnen stellen z.B. prozessbezo-genes Wissen in der Datenbank des Assistenzsystems bereit. Ebenso produzieren sie durch die Gesamtheit der Arbeitsschritte passiv Daten über den Arbeitsprozess, welche automatisch gespeichert werden. Ein inkludierender Faktor von Daten besteht beispielsweise darin, dass die MitarbeiterInnen nach der Strukturierung der Daten die Kennziffern ihrer Schicht abrufen können (oder müssen), um einen Optimierungsprozesseinzuleiten. Ein exkludierender Faktor

Page 16: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

15

von Daten besteht darin, dass die MitarbeiterInnen nicht in der Lage sind, betriebswirtschaftli-che Daten oder bspw. die Daten anderer Schichten abzurufen, was der Managementebene vorbehalten ist (exklusiv).

(4) Visualisierung von Daten: Die strukturierten Quelldaten werden, um zugänglich zu sein, unter einem bestimmten Aspekt (z.B. Aufgabenzweck) aufbereitet. Die verschiedenen Optionen der Visualisierung von Daten stellen eine weitere Form der Exklusion (über funktionale Zugänge) und somit erneut Hierar-chiestufen dar, da ein aufgabenadäquates Verständnis, das unter Umständen erst erworben werden muss, für bestimmte Formen der Visualisierung vorausgesetzt wird. Auf der Ebene der Produktionsleitung bzw. im Management werden Daten in Kontroll- bzw. Kenn- und Erwar-tungswerten bzw. -diagrammen dargestellt. Auf der Ebene der MitarbeiterInnen können Daten in Form von Tutorials (z.B. Videos oder Audioanleitungen) aufbereitet werden. Am Beispiel SozioTex kann so das Wissen der erfahrenen MitarbeiterInnen in die Tutorial-App eingespeist, gespeichert und zur Weitergabe an die Auszubildenden aufbereitet werden (siehe Abb. 2).

Abbildung 2: Visualisierung eines Assistenzsystems in SozioTex

Die Tutorial-App assistiert z.B. den Auszubildenden bei den ersten eigenständigen Webma-schinen-Einstellungen oder dient erfahreneren MitarbeiterInnen als Gedächtnisstütze in Pro-zessen, die sie länger nicht ausgeführt haben. Ziel ist es jedoch, dass hoch komplexe Arbeits-prozesse nach dem Erlernen, grundsätzlich selbstständig von den MitarbeiterInnen ausgeführt werden können und die Assistenzsysteme prinzipiell dem Kompetenzaufbau und nicht -abbau dienen.

(5) Steuerung mittels Daten: Die Steuerung mittels Daten unterteilt sich in zwei verschiedene Aspekte: Die Steuerung durch visualisierte ‚in-situ‘ Daten und die Steuerung durch simulierte ‚in-silicio‘ Daten. In einem von Daten durchzogenen Arbeitsprozess kann ein Eingriff in die Echtzeitprozesse über die analy-sierten Messdaten der Produktion stattfinden, was durch die Datenanalyse in einer Verände-rung der Organisationsprozesse bzw. der Prozessarchitektur resultieren kann. Ziel ist die Fehlerprävention und das Vermeiden von ineffizientem Handeln. Auf diese Weise beeinflusst die Analyse der Daten direkt den Handlungsstrom in einer Organisation. Die Konsequenzen dieser Analyse sind z.B. generelle Entlastung oder Unterstützung der MitarbeiterInnen, was in

Page 17: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

16

einer Effizienzsteigerung und Ressourceneffizienz resultiert. Als Beispiel aus dem Projekt So-zioTex kann man zwei Schichten mit verschiedenen Arbeitsabläufen innerhalb eines Prozes-ses anhand der Messdaten, unter dem Aspekt der Zeiteffizienz, miteinander vergleichen.

Mit Hilfe der Simulation von Produktionsprozessen kann die optimale Auslastung der Ma-schinen innerhalb eines Prozessschrittes errechnet werden, sodass die MitarbeiterInnen ihre Arbeitsschritte an die Auslastungskennziffern der Maschinen anpassen können. Diese Syn-these analoger Arbeitsprozesse (‚in-situ‘) mit ‚in-silicio‘ Simulationen zu Echtzeitprozessen ist bereits eine erste Annäherung an eine Virturealität.

4 Daten des Alltags

4.1 Einführung Die Effekte der Datafizierung beschränken sich allerdings nicht auf den Bereich der Arbeit. Als übergreifendes Paradigma neuartiger soziotechnischer Verkopplungen umfasst die Datafizie-rung alle Bereiche des Lebens und wirkt damit auch in den alltäglichen Bereichen der privaten Lebensführung. Die Wandlungen der soziotechnischen Verhältnisse, die der Begriff der Data-fizierung umschreibt, verändern die Art und Weise, wie wir unsere Umwelt wahrnehmen, wie wir uns in dieser bewegen, wie wir mit dieser interagieren für jedeN EinzelneN. Ein immer größer werdender Teil der alltäglichen Aktivitäten erfordert einen mehr oder weniger intensiven Einbezug von Technik – die allerdings gleichzeitig zunehmend im Hintergrund verschwindet.

Mit dieser Durchdringung des Alltags durch vernetzte Sensoren, intelligente Objekte und smarte Assistenten verändert sich auch der Umgang mit Technik – zum Teil radikal. Immer weniger werden die alltäglichen technischen Artefakte im traditionellen Sinne bedient. Statt-dessen erfolgt der Umgang mit der neuen Technik in immer stärkerem Ausmaß im Modus der Kommunikation bzw. Interaktion, was schon für sich alleine genommen eine relativ umfangrei-che Prozessierung von Daten erforderte. Vor allem zwei technologische Perspektiven drängen sich vor diesem Hintergrund als paradigmatisch und beachtenswert quasi auf: Zum einen sind es die Technologien der Selbstvermessung und -optimierung, die nicht nur für eine feingranu-lare Produktion und Verarbeitung von Daten über das Individuum stehen, sondern auch für eine enge Verschränkung von Sach-, Handlungs-, und Sozialtechniken. Der zweite Bereich ist die Perspektive des Internet of Things, also die immer umfassendere Vernetzung mehr oder weniger smarter Objekte und Hintergrundtechnologien zu einem dichten Netz miteinander ver-bundener Sensoren und Aktoren, was wie kaum eine andere Perspektive die Konsequenzen der Datafizierung und Algorithmisierung der physischen Welt verdeutlicht.

Diese enge Verflechtung der digitalen und der physischen Welt stand im Zentrum des am Lehrstuhl für Technik- und Organisationssoziologie durchgeführten FuE-Projekts Sen-sorCloud10, dessen Ziel in der Entwicklung einer übergreifenden technologischen Plattform für die Vernetzung solcher smarter Objekte bestand. Vor dem Hintergrund Cloud-gebundener Smart-Home- und Smart-City-Technologien wurde dabei deutlich, wie Datafizierung durch den Einsatz smarter Objekte im Alltag unmittelbar erfahrbar wird: Datenbasierte Prozesse, also Prozesse der genuin ‚digitalen Sphäre‘ zeitigen mittels smarter (untereinander vernetzter und scheinbar autonomer) Objekte konkrete Effekte in der Sphäre der physischen Welt und verän-dern diese nachhaltig. Damit einher geht eine weitreichende Veränderung von Alltagsprakti-ken, angefangen bei der Kommunikation mit Anderen, die heute zu einem großen Teil ohne die Nutzung neuer digitaler Medien und Plattformen kaum mehr vorstellbar ist. Der Einsatz

10 Das Projekt SensorCloud wurde unter dem FKZ 01MD11049 im Rahmen der Trusted-Cloud-Inita-tive vom BMWi gefördert und durch den Projektträger DLR betreut, wofür wir an dieser Stelle herzlich danken.

Page 18: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

17

smarter Hausgeräte variiert scheinbar banale Alltagspraktiken wie beispielsweise das Wä-schewaschen, wenn die Waschmaschine selbständig das Waschmittel dosiert und den richti-gen Zeitpunkt für den Programmstart auf Basis der Auslastung des Stromnetzes eigenständig bestimmt. Vernetzte Navigationsgeräte ermitteln nicht nur die effizienteste Strecke für eine längere Fahrt auf Grundlage historischer Daten, sondern verknüpfen diese auch mit Echtzeit-daten und Modellen und bieten der FahrerIn eine Ausweichroute an, noch bevor der Megastau sich manifestiert.

4.2 Smarte Alltagsobjekte und das 5-Phasen-Modell der Datentechnologie Als allgemeines Modell der Datentechnologie lassen sich die oben dargestellten fünf Phasen auch auf alltägliche Daten anwenden, die bspw. aus dem Umgang mit smarten Objekten oder Umwelten gewonnen werden. Dabei wird gerade im Kontext smarter, hochgradig vernetzter technischer Artefakte, die zunehmend als Hintergrundtechnologien fungieren noch einmal deutlich, dass die Phasen des vorgeschlagenen Modells nicht zwingend (oder sogar aus-schließlich in der dargestellten Abfolge) durchlaufen werden müssen, sondern es in dem Mo-dell auch ständig zu Schleifen, Sprüngen und Abbrüchen kommen kann.

(1) Produktion von Daten Die Produktion von Daten hat inzwischen den gesamten Alltag durchdrungen und erfolgt dabei in den unterschiedlichsten Formen: Neben den Datenspuren, die einE NutzerIn beispielsweise bei der Nutzung von Webdiensten hinterlässt oder Daten, die NutzerInnen etwa auf Social-Network-Sites aktiv herstellen, sind es bei smarten Objekten vor allem Sensordaten verschie-denster Ausprägung, die in großen Mengen produziert werden. Eine stetige Überwachung ver-schiedener Umgebungszustände ist nicht zuletzt Voraussetzung für einen Großteil der mögli-chen Leistungen smarter Technik – von der Lichtsteuerung im Smart Home bis zur intelligen-ten Verkehrsflusssteuerung in der Smart City. Ein Merkmal der durch die Sensorik intelligenter Objekte produzierten Daten ist, dass es sich bei diesen um Echtzeitdaten im eigentlichen Sinne handelt, die nicht nur kontinuierlich produziert werden, sondern deren weitere Verarbei-tung instantan erfolgt, um annähernd in Echtzeit auf mögliche Umweltveränderungen situati-onsangemessen reagieren zu können. Auffällig ist außerdem, dass der größte Teil dieser Da-ten produziert wird, ohne dass bspw. NutzerInnen dies aktiv beeinflussen. Stattdessen sind die AnwenderInnen Teil der überwachten Umwelt und damit eher Quellen für als Produzenten von Daten.

Anders verhält sich dies bei den Konfigurationsdaten, welche die Nutzungs- oder in diesem Kontext vielleicht besser Überwachungsdaten ergänzen. Diese werden in der Regel aktiv in das System eingegeben oder verändert, um die Geräte und ihre Funktionen an die konkrete Einsatzsituation oder an NutzerInnen-Präferenzen anzupassen. Häufig beeinflussen diese Konfigurationsdaten dabei nicht nur die weitere Verarbeitung der anfallenden Daten, sondern auch deren Produktion selbst, indem sie zum Beispiel die zeitliche Auflösung der Datenpro-duktion bestimmen oder Schwellenwerte definieren, ab denen Sensorwerte als relevante Da-ten gelten.

(2) Strukturierung von Daten Für die Strukturierung von Alltagsdaten kommen verschiedene Verfahren zum Einsatz, die die erhobenen Daten mit Bedeutung versehen und damit der Auswertung zugänglich machen. Insbesondere zwei Verfahren spielen dabei eine dominante Rolle: die Kombination heteroge-ner Daten sowie die Aggregation vieler gleichartiger Daten. So kann etwa in einem Smart-Home-Kontext durch die Kombination verschiedener Sensordaten wie Temperatur- oder Hel-

Page 19: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

18

ligkeitsdaten mit Konfigurationsdaten und möglicherweise weiteren externen Daten die Um-weltsituation derart strukturiert und durch diese Strukturierung verarbeitbar gemacht werden, dass eine gewünschte Helligkeitsregelung erzeugt werden kann. Die Strukturierung der Daten dient in diesem Fall dazu, eine – zumindest hinreichend – eindeutige Situationsdefinition zu schaffen, entlang derer die weiteren Aktivitäten der smarten Technik ausgerichtet werden. Die Aggregation einer großen Anzahl gleichartiger Daten kommt vor allem dort zum Tragen, wo über smarte Technik Ressourcen effizient genutzt werden sollen (ein Beispiel hierfür ist die lastabhängige Steuerung von Haushaltsgräten) oder das Ziel darin besteht, umfassendere Prozesse zu steuern wie beispielsweise die Müllentsorgung in einer Smart City.

Die Strukturierung alltäglicher Daten beschränkt sich allerdings nicht auf diese Vorgänge. Verfahren maschinellen Lernens oder Data-Mining-Techniken werden mit unterschiedlichen Zielen auf die kombinierten und aggregierten Daten angewendet. Neben einer selbständigen Anpassung smarter Objekte an veränderte Nutzungsgewohnheiten können diese Verfahren zum Beispiel der Erkennung von Mobilitätsmustern oder der Identifikation ungewöhnlicher (Umwelt-)Ereignisse dienen. Darüber hinaus werden Mustererkennungsverfahren oftmals ein-gesetzt, um eine Klassifizierung von NutzerInnen oder ganz allgemein Individuen zu erreichen, die es erlaubt, Profile zu erstellen und Annahmen über deren mögliche Verhaltensweisen oder Präferenzen zu treffen, wie dies etwa vom Targeted Advertising bekannt ist. Bemerkenswert hierbei ist, dass es die Skalenfreiheit der Daten nicht nur ermöglicht, solche Klassifizierungen von Individuen und Aggregaten ad hoc und auf unterschiedlichen Ebenen anzuwenden, son-dern es auch erlaubt, durch wiederholte und aufeinander bezogene Datenstrukturierungen (bspw. Neukombinationen oder die Einbeziehung historischer Daten) auch aus vorderhand voneinander unabhängigen aggregierten Daten Rückschlüsse auf einzelne Individuen zu zie-hen.

(3) Distribution von Daten Die Distribution von Daten nimmt bei der Betrachtung von Datafizierungsprozessen im Alltag einen besonderen Stellenwert ein. Ein Merkmal vieler smarter Objekte besteht darin, dass es sich bei ihnen um eingebettete Systeme handelt, die neben der notwendigen Sensorik und Aktorik nur über sehr geringe Ressourcen für die Verarbeitung und Speicherung der Daten verfügen. Stattdessen greifen sie zu diesem Zweck auf vernetzte Ressourcen (bspw. in einer Cloud) zurück, die Rechenleistung und Speicherplatz zur Verfügung stellen. Eine erste Distri-bution der Daten findet also bereits statt, sobald die Daten produziert worden sind. Auch die unterschiedlichen Verfahren der Datenstrukturierung setzen eine Distribution der Daten vo-raus. Darüber hinaus sind Distributionsprozesse wesentlich, wenn es um Fragen einer mögli-chen Zweitverwertung von Daten – z.B. für kommerzielle Zwecke oder zur Weiterentwicklung von Technologien oder Dienstleistungen – geht. Die Distribution der Daten ist damit für Fragen des Datenschutzes und der Datensicherheit der zentrale Zugriffspunkt. Und schließlich handelt es sich bei Daten aus smarten Alltagsobjekten häufig um hoch persönliche Daten, deren Dis-tribution und Verfügbarkeit besondere Aufmerksamkeit verdienen.

An die zentrale Frage im Kontext der Distribution danach, welche Akteure welche Rolle bezüglich welcher Daten einnehmen, schließt sich hier vor allem das Problem an, unter wel-chen Bedingungen die Datendistribution stattfindet. Dabei lassen sich mindestens fünf Modi unterscheiden, in denen die Distribution von persönlichen Alltagsdaten erfolgen kann. Die erste Möglichkeit ist eine transparente Distribution von Daten. Dies ist zum Beispiel dann ge-geben, wenn die Distribution offensichtlich notwendig für die Bereitstellung einer bestimmten Funktion ist, auf gesetzlichen Anforderungen beruht oder die Daten als Bezahlung für eine Dienstleistung dienen und dabei klar geregelt ist, welche Daten unter welchen Umständen

Page 20: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

19

weiterverwendet werden. Gerade die Transparenz über die konkrete Datenverwendung ist al-lerdings häufig nicht in dem Maße gegeben. Stattdessen behalten sich AnbieterInnen zwar vor, die beim Einsatz smarter Technologien anfallenden Daten weiter zu nutzen oder an Dritte weiterzugeben, aber Umfang und Form der Datennutzung werden nur vage bestimmt oder beispielsweise an unauffälliger Stelle in den AGB zur Nutzung eines Gerätes oder einer Dienst-leistung formuliert, so dass eher von einer opaken Datendistribution gesprochen werden muss. Ein weiterer Modus der Distribution von Alltagsdaten kann als verdeckte Distribution bezeich-net werden, die bspw. dann vorliegt, wenn ein Dienstanbieter auf Ressourcen einer dritten Partei (bspw. eines Cloud-Dienstleister) zurückgreift, um sein Angebot umzusetzen, ohne dass dies offengelegt bzw. konkret benannt wird.

Zwar unterlaufen die bisher genannten Modi der Datendistribution die Möglichkeit einer ein-deutigen Antwort auf die Frage nach den datenbezogenen Akteurstypen, sie erfolgen aber alle im Rahmen einer wie auch immer gearteten Einwilligung der Betroffenen (und sei es nur durch die Akzeptanz der zugrundeliegenden AGB). Es ist aber auch möglich, dass Daten von Anbie-tern für Zwecke eingesetzt oder weitergegeben werden, denen die Betroffenen nicht zuge-stimmt haben und/oder für die keine rechtliche Grundlage existiert. In diesem Fall findet die Distribution also unerlaubt statt, wovon nochmals die letzte Variante abgegrenzt werden muss – nämlich die kriminelle Form der Distribution –, die vorliegt, wenn sich unbeteiligte Dritte von außen Zugang zu den Daten verschaffen.

Auch wenn bei der Distribution von Daten aus dem und im Alltag die Rollen der beteiligten Akteure und Ihre Relationierungen (über und mittels der Daten) im Mittelpunkt stehen, sollte auch berücksichtigt werden, wie die Distribution der Daten in diesem Kontext erfolgt. Dabei ist festzuhalten, dass der größte Teil der vorliegenden Distributionen ohne eine direkte Beteili-gung der unterschiedlichen Akteure erfolgt, sondern die Daten automatisch, kontinuierlich und in Echtzeit zwischen den involvierten Artefakten ausgetauscht werden. Dies gilt insbesondere für diejenigen Distributionsprozesse, die selbst Kernbestandteile der Funktionalität der smar-ten Objekte oder zumindest für die Erfüllung ihrer Funktionen notwendig sind. Dabei sind die konkreten Wege und Formen dieser Distributionen zum größten Teil bestimmt durch die tech-nische Verfasstheit der genutzten Distributionskanäle, wie sie sich beispielsweise aus den zu-grundeliegenden Übertragungsprotokollen und weiteren technischen Standards ergibt. Einer-seits erlaubt es dieser Schwerpunkt auf kontinuierlicher und in Echtzeit ablaufender M2M-Dis-tribution (‚Machine-to-Machine‘), die Distribution von im Alltag erhobenen Daten zu standardi-sieren und bspw. auch mit entsprechenden Sicherheitsmechanismen zu versehen. Auf der anderen Seite entziehen sich diese bereits im Design von Artefakten und Diensten angelegten und definierten Distributionsprozesse jedoch auch einer konkreten, aktuellen Kontrolle und Beeinflussung durch die beteiligten Individuen und Organisationen, so dass sich die Daten-distribution in gewissem Sinne verselbständigt.

(4) Visualisierung von Daten Die Visualisierung von Daten aus intelligenten Objekten und vernetzten Diensten kann in un-terschiedlichen Ausprägungen erfolgen. So können etwa die Soll-, Ist- und weitere Werte einer Smart-Home-Steuerung aufbereitet und den BewohnerInnen auf dezidierten Info-Displays o-der über multifunktionale Smart Devices zur Verfügung gestellt werden, wobei die tatsächli-chen (graphischen, numerischen usw.) Visualisierungsformen nur wenigen Einschränkungen unterliegen. Daten aus smarten Objekten können aber auch mit weit weniger komplexen In-terfaces visualisiert werden, wie bspw. einer Leuchte, die signalisiert, dass der Bewegungs-melder an der Hofeinfahrt etwas erkannt hat. Bereits hier wird deutlich, dass eine Visualisie-rung alltäglicher Daten immer schon auf Distributions-, Strukturierungs- und datenbasierten

Page 21: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

20

Entscheidungsprozessen beruht, mit deren Hilfe die für eine Visualisierung vorgesehenen Da-ten aufbereitet bzw. reduziert werden, damit diese auch von NutzerInnen als technische Laien verstanden werden können. Vor diesem Hintergrund spielt die Abwägung zwischen Detailliert-heit und Verständlichkeit der Visualisierung eine besondere Rolle, beruht doch die dargestellte Information mit zunehmender Aufbereitung immer stärker auf vorgelagerten Entscheidungen (wie etwa diejenigen der EntwicklerInnen, welche Daten für die Nutzenden überhaupt als re-levant eingestuft werden) und datenbasierten Prozessen.

Besonders auffällig im Kontext smarter Technologien ist auch, dass die vermehrte Daten-produktion durch Umfeldsensorik nicht unbedingt mit einer umfassenderen Datenvisualisie-rung einhergeht. Abgesehen von einzelnen technischen Anwendungsfeldern wie dem der Aug-mented-Reality-Technologien, wo der Zweck ja gerade in einer Visualisierung zusätzlicher um-feldrelevanter Daten besteht, lässt sich eher eine gegenläufige Tendenz beobachten: Je weiter die Technik in den Hintergrund rückt und je mehr Daten kontinuierlich produziert und verarbei-tet werden, desto weniger Daten (zumindest relativ) werden den NutzerInnen über Visualisie-rungen zugänglich gemacht. Bei smarten Technologien, die weitgehend ohne aktive NutzerIn-neninterventionen, sondern auf der Grundlage datenbasierter, von Algorithmen getroffener Entscheidungen funktionieren, besteht keine Notwendigkeit einer obligatorischen Visualisie-rung von Daten gegenüber den NutzerInnen oder Betroffenen. Visualisiert werden Daten hier vor allem im Einzelfall zu Kontroll-, Konfigurations- oder Analysezwecken.

(5) Steuerung mittels Daten Zusammen mit der Produktion von Daten stellt die Steuerung durch Daten die Klammer für die direkt erfahrbare Datafizierung des (privaten) Alltags dar. Vernetze Alltagsobjekte führen auf-grund der produzierten, strukturierten, distribuierten und (nicht) visualisierten Daten bestimmte Aktionen aus, die sowohl in der virtuellen als auch in der physischen Sphäre der Realität wirken können. Dabei liegen der datenbasierten Steuerung in der Regel nicht einzelne Daten oder Datenbestände zugrunde, sondern unterschiedliche Daten werden herangezogen, um eine algorithmisierte Entscheidung zu treffen. Neben den in Echtzeit produzierten Umfelddaten so-wie den entsprechenden Konfigurationsdaten spielen hierbei auch aus historischen Daten ab-geleitete Modelle sowie aus Simulationen gewonnene Daten eine entscheidende Rolle. Das spätere Einschalten eines Warmwasserboilers am Wochenende basiert genauso auf solchen Kombinationen verschiedener Datenbestände wie auch die Laststeuerung eines intelligenten Stromnetzes oder die algorithmenbasierte Organisation eines urbanen Verkehrssystems.

Für die Steuerung einzelner technischer Geräte und insbesondere technischer Infrastruk-turen ist allerdings nicht nur die Kombination der unterschiedlichen erwähnten Datenklassen (konkret erhoben, historisch, festgelegt, simuliert) von Bedeutung, sondern auch die Integra-tion von Daten unterschiedlicher Ebenen. Auf Basis der vorgelagerten Distributions- und Struk-turierungsprozesse vielfältiger berücksichtigter Datenbestände erlaubt es die prinzipielle Ska-lenfreiheit von Daten, unterschiedlichen Steuerungsanforderungen, die sich bspw. aus der Eingebundenheit eines Smart Home in intelligente (städtische) Infrastrukturen ergeben, Rech-nung zu tragen. Je intensiver die Verknüpfungen bspw. zwischen dem persönlichen Nahfeld im intelligenten Eigenheim und dem urbanen Umfeld ausgeprägt sind, desto komplexer und datenintensiver stellen sich die Steuerungsanforderungen für technische Objekte dar, die diese Ebenen miteinander verknüpfen, wie es etwa für die bereits angeführten Beispiele der smarten Waschmaschine (die das Smart Home mit dem Smart Grid verknüpft) und des intelli-genten Navigationssystems (oder in nicht allzu ferner Zukunft auch autonomer Fahrzeuge) der Fall ist.

Page 22: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

21

5 Cloud-Computing: soziotechnische Steigerung der Datafizierung in Arbeits- und Alltagswelt

In den vorherigen Abschnitten wurde Datafizierung anhand der Themenfelder Körper, Arbeit und Alltag diskutiert. Im nachfolgenden Abschnitt wird am Beispiel des Cloud-Computings11 auf vor allem mobilen Endgeräten veranschaulicht, wie Informationstechnologie Datafizierung bereichsübergreifend verschränkt und im Sinne eines Take-offs steigert. Dabei wird argumen-tiert, dass Cloud-Computing erstens eine der einschneidendsten Veränderungen in der jünge-ren Geschichte der IT darstellt, weil es sich hierbei zweitens um keine konkrete einzelne Tech-nologie, sondern in einem sehr allgemeinen Sinn um ein Bündel von Technologien handelt, in denen IT-Infrastrukturen, -Plattformen und -Dienste von den Nutzerinnen und Nutzern nicht mehr selbst vorgehalten werden. Vielmehr werden diese als Dienstleistungen angeboten und von den Nutzenden bezogen, die einerseits dynamisch und skalierbar sind; andererseits sind diese Angebote räumlich wie organisatorisch aufgrund ihrer ‚materiellen‘ Variabilität bzw. He-terogenität nicht mehr eindeutig zuordenbar. Drittens schließlich bleibt jede Beschreibung die-ses Technologiebündels unvollständig, die sich allein auf technische Charakteristika kon-zentriert und die soziotechnische Basis des Cloud-Computings (vgl. Eggert & Kerpen, 2015) vernachlässigt. Nachfolgend werden diese Punkte wieder aufgegriffen und weiter ausgearbei-tet.

5.1 Einführung: Zur soziotechnischen Basis des Cloud-Computings In der technisch-terminologisch orientierten Diskussion (vgl. zur Übersicht über theoretische und anwendungsbezogene Fragen z.B. die Überblicksarbeiten von Li et al., 2013; Schneider & Sunyaev, 2016; Venters & Whitley, 2012; Yang & Tate, 2012) wird weitgehend der Cloud-Computing-Definition des US-amerikanischen National Institute of Standards and Technology (NIST) gefolgt (Mell & Grance, 2011; vgl. auch Backhaus & Thüring, 2015): KundInnen können kurzfristig je nach Bedarf (d.h. skalierbar und annähernd latenzfrei) automatisiert (also ohne Interaktion mit menschlichen AnsprechpartnerInnen) bei den Anbietenden gewünschte Res-sourcen (z.B. Speicher- oder anderweitige Netzwerk- und Serverleistung) aus einem solcher-art gebündelten Ressourcen-Pool anfordern. Dieser Zugriff erfolgt üblicherweise über internet-basierte Interfaces, und er ist in der Regel mit einer Vielzahl von Endgeräten möglich.

Diese zwar technisch orientierte aber dennoch stark konzeptionell ausgerichtete Definition des Cloud-Computing weist bereits darauf hin, dass es sich beim Cloud-Computing nicht um eine konkrete Technologie handelt, sondern im Kern um eine neue Form der Nutzung von Ressourcen der Datenverarbeitung, die durch ein ganzes Bündel unterschiedlicher Technolo-gien und Verfahren realisiert wird. IT-Infrastrukturen, -Plattformen und -Dienste werden bei dieser Nutzungsform also nicht mehr von den Nutzerinnen und Nutzern selbst vorgehalten. Stattdessen werden diese als Dienstleistungen angeboten und von den Nutzenden situations-abhängig bezogen (Infrastructure, Platform und Software as a Service, siehe auch weiter un-ten). Einerseits sind diese Angebote dynamisch und skalierbar; andererseits sind sie aufgrund der Verteiltheit und Heterogenität ihrer materiellen Basis räumlich wie organisatorisch nicht mehr eindeutig zuordenbar (vgl. Eggert et al., 2014; Eggert & Kerpen, 2015).

Weiter bieten Cloud-Technologien Nutzungsmöglichkeiten, die über die Verlagerung und ubiquitäre Verfügbarmachung von bspw. Rechen- und Speicherkapazität im Rahmen typischer IT-Anwendungen hinausgehen: So wird bereits ein Großteil unserer täglichen Kommunikation

11 Neben dem bereits genannten Projekt SensorCloud rekurrieren wir insbesondere auf das Projekt TRINICS (FKZ 16KIS0352), das vom BMBF gefördert und durch den Projektträger VDI/VDE-IT betreut wird, wofür wir an dieser Stelle herzlich danken.

Page 23: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

22

über die Cloud abgewickelt. Auch stellt die Nutzung Cloud-basierter IT die notwendige Grund-lage dar, die für die Entwicklung zu einem Internet der Dinge notwendigen Ressourcen effizient nutzen zu können (vgl. Abschnitt Datafizierung im Alltag). Ebenso können realistischerweise nur über Cloud-Nutzung die für die vielfältigen Nutzungsmöglichkeiten des mobilen Internets erforderlichen Technologien bereitgestellt und die für Big-Data-Anwendungen benötigten Da-tenmengen erhoben, verwaltet und verarbeitet werden. Auch die unter dem Schlagwort Indust-rie 4.0 diskutierten Transformationen der industriellen Produktion gründen zu weiten Teilen auf dem Einsatz von Cloud-Technologien (vgl. Abschnitt Daten aus Arbeit und für Arbeit). Somit hat in den vergangenen Jahren der Erfolg des Cloud-Computings mit seiner Vision von prak-tisch unbeschränkten, variabel skalier- und bepreisbaren Speicher- und Verarbeitungsressour-cen für das Entstehen zahlreicher neuer Cloud-basierter Dienste gesorgt.

5.2 Cloud-Computing und das 5-Phasen-Modell der Datentechnologie Deutlich wird damit, dass sich hieraus auch ein soziologisch äußerst relevantes und nicht zu-letzt deshalb auch betrachtenswertes Forschungsfeld ergibt, welches nun an der nachfolgen-den Typologie des Phasenmodells der Datentechnologie knapp umrissen wird:

(1) Produktion von Daten Wir haben bereits festgehalten, dass Daten vermittels mannigfaltiger Quellen und Formen pro-duziert werden können: Mannigfaltig nicht zuletzt aus dem Grund, dass sich Onlinenutzung inzwischen vornehmlich vermittels mobiler Endgeräte vollzieht: So ist der (globale) Markt für Mobiltelefone bereits von Smartphones durchdrungen, die sowohl im privaten, aber insbeson-dere auch im Unternehmensumfeld für mobile Geschäftsprozesse und direkte oder indirekte Nutzung von Cloud-Angeboten verwendet werden. Weiterhin sind hier auch die gleichermaßen konfigurier- und verwendbaren Tablet-PCs zu nennen, die ebenso wie Smartphones Einzug in den privaten und beruflichen Alltag gehalten haben (vgl. auch (3) Distribution von CC-Da-ten).

Dabei ist bei mobilen Endgeräten wie Smartphones und Tablets ein zunehmender Einsatz von Cloud-Computing-Ressourcen zu beobachten, um den (im Vergleich zu stationären Sys-temen immer noch) beschränkten Rechen-, Speicher- und Energieressourcen dieser Geräte zu begegnen (Dinh et al., 2013), die dafür gegenüber den stationären Systemen hinsichtlich integrierter Sensorik und interfunktionaler Applikationen (Apps) oftmals weit umfangreicher ausgestattet sind.

Neben diesen Gedanken zur Datenproduktion wird recht schnell deutlich, dass die Vielzahl der heterogenen Entitäten in diesem Technologiebündel zumindest ansatzweise einer weite-ren Binnendifferenzierung bedarf. Hierzu wird zunächst die Strukturierung Cloud-basierter Da-ten sowie im Anschluss deren Distribution in den Blick genommen.

(2) Datenstrukturierung mittels Cloud-Computing Über die vorweg genannte vielfältige (mobile) Datenproduktion lassen sich weiterhin unter-schiedliche Arten der CC-Datenstrukturierung anhand der nachfolgenden Service-Ebenen un-terscheiden: IaaS, PaaS und SaaS. Das heißt, Cloud-Angebote lassen sich einer von drei Klassen von Dienstleistungen zuordnen (vgl. Backhaus & Thüring, 2015): (1) Software as a Service (SaaS), (2) Platform as a Service (PaaS) oder (3) Infrastructure as a Service (IaaS). IaaS bedeutet, dass auf dieser Ebene eine Netzwerkinfrastruktur durch die Bereitstellung grundlegender Ressourcen (z.B. Rechenleistung und Speicher) realisiert wird: Kunden solcher Dienste (z.B. Amazon Elastic Compute Cloud, EC2) stellen sich dabei über einen Cloud-Ser-vice ihre Infrastruktur nach eigenen Wünschen zusammen, sind für den Betrieb ihrer Software auf dem (virtuellen) Rechner aber selbst verantwortlich. Weiterführend beschreibt dann PaaS

Page 24: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

23

die Bereitstellung von Ressourcen zur Erstellung eigener Applikationen und Software-Pro-dukte, wie z.B. Entwicklungstools, Programmieroberflächen und Betriebssysteme. Und schließlich umfasst SaaS die benötigte Umgebung, um Software oder Applikationen in der Cloud ‚laufen zu lassen‘. Der Zugriff wird meistens durch Browser ermöglicht. Beispiele für Software as a Service sind Microsoft Office 365 oder Google Apps. Alle drei Ebenen (IaaS, PaaS und SaaS) bauen aufeinander auf und sind dadurch bedarfsgerecht skalierbar.

Durch diese auf unterschiedlichen Ebenen angesiedelten Dienste kann es nun zu der – nicht ungewöhnlichen – Situation kommen, dass das Angebot einer Cloud-Dienstleistung für EndanwenderInnen seinerseits wiederum auf andere Cloud-Dienste zurückgreift, um die Nut-zerInnendaten abzulegen und zu verarbeiten. So wissen Nutzende des Dienstes Dropbox in der Regel, dass sie eine Cloud-Anwendung nutzen. Dass Dropbox zur Realisierung des Diens-tes seinerseits auf Infrastrukturangebote von Amazon zurückgreift und ihre Daten damit in ei-nem Rechenzentrum des letztgenannten Unternehmens liegen, dürfte den Anwendenden an-dererseits aber nur in den seltensten Fällen bekannt sein.

(3) Datendistribution mittels Cloud-Computing Mit der Vielfalt der Anwendungsmöglichkeiten, die wir in den beiden vorangegangenen Ab-schnitten Produktion und Distribution Cloud-basierter Daten angeschnitten haben, geraten auch die Anforderungen an die Distributionsprozesse und an den daran beteiligten Akteuren und Instanzen in den Blick. Zur Illustration sei an dieser Stelle wiederum einmal nur auf die Menge der zu distribuierenden mobilen Daten verwiesen (Bitkom, 2017): Allein in Deutschland hat sich von 2011 bis 2015 das über Mobilnetze übertragene Datenvolumen von 100 auf 591 Millionen Gigabyte nahezu versechsfacht. Im Laufe des Jahres 2016 stieg das Volumen nach vorläufiger Prognose nochmals um knapp 50 Prozent auf 860 Millionen Gigabyte; und für 2017 erwartet der Bitkom, dass sich dieses starke Wachstum fortsetzt und das Datenvolumen auf knapp 1,2 Milliarden Gigabyte anwächst.

Wesentlicher Treiber dieses Wachstums ist das Internet of Things, das smarte (körpernahe) Alltags- und Arbeitselektronik vernetzt und in dessen Mittelpunkt das Smartphone als mobile Steuerungszentrale steht (vgl. Bitkom, 2017): So ist es für viele Nutzer bereits alltäglich, ihr Smartphone mit anderen Alltagsgegenständen zu vernetzen (z.B. Auto, Smartwatch/Fitness-armband, Unterhaltungs-/Haustechnik). Letztlich wird deutlich: Mit der Vielfalt der Anwen-dungsmöglichkeiten nehmen auch die Anforderungen an Infrastruktur und Prozesse der Da-tendistribution zu. Mögliche voneinander unterscheidbare Bereitstellungsmodelle des CC sind public, private, & hybrid Clouds (vgl. Backhaus & Thüring, 2015):

Public Clouds machen ihre Infrastruktur mit den Ressourcen öffentlich zugänglich und bie-ten diese über das Internet an. Provider und Verbraucher gehören in der Regel unterschiedli-chen Organisationen an (Fremdanbieter).

Private Cloud ist die abgeschottete Bereitstellung einer Infrastruktur, meistens im Rahmen einer bestehenden Organisationsstruktur (z.B. Firmennetzwerk, Intranet). Sie ist nur innerhalb dieser Organisationsstruktur zugänglich, wobei drei Formen unterschieden werden, die Selbst-verwaltung im eigenen Datenzentrum (Corporate Cloud), die Fremdverwaltung durch einen Provider im nutzereigenen Datenzentrum (Managed Cloud) oder die Fremdverwaltung im Da-tenzentrum des Providers (Outsourced Cloud).

Die hybride Lösungsform für die Bereitstellung von Cloud Computing beinhaltet die Kombi-nation der beiden vorangegangenen Modelle. So können Anteile eines Cloud-Service über das Internet offen zugänglich sein (public) und andere Anteile nur intern bereitgestellt werden (private).

Weiterhin lassen sich sog. Provider, Broker, Reseller, Consumer, Auditors, Carrier (vgl. Backhaus & Thüring, 2015) als Distributionsinstanzen und -konstellationen unterscheiden:

Page 25: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

24

Cloud-Providern obliegt das Hosten/Verwalten der zugrundeliegenden Services (IaaS, PaaS, SaaS) an die nachfolgend kurz beschriebenen Broker, Reseller und Verbraucher. Broker leis-ten für Consumer/Verbraucher Beratung und Vermittlung von Cloud-Services von Anbietern (ohne Besitz der Infrastruktur) oder ergänzen deren Services durch Zusatzleistungen (z.B. Service in Bezug auf Cloudsicherheit und Identitätsmanagement) gegenüber den Verbrau-chern. Reseller bieten Dienste im Namen eines Anbieters an, z.B. beim Markteintritt in be-stimmten Regionen oder Ländern, für Verbraucher tritt der Reseller häufig als Anbieter auf. Consumer bzw. Verbraucher sind entweder im Sinne des Business-to-Consumer (B2C) ein-zelne Endverbraucher; oder es handelt sich im Sinne des Business-to-Business (B2B) um Wirtschaftsorganisationen oder öffentliche Einrichtungen bzw. um Cloud-basierte Servicean-bieter: Letztgenannte bieten Services auf Basis der Cloud des Anbieters für Verbraucher an, und ihr gesamtes Businessmodell liegt in der Cloud (Beispiele hierfür sind viele Anbieter aus dem mobile Gaming-Bereich). Auditors und Carriers schließlich kümmern sich um die unab-hängige Bewertung und Zertifizierung der einzelnen an der Bereitstellung beteiligten Akteure, z.B. in Bezug auf Sicherheit, Zuverlässigkeit und Datenschutz (Beispiel: ISO 27001 der Inter-national Organization for Standardization) bzw. stellen die Vernetzung der einzelnen Akteure, z.B. durch die Bereitstellung von Netzwerk und Telekommunikation sicher (Beispiel: Telekom-munikationsanbieter).

Diese Instanzen können prinzipiell global verteilt sein, was besondere Konsequenzen nach sich zieht, die weiter unten (vgl. Abschnitt (5)) ausführlicher diskutiert werden.

(4) Visualisierung Cloud-basierter Daten Aus der Darstellung von Cloud-basierter Datenproduktion, Strukturierung und Distribuierung sollte bisher die Heterogenität des Technologiebündels Cloud-Computing deutlich geworden sein. Diese Heterogenität und Komplexität setzt sich auf der Ebene der Visulisierung von CC-Daten fort.

Ein zentraler Themenkomplex in diesem Zusammenhang ließe sich mit den Schlagworten Undurchdringbarkeit/Verschleierung/Asymmetrierung fassen: die durch Cloud-Technologie er-möglichten Dienste können einerseits bei den Nutzenden die Illusion erwecken, die erzeugten und verarbeitenden Daten würden in Domänen mit Zugriffsmöglichkeiten auf Seiten der Nut-zenden liegen – denn: die Programme/Apps etc. ‚laufen‘ ja auf meinem Gerät und unterliegen damit ja (scheinbar) meiner Zugriffsmöglichkeit. Dies ergibt sich aus der Attribuierung von Pri-vatheit, die vom verwendeten Gerät (z.B. ‚mein‘ Smartphone) auf die laufenden Pro-gramme/Anwendungen quasi ‚ausstrahlt‘. Konträr zu dieser Auffassung und zugespitzt formu-liert: nur, weil ich durch den Kauf eines smart device dies irgendwann einmal als privates Ei-gentum erworben habe, muss nichts, aber auch gar nichts, was auf diesem Gerät an Anwen-dungen läuft, noch auf den Kontext meiner Privatsphäre beschränkt sein. Dies ist und bleibt ein zentrales Problem von Cloud-Technolgie und resultiert eben aus ihrer technologisch, re-gulatorisch und nutzungsbezogenen Heterogenität.

Nun kann man zumindest versuchen, die Asymmetrie technologisch, regulatorisch und nut-zungsbezogenen Wissens etwas aufzubrechen, indem man Nutzenden die Möglichkeit an die Hand gibt, mittels geeigneter Visualisierungsmechanismen bestimmtes Wissen über die vor-genannte Produktion, Strukturierung und Distribution von Daten zu erlangen, welches die Nut-zenden dann gegebenenfalls in bestimmte veränderte Nutzungsweisen ihrer Geräte übertra-gen. Ein knappes Beispiel: so könnte über die Grundlagen und Gestaltung einer Anwendung auf einem Smartphone geforscht werden, welche die komplette Cloud-Nutzung der auf dem Gerät installierten Anwendungen mitloggt und in bestimmte, je nach Nutzungsprofil differen-zierte Visualisierungen transformiert, also nach Möglichkeit Zugriff, Ort, Beteiligte etc. der Cloud-basierten Produktion, Strukturierung und Distribution von Daten offenlegt.

Page 26: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

25

(5) Cloud-Computing und Datensteuerung Die weiter oben bereits beschriebenen Vorteile des Cloud-Computings werden jedoch oftmals mit einer weitgehenden Aufgabe der Privatsphäre erkauft: Auf Grund des mehrschichtigen Dienstemodells des Cloud-Computings (vgl. Abschnitt (2) Strukturierung von CC-Daten) ist häufig nicht ersichtlich, welche Institutionen (Unternehmen wie auch ggf. staatliche Stellen) Zugriff auf die in der Cloud gespeicherten und verarbeiteten Daten haben. Insbesondere bei kostenlosen Cloud-basierten Diensten werden häufig die erhobenen Daten zur Bildung von Profilen über NutzerInnen verwendet, um ihnen bspw. zielgerichtete Werbung innerhalb ihrer Applikationen präsentieren zu können. Aus dieser Profilbildung können sich aber auch indivi-duelle negative Konsequenzen ergeben.

Letztlich zeigt sich hieran für Anwendende ein Kontrollverlust über die Verwendung ihrer Daten. Da die Mehrzahl der Cloud-Anbieter außerhalb der Europäischen Union angesiedelt ist (vgl. Reppesgaard 2012), lässt sich diese Situation nur schwer und unzureichend durch aus-schließlich rechtlich-regulative Maßnahmen verbessern. Obwohl NutzerInnen bewusst ent-scheiden können, welche Anwendungen sie auf ihren Endgeräten benutzen wollen, besitzen sie häufig weder Wissen, geschweige denn Kontrolle, über die Verwendung von Cloud-Diens-ten durch diese Anwendungen. Dies wird insbesondere durch die indirekte Nutzung von Cloud-Diensten im Rahmen des mehrschichtigen Servicemodells weiter verschärft: So sind sich Nut-zende von Dropbox beispielsweise bewusst, dass ihre Daten ‚in der Cloud‘ gespeichert wer-den. Dass ihre Daten aber in einem von Amazon betriebenen Rechenzentrum an der Ostküste der USA liegen, ist den allermeisten unbekannt. Ohne solche Informationen ist es der oder dem Einzelnen aber nicht möglich, eine fundierte und selbstbestimmte Entscheidung über den Einsatz (und damit die Steuerung) von Cloud-Diensten zu treffen. Hinzu kommt, dass durch die Nutzung privater Geräte im geschäftlichen Umfeld (‚Bring your own device‘) die Bedrohung

für mobile Endgeräte noch einmal steigt: Auf diesen sind dann die bereits genannten Klein-programme (Apps) installiert, die oft über das notwendige Maß hinausgehende Rechte auf dem System einfordern und dann, ohne Kontrollmöglichkeit der AnwenderInnen Netzwerkver-bindungen aufbauen und somit auch eine Gefahr für die geschäftlichen Arbeiten auf diesem Gerät darstellen. In der Vergangenheit sind bereits viele Apps aufgespürt worden, die heimlich Informationen auf den Geräten abgreifen und diese an meist im Ausland ansässige (Cloud-)Server weiterleiten. Durch die wachsende Integration von mobilen Endgeräten in nahezu alle Wirtschafts- und Industrieprozesse wird ein Mangel an IT-Sicherheitsfunktionalität in diesen Geräten immer problematischer.

6 Diskussion und Perspektiven Die relationale Betrachtung der Datafizierung anhand des 5-Phasen-Modells der Datentech-nologie, exemplifiziert an vier Phänomenbereichen, schließt mit einem jeweilig thematisch zu-geschnittenen, feldspezifischen Resümee. Abschließend wird diese – einer überblicksartigen Veranschaulichung geschuldet – isoliert erscheinende Darstellung aufgebrochen, indem zent-rale Problemfelder angesprochen werden, die in allen Phänomenbereichen – Körper, Arbeit, Alltag, Cloud-Computing – deutlich werden. Es sei darauf hingewiesen, dass an dieser Stelle kein Anspruch auf Vollständigkeit erhoben wird. Anknüpfungen sowie die Identifizierung wei-terer Felder sind möglich und werden explizit nicht ausgeschlossen.

Page 27: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

26

6.1 Erkenntnisse aus den exemplarischen Phänomenbereichen

Die soziale Konstruiertheit des Körpers und hybride Vernetzungen innerhalb des Kör-pers, zwischen Körper und Technik sowie zwischen PatientIn und medizinischen Fachpersonal An den Daten des Körpers, vor allem im Kontext einer implantierten Technik zur Behandlung einer psychiatrischen Erkrankung, werden eine zunehmende Verschränkung, ein nahtloses Gewebe zwischen Daten und sozialer Wirklichkeit – Krankheit vs. Gesundheit, Umgang mit dem Umfeld und dem eigenen Körper etc. – sowie auflösende (Körper-Technik-) Grenzen deutlich: Dabei findet auch eine (körperliche Neu-) Positionierung und eine spezifische (kör-perliche Eigen- und Fremd-) Wahrnehmung statt. Hier zeigt sich eine Wirklichkeitserzeugung via Daten, ebenso eine Identitätsformierung mittels Daten: Die Eigen- und Fremdbestimmung als gesunder vs. kranker Körper bzw. aktiver vs. passiver neuroanatomischer Netzwerkstruk-turen. Auch die soziale Konstruiertheit wird sichtbar, u.a. im Hinblick auf Dateninterpretations-möglichkeiten, unterschiedliche Visualisierungsmöglichkeiten und die hypothesengeleitete Zielregion-Festlegung zur Stimulation. Nicht nur die (expertisegebundene) Zugänglichkeit bzw. Exklusion vs. Inklusion, auch das zugrundeliegende Trial-and-Error-Prinzip tangiert Be-reiche, wie Autonomie, Privatheit und Datenhoheit, und lässt Schwierigkeiten im Hinblick auf Widerständigkeiten und Nichtberechenbarkeiten antizipieren. Insgesamt bleibt diese Vermes-sung des Körpers von der Quantified-Self-Bewegung abzugrenzen, da diese Kontrollprojekte über die bloße Selbstvermessung hinausgehen und auch Fremdvermessungen problematisie-ren.

Zugleich wird deutlich, dass die Wirklichkeit zunehmend als ein hybrides Netzwerk aus energetischen, materiebehafteten und digitalen Modulen besteht, mit einer Aktualisierung bzw. Stabilisierung von Identitäten unter soziotechnischen Bedingungen. Die Vernetzung zeigt sich als ein zentrales Phänomen auf unterschiedlichen Ebenen, innerhalb des Körpers bzw. der Netzwerkstrukturen des Gehirns, zwischen Körper und Technik, zwischen PatientIn und me-dizinischen Fachpersonal.

Ausblick auf die Veränderung der Datafizierung der Arbeitswelt von morgen In den vorangestellten Erläuterungen des 5-Phasen-Datenmodells wird eine naheliegende Form der Virturealität vorskizziert, die sich als Folge der letzten Phase ergibt: Steuerung mit-tels Daten.

Zu dieser gehören organisationale Veränderungen der gegenwärtigen Strukturen, ausge-löst durch die Auswirkungen der voranschreitenden Datafizierung in der Arbeitswelt. Von zent-raler Bedeutung für Unternehmen ist die Verbesserung der Produktions- und Wertschöpfungs-prozesse, welche durch die Synthese von sozialen und technischen Aspekten und die Be-trachtung beider Punkte im wechselseitigen Verhältnis ermöglicht werden kann. Im Wandel der Organisation werden sowohl Produktions- und Prozessoptimierungen umgesetzt, als auch Anpassungen an das soziotechnische Gefüge realisiert. Die Organisation in der Vision einer erfolgreichen Virturealität wird mittels Implementation von Daten gesteuert, welches weitrei-chende Konsequenzen bezüglich des Abflachens von Arbeitshierarchien hat und den Begriff von Arbeit erneuert.

Eine naheliegende Form einer Virturealität, die in Folge der Steuerung durch Daten einen re-alistischen Ausblick auf die Veränderungen der Arbeitswelt gibt, sind die Auswirkungen der Datafizierung auf die organisationalen Strukturen im Zuge der Industrie 4.0.

Dieser organisationale Wandel beschreibt die Steuerung der Organisation bzw. der Arbeit durch die Implikationen der Daten. Auf der einen Seite stehen die sozialen Faktoren der Arbeit – in Form der Strukturebenen – die sich an die technischen Veränderungen anpassen müssen.

Page 28: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

27

In einer relationalen Betrachtung können diese Strukturebenen durch einen Begriff funktiona-ler Zugänge erweitert werden. Im Zuge der Datafizierung der Arbeitswelt würde ein verstärkter Fokus auf Positionen im soziotechnischen Gefüge gelegt werden. Diese Positionen im Unter-nehmen erhalten Zugang zu Daten der anderen MitarbeiterInnen und können somit einen Wis-sensvorteil verzeichnen. Gerade in Hinblick auf eine Selbst- und Fremdvermessung können diese Zugänge interessant werden. Mit einer steigenden Vermessung der MitarbeiterInnen (durch sich selbst oder durch andere) geht potentiell ein höheres Maß an Transparenz der Angestellten einher, welches den InhaberInnen von Schlüsselpositionen im Unternehmen ei-nen Zugewinn an Macht/Kontrolle verleihen kann. Wer hat das Recht die Daten, die im Ar-beitsprozess anfallen, für bestimmte Zwecke zu nutzen und wie viel Mitspracherecht bekom-men MitarbeiterInnen auf der Shopfloor-Ebene in einem solchen Prozess? Auf der anderen Seite steht der technische Aspekt, welcher – repräsentiert von der Datafizierung und Digitali-sierung der Maschinen – durch jedes Unternehmen eine Anpassung an die Betriebsumstände erfährt. Nur durch diesen sozial-konstruktivistischen Ansatz der Technikimplementation kann eine Virturealität anhand der Möglichkeiten der Datafizierung erzielt werden.

Interaktion mit smarter Technik und die Konstruktion des virturealen Alltags Die Datafizierung hat inzwischen weite Bereiche des täglichen Lebens erfasst und wird in ihren Effekten zunehmend spür- und erfahrbar. Die Integration von technischen Artefakten zur Pro-duktion von und Steuerung durch Daten in die physische Umwelt und damit auch die Zentralität datengetriebener Prozesse knüpft ein immer dichter werdendes Netz virturealer Konstellatio-nen, zu deren jeweiliger Bestimmung Entitäten sowohl der digitalen als auch der nicht-digitalen Sphäre gleichermaßen beitragen. Die mit diesen Prozessen einhergehende Verlagerung der Technik in den Hintergrund der Wahrnehmung bedingt eine Veränderung des Umgangs mit Technik weg von einem ‚Bedienen‘ im klassischen Sinne hin zu zunehmend impliziten Formen der Interaktion und Kommunikation. Die dafür benötigten großen Datenmengen speisen sich dabei aus unterschiedlichen Quellen und werden oftmals nicht nur im übertragenen Sinne ‚im Vorbeigehen‘ produziert. Wie mit diesen Daten weiter verfahren wird und auf welche Art und Weise daraus Entscheidungen generiert werden, entzieht sich dabei zumeist einer aktuellen Kontrolle.

Mit Hilfe des 5-Phasen-Modells der Datentechnologie wird bei der Betrachtung von Data-fizierungsprozessen im Alltag deutlich, welche Rolle neben der ubiquitären Produktion von Daten den Strukturierungs- und Distributionsprozessen bei der Konstruktion des virturealen Alltags zukommt: Diese sind grundlegend für viele Funktionen smarter Alltagsobjekte wie auch für die Erkennung bestimmter Muster oder die Identifikation und Profilierung von Individuen. Die Skalenfreiheit von Daten ermöglicht es darüber hinaus beispielsweise auch, Individuen und Aggregate zu klassifizieren und miteinander in Beziehung zu setzen. Die auf Basis solcher Prozesse hergestellten Entscheidungen können sowohl in der physischen als auch der virtu-ellen Sphäre der Realität wirken und tragen entscheidend zu deren immer intensiveren Ver-knüpfung bei.

Cloud-Computing als soziotechnische Ermöglichungsstruktur der Datafizierung Datafizierung als der von uns fokussierte Kern der Digitalisierung rekurriert in allen Phasen des Handlings digitaler Daten auf Technologie. Aus diesem Grund sprechen wir deswegen in Anlehnung an Flyverbom & Madsen (2015) deshalb auch vom Phasenmodell der Datentech-nologie. Am Beispiel des Cloud-Computings zeigt sich nahezu par excellence, wie ein ganzes Bündel von Technologien (Infrastrukturen, Plattformen, Protokolle, Software etc.) in Kombina-tion mit sozialen Praktiken im Sinne von anwendungs-/kontextspezifischen Verfahrensweisen

Page 29: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

28

es ermöglicht, ein dichtes Netz von (und zugleich mit) Prozessen des Datenumgangs zu we-ben. Ein Großteil der in den Anwendungsfeldern beschriebenen Datafizierungsphänomenen geht einher mit Merkmalen, die sich durch (immer noch) voranschreitende Vernetzung und Miniaturisierung sowie dadurch gesteigerte Mobilität (Flexibilität, Portabilität, etc.) auszeich-nen. Diese Merkmale werden jedoch gerade erst durch ‚die Cloud‘ als soziotechnische Ermög-lichungsstruktur zu den in Datafizierungsprozessen beobachtbaren Beschleunigungs-/Steige-rungserscheinungen (‚Take-off‘). Mit Hilfe des 5-Phasen-Modells der Datentechnologie lassen sich die zunächst recht undurchschaubaren (infra-)strukturellen Gefüge des Datenhandlings besser voneinander differenzieren, so dass die soziologische Analyse tiefer in die Erzeugungs- und Verarbeitungsprozesse jener Datafizierungsphänomene, wie sie hier an ausgewählten Beispielen vorgestellt wurden, eindringen kann. Hierdurch wird somit umfassender verständ-lich, wie sich ‚on-‘ und ‚offline‘ in unserer inzwischen umfassend datafizierten Gesellschaft in-einander verschränken.

6.2 Perspektiven soziotechnischer Verschränkungen und Konsequenzen ubiquitärer Datafizierung

Seamless web und Virturealität Im vorliegenden Text wurde sowohl anhand der einleitenden theoretischen Einordnung als auch unter Rückgriff auf die Darstellung der exemplarischen Digitalisierungsphänomene ver-anschaulicht, wie ein ‚seamless web‘ zwischen der digitalen Datenwelt und der sozialen Wirk-lichkeit entsteht – statt alleiniger Dekomponierung von Wirklichkeit in einzelne Datenströme zeichnet sich unsere alltagsweltliche Realität vielmehr aus durch die Erzeugung von Wirklich-keit in Prozessen der Produktion, Strukturierung, Distribution, Visualisierung und Steuerung vermittels Daten. Wie an unseren Beispielen gezeigt, lässt sich dies in nahezu allen relevanten sozialen Domänen beobachten: von der (eher) auf einzelne Entitäten fokussierten Betrachtung der Erfassung und Nutzbarmachung neuroanatomischer Körperdaten über organisationale Bereichen wie jenem der zunehmend datafizierten Arbeitswelt bis hin zur umfassenden Data-fizierung des Alltags in Form (groß-)technischer Strukturen durch inzwischen nahezu tatsäch-liche Ubiquität miniaturisierter, mobiler und vernetzter Sensorik, intelligenter Objekte und smarter Assistenten.

Im einleitenden Teil des Textes wurde bereits darauf verwiesen, dass der Begriff des ‚se-amless web‘ von Thomas P. Hughes (1986) in die STS eingeführt wurde und dort die Unent-wirrbarkeit hochgradig heterogener Faktoren in Form ‚nahtloser Gewebe‘ soziotechnischer Systeme bzw. Ensembles bezeichnet (vgl. Häußling 2014: 112). Eben genauso bedarf auch die Betrachtung der Digitalisierung des Sozialen der Betonung eben jener Perspektive, dass unter dem durch Digitalisierung – bzw. genauer: Prozessen der Datafizierung – geknüpften ‚seamless web‘ erst unter Betrachtung einzelner Prozesse der Produktion, Strukturierung, Dis-tribution, Visualisierung und Steuerung verstanden werden kann, was in eben diesem Gewebe ‚sozial‘ und was ‚technisch‘ gehandhabt wird (vgl. auch Häußling 2014: ebd.).

Die Beispiele haben darüber hinaus gezeigt, dass es nicht bei der nahtlosen Vernetzung bleibt, sondern das, was digital erzeugt wird, aufgrund des seamless web reibungslos in die sozialen Wirklichkeiten überführt und genauso wie die sozialen Prozesse wirksam wird. Auf diese Weise werden die sozialen Wirklichkeiten von Virturealitäten abgelöst, bei denen die digitalen Ergebnisse transformativ in das Soziale eingreifen, sodass sie die Regeln des Wirk-lichen selbst verändern. Seien es Daten, welche die Gehirnaktivitäten repräsentieren und be-einflussen, seien es digitale Prozeduren, um die optimale Produktion unter gegebenen Be-triebsbedingungen zu identifizieren, seien es Algorithmen, welche ein smart living in daten-transferierenden und datenerzeugten Umgebungen ermöglichen sollen, oder seien es Cloud-

Page 30: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

29

Umgebungen, in denen Daten skalenfrei miteinander kombiniert werden können, um Profile von Sozialem (Akteure, Milieus, Strukturen etc.) zu bilden und mit diesen Profilen das Soziale ‚umzukrempeln‘ – in all diesen Feldern wird „Berechnetes“ (Passoth/Sutter/Wehner 2014) so in soziale Prozesse rücküberführt, dass sie die Bedingungen der sozialen Wirklichkeiten t+1 hin zu Virturealitäten verändern.

Funktionale Zugänge Wessen Daten werden von wem für welche Zwecke in welchem Lebensbereich ausgelesen bzw. wer kann auf diese wie, in welcher Form, zugreifen und was ist das Endresultat? Ein geeigneter Ansatz, diese Frage zu beantworten, scheint der Begriff der Funktionalen Zugänge zu sein.

Funktionale Zugänge sind an Positionen in soziotechnischen Gefügen geknüpft, welche Zugriffe oder Nicht-Zugriffe über die verschiedenen Schnittstellen im Umgang mit Daten erlau-ben. Hier bietet sich das dargestellte 5-Phasen-Datenmodell der Datentechnologie zur detail-lierten Analyse der unterschiedlichen Momente an, in denen funktionale Zugänge relevant sind. In den Phasen der Produktion und Strukturierung von Daten sind bereits (marginal) funk-tionale Zugänge zu erkennen, allerdings mit weniger variablenreichen Umgangsoptionen. Hier bestehen Möglichkeiten, wie die Auswahl von den zu erhebenden Daten bzw. von Algorith-mus-Formen, die zur Strukturierung der Daten angewendet werden. Die Phasen der Distribu-tion, Visualisierung und Steuerung von bzw. durch Daten offenbaren sichtbare relevante Zu-gänge und Nicht-Zugänge. Je nach Art der Relation zwischen den involvierten Entitäten kann geklärt werden, wo Zugriffs- und Nutzungsoptionen (in diesen drei Phasen) liegen. Informiert beispielsweise medizinisches Fachpersonal transparent PatientInnen über deren symptomge-bundene Daten? Welche Daten werden den CloudnutzerInnen vermittelnd visualisiert und wel-che nicht? Wer hat den Zugriff auf Daten, die die Zukunft eines Unternehmens und der Mitar-beiterInnen stark beeinflussen könnten?

Die Frage nach funktionalen Zugängen in allen genannten Bereichen kann relational be-trachtet werden: Die Auswirkungen bzw. Optionen der Zugänge sind abhängig von den Rela-tionen der involvierten Entitäten, welche unterschiedliche Eigenschaften in Bezug auf Daten mit sich bringen. Das 5-Phasen-Modell der Datentechnologie bietet hier eine konkrete Auf-schlüsselung der Bereiche, in denen funktionale Zugänge zu Daten verstärkt betrachtet wer-den können.

Veränderungen der Kontrollkonstellationen Sowohl in der medizinischen Anwendung als auch im Arbeitsumfeld oder im Alltag basieren datengetriebene Prozesse zu einem gewissen Anteil auf der kontinuierlichen Überwachung bestimmter Körper-, Betriebs-, oder Umweltparameter und damit auf einer permanenten Pro-duktion von Daten. Diese Produktion von Daten erfolgt häufig automatisiert im Hintergrund, so dass den Betroffenen oftmals nicht konkret bewusst ist, dass aktuell Daten erhoben, bzw. wel-che Art von Daten produziert werden. Doch auch, wenn die Datenproduktion mit Wissen (und Einverständnis) der Betroffenen erfolgt, bleibt oft im Unklaren, wie, wo und von wem die Daten weiterverarbeitet und aufbewahrt werden. Aufgrund der Komplexität und Vernetztheit der Da-tenprozesse lässt sich daher auf Seiten der Beteiligten (Individuen wie auch Organisationen) ein zunehmender Verlust von Kontrolle darüber feststellen, wem welche Daten in welcher Form und zu welchen Zwecken zugänglich gemacht werden. Dabei ist allen drei dargestellten Beispielen gemein, dass die jeweiligen Datafizierungprozesse häufig Daten benötigen, die sehr detaillierte Informationen über die jeweils Beteiligten beinhalten und als sensibel einge-

Page 31: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

30

stuft werden können (z.B. Körper- oder Bewegungsdaten bei Personen, Daten über Be-triebsabläufe bei Unternehmen). Vor allem in Privatheits- und Datenschutzdiskursen spiegelt sich diese Form eines Kontrollverlusts in der Auseinandersetzung mit der Datafizierung wider.

Die zunehmende Bedeutung automatisierter, algorithmenbasierter Steuerung auf Basis un-terschiedlicher Daten erzeugt allerdings noch eine zweite Form des Kontrollverlusts: Die enge Integration und Interaktion der digitalen mit der nicht-digitalen Sphäre der Realität entzieht den Akteuren zunehmend die Kontrolle über die Konsequenzen ihrer Aktivitäten. In virturealen Konstellationen als nicht-linear rückgekoppelte Systeme, die ihre Daten aus verschiedenen Quellen beziehen, versagen sich die Aktivitäten datenbasierter Entitäten zunehmend einem Verständnis als Reaktionen auf konkrete Aktivitäten oder Interventionen einzelner Akteure. Stattdessen tragen die Datentechnologien selbst zur Definition der jeweiligen Situation bei und passen diese für sich selbst und die weiteren Beteiligten gegebenenfalls in Echtzeit an. Damit können Aktivitäten der technischen Entitäten nicht im Sinne eines einfachen Actio-Reactio-Schemas angenommen werden, sondern müssen als Effekt von (mehr oder weniger komple-xen) Veränderungen der soziotechnischen Konstellation betrachtet werden, die weder von in-dividuellen noch von korporativen Akteuren umfänglich kontrolliert und bewertet werden kann.

Selbst- und Fremdvermessung Die transformative Wirkung von Daten in soziotechnischen Gefügen wird besonders im Hin-blick auf die Selbstvermessung von Entitäten (Individuen und Maschinen) deutlich. Doch ge-rade im Bereich des Gesundheitsmonitorings bzw. im medizinischen Feld, aber auch in der Relation NutzerIn-AnbieterIn in smarten Umgebungen, wirft weniger die Selbstvermessung, als vielmehr die Fremdvermessung kritische Fragen auf: Wer oder was ist DateneignerIn bzw. welche Relationen bestehen zwischen funktionalen Zugängen? Wie verhält es sich mit Daten und Privatheit bzw. Datenhoheit, Datennutzungs- und Datenweitergabe-Rechten? Beim Quan-tified Self steht die Selbstvermessung im Vordergrund, die datenförmige Selbsterfassung, vor-nehmlich zur Optimierung und Leistungssteigerung. Dabei ist anzunehmen, dass die gleichen Entitäten in der Datenproduktion, Datendistribution und Steuerung durch Daten zentral sind. Kontrollprojekte im Sinne einer Fremdvermessung sind hiervon abzugrenzen, wobei das dar-gestellte 5-Phasen-Modell der Datentechnologie analytisch hilfreich erscheint: In der Phase der Datenproduktion und der Strukturierung von Daten wird eine entsprechende Abgrenzung nicht sichtbar, erst mit einer Unterscheidung von der Distribution und der Steuerung durch Daten: Die Distribution offenbart die Zugänge und Zugriffe auf Daten, die Steuerungsphase anschließende Entscheidungen und potentielle Veränderungen, die auf Daten basieren. So können auch unterschiedliche angestoßene Problemfelder der Selbst- vs. der Fremdvermes-sung differenziert und mit Hilfe relationaler Beschreibungen und Methoden spezifiziert werden.

Page 32: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

31

7 Literatur Aamodt, Agnar und Mads Nygård (1995): Different roles and mutual dependencies of data,

information, and knowledge – An AI perspective on their integration. Data and Knowledge Engineering 16(3), S. 191ff.

Abbott, Alison (2006): Neuroprosthetics: In search of the sixth sense. Nature 442(7099), S. 125-127.

Abraham, Anke (2006): Der Körper als Speicher von Erfahrung. Anmerkungen zu übersehenen Tiefendimensionen von Leiblichkeit und Identität. In: Gugutzer, Robert (Hg.), Body turn. Perspektiven der Soziologie des Körpers und des Sports. Bielefeld: transcript, S. 119-139.

Alesch, François und Iris Kaiser (2010): Tiefe Hirnstimulation: Ein Ratgeber für Betroffene bei Morbus Parkinson. Wien: Springer.

Bächle, Thomas Christian (2016): Digitales Wissen, Daten und Überwachung. Hamburg: Junius.

Backhaus, Nils und Manfred Thüring (2016): Vertrauen in Cloud Computing: Für und Wider aus Nutzersicht. Technical Report 02-2016. Berlin.

Baecker, Dirk (2013): Metadaten. Eine Annäherung an Big Data. In: Geiselberger, Heinrich und Tobias Moorstedt (Hg.), Big Data. Das neue Versprechen der Allwissenheit. Berlin: Suhrkamp, S. 156-186.

Bajbouj, Malek (2013): Tiefe Hirnstimulation bei schwerer, therapierefraktärer Depression: Vom experimentellen Ansatz zur wirksamen Therapie. Neurologie & Psychiatrie 15(10), S. 50-54.

Bauer, Joachim (2002): Das Gedächtnis des Körpers. Wie Beziehungen und Lebensstile unsere Gene steuern. Frankfurt/Main: Eichborn.

Bitkom (2017): Smartphone-Markt: Konjunktur und Trends. Berlin. Braus, Dieter (2014): EinBlick ins Gehirn: Psychiatrie als angewandte klinische

Neurowissenschaft. Stuttgart; New York: Georg-Thieme-Verlag. Burkhardt, Marcus (2015): Digitale Datenbanken. Eine Medientheorie im Zeitalter von Big

Data. Bielefeld: transcript. Christen, Markus (2011): Die Entstehung der Hirn-Computer-Analogie. Tücken und

Fallstricke bei der Technisierung des Gehirns. In: Klinnert, Lars und Peter Markus (Hg.), Die Zukunft des menschlichen Gehirns: Ethische und anthropologische Herausforderung der modernen Neurowissenschaften. Schwerte: Institut für Kirche und Gesellschaft, S. 135-154.

Claußen, Jens (2009): Ethische Aspekte konvergierender Technologien. Das Beispiel Gehirn-Computer-Schnittstellen. Technikfolgenabschätzung – Theorie und Praxis 2, S. 20-29.

Dinh, Hoang T., Chonho Lee, Dusit Niyato und Ping Wang (2013): A Survey of Mobile Cloud Computing: Architecture, Applications, and Approaches. Wireless Communications and Mobile Computing 13, S. 1587-1611.

Donoghue, John P. (2002): Connecting cortex to machines: recent advances in brain interfaces. Nature Neuroscience 5(11), S. 1085-1088.

Eggert, Michael und Daniel Kerpen (2015): Trust by design? Vertrauen als zentrale Ressource für die Cloud. In: Lessenich, Stephan (Hg.), Routinen der Krise – Krise der Routinen. Verhandlungen des 37. Kongresses der Deutschen Gesellschaft für Soziologie in Trier 2014. Online verfügbar unter: http://publikationen.soziologie.de/index.php/kongressband_2014/article/view/146.

Page 33: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

32

Eggert, Michael, Daniel Kerpen, Kirsten Rüssmann und Roger Häußling (2014): SensorCloud: Sociological Contextualization of an Innovative Cloud Platform. In: Krcmar, Helmut,Ralf Reussner und Bernhard Rumpe (Hg.), Trusted Cloud-Computing. Cham u.a.: Springer, S. 295-313.

Flyverbom, Mikkel und Anders Koed Madsen (2015): Sorting Data out. Unpacking big data value chains and algorithmic knowledge production. In: Süssenguth, Florian (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld: transcript, S. 123-144.

Gramelsberger, Gabriele (2010): Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: transcript.

Gugutzer, Robert (2006): Der body turn in der Soziologie. Eine programmatische Einführung. In: Gugutzer, Robert (Hg.), Body turn. Perspektiven der Soziologie des Körpers und des Sports. Bielefeld: transcript, S. 9-53.

Gugutzer, Robert, Gabriele Klein und Michael Meuser (2016): Handbuch Körpersoziologie 1, Band 1: Grundbegriffe und theoretische Perspektiven. Wiesbaden: Springer.

Häußling, Roger (2012): Design als soziotechnische Relation. Neue Herausforderungen der Gestaltung inter- und transaktiver Technik am Beispiel humanoider Robotik. In: Moebius, Stephan und Sophia Prinz (Hg.), Das Design der Gesellschaft. Zur Kultursoziologie des Designs. Bielefeld: transcript, S. 263-288.

Häußling, Roger (2014): Techniksoziologie. Baden-Baden: UTB (Nomos). Hirsch-Kreinsen, Hartmut (2014): Wandel von Produktionsarbeit – „Industrie 4.0“. WSI

Mitteilungen 6/2014, S. 421-429. Hughes, Thomas P. (1986): The Seamless Web: Technology, Science, Etcetera, Etcetera.

Social Studies of Science 16, S. 281-292. Kehl, Christoph und Christopher Coenen (2016): Technologien und Visionen der Mensch-

Maschine-Entgrenzung. Sachstandsbericht zum TA-Projekt »Mensch-Maschine-Entgrenzungen: zwischen künstlicher Intelligenz und Human Enhancement«. TAB-Arbeitsbericht 167. Berlin.

Li, Zheng, He Zhang, Liam O’brien, Rainbow Cai und Shayne Flint (2013): On Evaluating Commercial Cloud Services: A Systematic Review. Journal of Systems and Software 86(9), S. 2371-2393.

Lorenzer, Alfred (2002): Die Sprache, der Sinn, das Unbewusste. Psychoanalytisches Grundverständnis und Neurowissenschaften. Stuttgart: Klett-Cotta.

Mainzer, Klaus (1997): Gehirn, Computer, Komplexität. Berlin; Heidelberg: Springer. Manzei, Alexandra (1997): Hirntod, Herztod, ganz tot? Von der Macht der Medizin und der

Bedeutung der Sterblichkeit für das Leben. Eine soziologische Kritik des Hirntodkonzeptes. Frankfurt/Main: Mabuse.

Mell, Peter und Timothy Grance (2011): The NIST Definition of Cloud Computing (Special Publication 800-145). Gaithersburg, MD: National Institute of Standards and Technology.

Merkel, Reinhard, Gerard Boer, Jörg Fegert, Thorsten Galert, Dirk Hartmann, Bart Nuttin und Steffen Rosahl (2007): Intervening in the Brain. Berlin: Springer.

Meuser, Michael (2006): Körper-Handeln. Überlegungen zu einer praxeologischen Soziologie des Körpers. In: Gugutzer, Robert (Hg.), Body turn. Perspektiven der Soziologie des Körpers und des Sports. Bielefeld: transcript, S. 95-116.

Müller, Oliver, Jens Clausen und Giovanni Maio (2009): Der technische Zugriff auf das menschliche Gehirn. Methoden – Herausforderungen – Reflexionen. In: Müller, Oliver,Jens Clausen und Giovanni Maio (Hg.), Das technisierte Gehirn. Neurotechnologien als Herausforderung für Ethik und Anthropologie. Paderborn: mentis, S. 11-19.

Page 34: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag

33

Passoth, Jan-Hendrik, Tilmann Sutter und Josef Wehner (2014): The Quantified Listener. Reshaping Audiences with Calculated Measurements. In: Hepp, Andreas und Friedrich Krotz (Hg.), Mediatized Worlds: Culture and Society in a Media Age. London: Palgrave, S. 271-287.

Pfeiffer, Sabine (2016): Beyond Routine: Assembly Work and the Role of Experience at the Dawn of Industry 4.0. Consequences for Vocational Training. University of Hohenheim, Dep. of Sociology, Working Paper 01-2016. Online verfügbar unter: www.sabine-pfeiffer.de/files/downloads/2016-Pfeiffer-Assembly.pdf.

Reppesgaard, Lars (2012): Global Players: Die großen Internetunternehmen betrachten den Datenschutz eher als Geschäftshindernis. In: Schmidt, Jan-Hinrik und Thilo Weichert (Hg.), Datenschutz. Grundlagen, Entwicklungen und Kontroversen. Bonn: BpB, S. 412-418.

Schläpfer, Thomas E. und Sarah Kayser (2010): Die Entwicklung der tiefen Hirnstimulation bei der Behandlung therapieresistenter psychiatrischer Erkrankungen. Der Nervenarzt 6(81), S. 696-701.

Schläpfer, Thomas E., Bettina H. Bewernick, Sarah Kayser, Burkhard Madler und Volker A. Coenen (2013): Rapid Effects of Deep Brain Stimulation for Treatment-Resistant Major Depression. Biological Psychiatry 73, S. 1204–1212.

Schmitz, Sigrid (2010): Der Körper als Schicksal und Bioakte: Eine Auseinandersetzung mit dem Gehirn im Spannungsfeld von Determination und Konstruktion. In: Abraham, Anke und Beatrice Müller (Hg.), Körperhandeln und Körpererleben. Multidisziplinäre Perspektiven auf ein brisantes Feld. Bielefeld: transcript, S. 87–107.

Schneider, Stephan und Ali Sunyaev (2016): Determinant Factors of Cloud-Sourcing Decisions: Reflecting on the IT Outsourcing Literature in the Era of Cloud Computing. Journal of Information Technology 31, S. 1-31.

Schroer, Markus (2005): Einleitung. Zur Soziologie des Körpers. In: Schroer, Markus (Hg.), Soziologie des Körpers. Frankfurt/Main: Suhrkamp, S. 7-47.

Sprenger, Florian Und Engemann, Christoph (Hg.) (2015): Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript.

Stadelbacher, Stephanie (2016): Die körperliche Konstruktion des Sozialen. Zum Verhältnis von Körper, Wissen und Interaktion. Bielefeld: transcript.

Strauss, Anselm; Shizuko Fagerhaugh, Barabara Suczek Und Carolyn Wiener (1980): Gefühlsarbeit. Ein Beitrag zur Arbeits- und Berufssoziologie. Kölner Zeitschrift für Soziologie und Sozialpsychologie 32, S. 629-651.

Synofzik, Matthis (2005): Die Möglichkeiten der Neurowissenschaften und ihre ethischen Implikationen. Eine Kriteriologie der Neuroethik. Ethik in der Medizin 3, S. 206-219.

Turing, Alan M. (1950): Computing Machinery and Intelligence. Mind LIX(236), S. 433-460. Venters, Will und Edgar A. Whitley (2012): A Critical Review of Cloud Computing:

Researching Desires and Realities. Journal of Information Technology 27(3), S. 179-197. Wiener, Norbert (1948): Cybernetics: Or Control and Communication in the Animal and the

Machine. Cambridge: MIT-Press. Yang, Haibo und Mary Tate (2012): A Descriptive Literature Review and Classification of

Cloud Computing Research. Communications of the Association for Information Systems 31(1), S. 35-60.

Page 35: Schlaglichter der Digitali- sierung: Virtureale(r) Kör ...publications.rwth-aachen.de/record/691853/files/691853.pdf · sche Struktur des Phänomens abstellt. Eine solche, insbesondere

Roger Häußling, Michael Eggert, Jacqueline Lemm, Daniel Kerpen, Niklas Strüver, Nenja Ziesen Eilfschornsteinstraße 7, 52062 Aachen {rhaeussling, meggert, jlemm, dkerpen, nstruever, nziesen}@soziologie.rwth-aachen.de Datum der Veröffentlichung: 20. Juni 2017

Die Working Paper des Lehrstuhls für Technik- und Organisationssoziologie dokumentieren ausgewählte Schwerpunkte aus der Projekt- und Forschungsarbeit des Lehrstuhls. Ihr Ziel ist es, der interessierten Fachöffentlichkeit Forschungsergebnisse, konzeptionelle Überlegungen oder Preprints in loser Folge zugänglich zu machen und darüber den wissenschaftlichen Dia-log zu unterstützen. Die Working Paper werden vor ihrer Veröffentlichung intern referiert. Kon-struktive Kritik, Nachfragen oder weiterführende Kommentare sind sehr willkommen.