24
DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE WERBUNG: DIE GRENZEN DER SELBST- VERPFLICHTUNGEN VON FACEBOOK, GOOGLE UND TWITTER EIN AKTUELLER DEBATTENBEITRAG DER LANDESANSTALT FÜR MEDIEN NRW

DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

DESINFORMATION FAKE-ACCOUNTS UND POLITISCHE WERBUNG DIE GRENZEN DER SELBST-VERPFLICHTUNGEN VON FACEBOOK GOOGLE UND TWITTER EIN AKTUELLER DEBATTENBEITRAG DER LANDESANSTALT FUumlR MEDIEN NRW

INHALT

VORWORT

DIE AUSGANGSLAGE

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

HINTERGRUND UND ZIELE DES MONITORINGS

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGSSaumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Saumlule C Integrity of Services (Integritaumlt der Dienste)Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

DIE ERGEBNISSE DES LEVEL-A-UND LEVEL-B-MONITORINGS IM UumlBERBLICKDatenzugang Kennzeichnung der Werbung Selbstverpflichtungen

bdquoWIR SIND BEREITldquoInterview mit Dr Tobias Schmid

LITERATURVERZEICHNIS Impressum

3

4

6

7

889

101213

16

16

1818

1924

Desinformation Fake-Accounts und politische Werbung

2

3

Desinformation Fake-Accounts und politische Werbung

VORWORT

Liebe Leserinnen und Leser

wir alle haben schon oft den Spruch bdquoWissen ist Machtldquo gehoumlrt Auch wenn er bereits fuumlr die unterschied-lichsten Zusammenhaumlnge herhalten musste hat er doch einen wahren Kern Er veranschaulicht dass Menschen Informationen benoumltigen um differenzierte und selbstbe-stimmte Entscheidungen treffen zu koumlnnen und muumlndige Buumlrgerinnen und Buumlrger zu sein Das ist die Vor-aussetzung fuumlr unsere Demokratie

Mit dem Internet wird Millionen Menschen Zugang zu Wissen und zahllosen Informationen ermoumlglicht Darin besteht eine riesige Chance fuumlr unsere Gesellschaft Aber wie das mit Chancen eben so ist ndash sie bergen auch Risiken Dann naumlmlich wenn wissenschaftliche Fakten angezweifelt werden Verschwoumlrungstheorien ungefiltert Verbreitung finden und politisch motivierte Botschaften sich mit Nachrichten vermischen Nicht nur die Informa-tion sondern auch die Desinformation nimmt Einfluss auf die Entscheidungsprozesse in der Bevoumllkerung Wir muumlssen gemeinsam dafuumlr sorgen dass nicht die Desinformation zur eigentlichen Macht wird

Bereits im Jahr 2018 hat die Europaumlische Kommission daher einen Aktionsplan zur Bekaumlmpfung von Desinfor-mation veroumlffentlicht Teil dessen war unter anderem die Selbstverpflichtung von Plattformen wie Facebook Google und Twitter aktiv gegen die Verbreitung von Desinformation vorzugehen sind ihre Angebote doch ein beliebter Umschlagplatz fuumlr die abstrusesten Theorien Die zu ergreifenden Maszlignahmen

wurden im sogenannten Code of Practice on Disinfor- mation (CoP) definiert Der Aktionsplan der EU-Kommis-sion sieht aber auch vor dass die Effektivitaumlt dieser Maszlignahmen uumlberpruumlft wird und der CoP falls noumltig entsprechend angepasst wird Diese Uumlberpruumlfung haben wir im letzten Jahr vorgenommen

Mit diesem Bericht moumlchten wir Ihnen die Erkenntnisse unserer umfassenden Analysen zusammengefasst praumlsentieren Wir haben neben der Arbeit mit den durch die Plattformen zur Verfuumlgung gestellten Daten auch externe Wissenschaftler beauftragt die Wirksamkeit der Selbstverpflichtungen der Plattformen im Kampf gegen Desinformation anhand ihrer Informationen und Daten unabhaumlngig zu uumlberpruumlfen Nur so gelingt es einen umfassenden Eindruck von der Effektivitaumlt ndash und der Ineffektivitaumlt ndash der bisherigen Maszlignahmen gegen Des- information zu erlangen Auszligerdem sind solche Analysen nicht nur in Deutschland sondern auch in zwoumllf weiteren europaumlischen Mitgliedsstaaten durchgefuumlhrt worden Und so viel kann ich Ihnen vorab verraten Das reicht noch nicht

Was schlieszligen wir nun daraus Fuumlr die Medienregulie-rung ist das Thema Desinformation hochkomplex Mehr denn je bedarf es eines entschiedenen Vorgehens gegen diese Gefahr fuumlr unsere Demokratie die doch zugleich das Grundprinzip einer demokratischen Medienordnung fuumlr sich missbraucht Es muss uns gelingen das Recht auf freie Meinungsaumluszligerung zu schuumltzen und zugleich die Manipulation und Irrefuumlhrung der Bevoumllkerung zu verhindern Und das koumlnnen wir nur erreichen wenn alle Beteiligten ihre Verantwortung ernst nehmen Mit dem Aktionsplan haben wir einen ersten guten Schritt gemacht Jetzt gilt es daran weiterzuarbeiten Im Folgenden lesen Sie welchen Ansatzpunkten aus Sicht der Medienregulierung begegnet werden muss

Ich wuumlnsche Ihnen viel Vergnuumlgen bei der Lektuumlre

Ihr Tobias Schmid

4

Desinformation Fake-Accounts und politische Werbung

DIE AUSGANGSLAGE

Politisch waumlchst die Uumlberzeugung dass Desinformation ein Problem ist das dringend geloumlst werden muss Ansonsten bestehe die Gefahr dass die politische Meinungsbildung oder sogar Wahlen z B durch Social-Media-Posts mit unau-thentisch erzeugter Reichweite oder Fake-Accounts beeinflusst werden Die Euro-paumlische Kommission hat daher im Vorfeld der Europawahlen 2019 erste Schritte zur Bekaumlmpfung der Desinformation ergriffen und den bdquoAktionsplan zur Bekaumlmp-fung von Desinformationldquo verabschiedet

Zudem wurde eine Selbstverpflichtungserklaumlrung erarbeitet der sogenannte bdquoCode of Practice on Disinformationldquo (CoP) Dieser besteht aus fuumlnf sogenannten Pillars (Saumlulen) die sich unterschiedlichen Themenbereichen widmen

Mehrere Social-Media-Unternehmen ndash darunter Facebook Google und Twitter ndash haben die Selbstverpflichtungserklaumlrung im Oktober 2018 unterzeichnet Darin verpflichten sie sich umfassende Maszlignahmen zur Bekaumlmpfung von Desinforma-tion zu ergreifen

Teil des uumlbergreifenden Aktionsplans ist es auch dass die EU-Kommission uumlberpruumlft inwieweit und wie effektiv die groszligen Online-Plattformen Google Facebook und Twitter die im CoP vereinbarten Maszlignahmen gegen Desinfor- mation implementiert haben

Scrutinity of Ad Placements Untersuchung der Werbeplatzierung

SAumlU

LE A

SAumlU

LE B

SAumlU

LE C

SAumlU

LE D

SAumlU

LE E

Political Advertising and Issue-Based Advertising Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen

Integrity of ServicesIntegritaumlt der Dienste

Empowering ConsumersStaumlrkung der Konsumenten

Empowering the Research CommunityStaumlrkung der Forschungsgemeinschaft

Diese Uumlberpruumlfung der Einhaltung der Selbstverpflichtungserklaumlrung hat die Europaumlische Kommission der European Regulators Group for Audiovisual Media Services (ERGA) angetragen ndash und damit den Regulierungsbehoumlrden auf nationa-ler Ebene In Deutschland sind hierfuumlr die Landesmedienanstalten zustaumlndig Die Koordination der Uumlberpruumlfung lag in Nordrhein-Westfalen

Die Landesanstalt fuumlr Medien NRW hat sich dafuumlr entschieden in einem zwei- stufigen Monitoring (Level A und Level B) zu uumlberpruumlfen ob die Plattformen ihre Selbstverpflichtungserklaumlrungen einhalten Im Monitoring Level A hat die Landesanstalt fuumlr Medien NRW mit Unterstuumltzung der Landesmedienanstalten Bayern (BLM) Berlin-Brandenburg (mabb) und Rheinland-Pfalz (medienanstalt rlp) die Selbstauskunftsberichte der Online-Plattformen ausgewertet Dafuumlr wurden auch Interviews mit Fact Checkern und Forschern herangezogen Im Monitoring Level B widmeten sich die Professoren Trevor Davis und Rebekah Tromble (George Washington University Washington DC) im Auftrag der Landesanstalt fuumlr Medien NRW der Konkretisierung der Ergebnisse indem sie selbst erhobene Daten und Informationen analysierten

5

Desinformation Fake-Accounts und politische Werbung

LEVEL A LEVEL B

ZWEISTUFIGES MONITORING

Professoren (University Washington DC)Trevor DavisRebekah Tromble

rarr Konkretisierung der Ergebnisse Analyseselbst erhobener Daten und Informationen

Landesmedienanstalten Bayern (BLM)Berlin-Brandenburg (mabb)Rheinland-Pfalz (medienanstalt rlp)

rarr Selbstauskunftsberichte der Online- Plattformen Fact Checker und Forscher

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 2: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

INHALT

VORWORT

DIE AUSGANGSLAGE

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

HINTERGRUND UND ZIELE DES MONITORINGS

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGSSaumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Saumlule C Integrity of Services (Integritaumlt der Dienste)Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

DIE ERGEBNISSE DES LEVEL-A-UND LEVEL-B-MONITORINGS IM UumlBERBLICKDatenzugang Kennzeichnung der Werbung Selbstverpflichtungen

bdquoWIR SIND BEREITldquoInterview mit Dr Tobias Schmid

LITERATURVERZEICHNIS Impressum

3

4

6

7

889

101213

16

16

1818

1924

Desinformation Fake-Accounts und politische Werbung

2

3

Desinformation Fake-Accounts und politische Werbung

VORWORT

Liebe Leserinnen und Leser

wir alle haben schon oft den Spruch bdquoWissen ist Machtldquo gehoumlrt Auch wenn er bereits fuumlr die unterschied-lichsten Zusammenhaumlnge herhalten musste hat er doch einen wahren Kern Er veranschaulicht dass Menschen Informationen benoumltigen um differenzierte und selbstbe-stimmte Entscheidungen treffen zu koumlnnen und muumlndige Buumlrgerinnen und Buumlrger zu sein Das ist die Vor-aussetzung fuumlr unsere Demokratie

Mit dem Internet wird Millionen Menschen Zugang zu Wissen und zahllosen Informationen ermoumlglicht Darin besteht eine riesige Chance fuumlr unsere Gesellschaft Aber wie das mit Chancen eben so ist ndash sie bergen auch Risiken Dann naumlmlich wenn wissenschaftliche Fakten angezweifelt werden Verschwoumlrungstheorien ungefiltert Verbreitung finden und politisch motivierte Botschaften sich mit Nachrichten vermischen Nicht nur die Informa-tion sondern auch die Desinformation nimmt Einfluss auf die Entscheidungsprozesse in der Bevoumllkerung Wir muumlssen gemeinsam dafuumlr sorgen dass nicht die Desinformation zur eigentlichen Macht wird

Bereits im Jahr 2018 hat die Europaumlische Kommission daher einen Aktionsplan zur Bekaumlmpfung von Desinfor-mation veroumlffentlicht Teil dessen war unter anderem die Selbstverpflichtung von Plattformen wie Facebook Google und Twitter aktiv gegen die Verbreitung von Desinformation vorzugehen sind ihre Angebote doch ein beliebter Umschlagplatz fuumlr die abstrusesten Theorien Die zu ergreifenden Maszlignahmen

wurden im sogenannten Code of Practice on Disinfor- mation (CoP) definiert Der Aktionsplan der EU-Kommis-sion sieht aber auch vor dass die Effektivitaumlt dieser Maszlignahmen uumlberpruumlft wird und der CoP falls noumltig entsprechend angepasst wird Diese Uumlberpruumlfung haben wir im letzten Jahr vorgenommen

Mit diesem Bericht moumlchten wir Ihnen die Erkenntnisse unserer umfassenden Analysen zusammengefasst praumlsentieren Wir haben neben der Arbeit mit den durch die Plattformen zur Verfuumlgung gestellten Daten auch externe Wissenschaftler beauftragt die Wirksamkeit der Selbstverpflichtungen der Plattformen im Kampf gegen Desinformation anhand ihrer Informationen und Daten unabhaumlngig zu uumlberpruumlfen Nur so gelingt es einen umfassenden Eindruck von der Effektivitaumlt ndash und der Ineffektivitaumlt ndash der bisherigen Maszlignahmen gegen Des- information zu erlangen Auszligerdem sind solche Analysen nicht nur in Deutschland sondern auch in zwoumllf weiteren europaumlischen Mitgliedsstaaten durchgefuumlhrt worden Und so viel kann ich Ihnen vorab verraten Das reicht noch nicht

Was schlieszligen wir nun daraus Fuumlr die Medienregulie-rung ist das Thema Desinformation hochkomplex Mehr denn je bedarf es eines entschiedenen Vorgehens gegen diese Gefahr fuumlr unsere Demokratie die doch zugleich das Grundprinzip einer demokratischen Medienordnung fuumlr sich missbraucht Es muss uns gelingen das Recht auf freie Meinungsaumluszligerung zu schuumltzen und zugleich die Manipulation und Irrefuumlhrung der Bevoumllkerung zu verhindern Und das koumlnnen wir nur erreichen wenn alle Beteiligten ihre Verantwortung ernst nehmen Mit dem Aktionsplan haben wir einen ersten guten Schritt gemacht Jetzt gilt es daran weiterzuarbeiten Im Folgenden lesen Sie welchen Ansatzpunkten aus Sicht der Medienregulierung begegnet werden muss

Ich wuumlnsche Ihnen viel Vergnuumlgen bei der Lektuumlre

Ihr Tobias Schmid

4

Desinformation Fake-Accounts und politische Werbung

DIE AUSGANGSLAGE

Politisch waumlchst die Uumlberzeugung dass Desinformation ein Problem ist das dringend geloumlst werden muss Ansonsten bestehe die Gefahr dass die politische Meinungsbildung oder sogar Wahlen z B durch Social-Media-Posts mit unau-thentisch erzeugter Reichweite oder Fake-Accounts beeinflusst werden Die Euro-paumlische Kommission hat daher im Vorfeld der Europawahlen 2019 erste Schritte zur Bekaumlmpfung der Desinformation ergriffen und den bdquoAktionsplan zur Bekaumlmp-fung von Desinformationldquo verabschiedet

Zudem wurde eine Selbstverpflichtungserklaumlrung erarbeitet der sogenannte bdquoCode of Practice on Disinformationldquo (CoP) Dieser besteht aus fuumlnf sogenannten Pillars (Saumlulen) die sich unterschiedlichen Themenbereichen widmen

Mehrere Social-Media-Unternehmen ndash darunter Facebook Google und Twitter ndash haben die Selbstverpflichtungserklaumlrung im Oktober 2018 unterzeichnet Darin verpflichten sie sich umfassende Maszlignahmen zur Bekaumlmpfung von Desinforma-tion zu ergreifen

Teil des uumlbergreifenden Aktionsplans ist es auch dass die EU-Kommission uumlberpruumlft inwieweit und wie effektiv die groszligen Online-Plattformen Google Facebook und Twitter die im CoP vereinbarten Maszlignahmen gegen Desinfor- mation implementiert haben

Scrutinity of Ad Placements Untersuchung der Werbeplatzierung

SAumlU

LE A

SAumlU

LE B

SAumlU

LE C

SAumlU

LE D

SAumlU

LE E

Political Advertising and Issue-Based Advertising Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen

Integrity of ServicesIntegritaumlt der Dienste

Empowering ConsumersStaumlrkung der Konsumenten

Empowering the Research CommunityStaumlrkung der Forschungsgemeinschaft

Diese Uumlberpruumlfung der Einhaltung der Selbstverpflichtungserklaumlrung hat die Europaumlische Kommission der European Regulators Group for Audiovisual Media Services (ERGA) angetragen ndash und damit den Regulierungsbehoumlrden auf nationa-ler Ebene In Deutschland sind hierfuumlr die Landesmedienanstalten zustaumlndig Die Koordination der Uumlberpruumlfung lag in Nordrhein-Westfalen

Die Landesanstalt fuumlr Medien NRW hat sich dafuumlr entschieden in einem zwei- stufigen Monitoring (Level A und Level B) zu uumlberpruumlfen ob die Plattformen ihre Selbstverpflichtungserklaumlrungen einhalten Im Monitoring Level A hat die Landesanstalt fuumlr Medien NRW mit Unterstuumltzung der Landesmedienanstalten Bayern (BLM) Berlin-Brandenburg (mabb) und Rheinland-Pfalz (medienanstalt rlp) die Selbstauskunftsberichte der Online-Plattformen ausgewertet Dafuumlr wurden auch Interviews mit Fact Checkern und Forschern herangezogen Im Monitoring Level B widmeten sich die Professoren Trevor Davis und Rebekah Tromble (George Washington University Washington DC) im Auftrag der Landesanstalt fuumlr Medien NRW der Konkretisierung der Ergebnisse indem sie selbst erhobene Daten und Informationen analysierten

5

Desinformation Fake-Accounts und politische Werbung

LEVEL A LEVEL B

ZWEISTUFIGES MONITORING

Professoren (University Washington DC)Trevor DavisRebekah Tromble

rarr Konkretisierung der Ergebnisse Analyseselbst erhobener Daten und Informationen

Landesmedienanstalten Bayern (BLM)Berlin-Brandenburg (mabb)Rheinland-Pfalz (medienanstalt rlp)

rarr Selbstauskunftsberichte der Online- Plattformen Fact Checker und Forscher

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 3: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

3

Desinformation Fake-Accounts und politische Werbung

VORWORT

Liebe Leserinnen und Leser

wir alle haben schon oft den Spruch bdquoWissen ist Machtldquo gehoumlrt Auch wenn er bereits fuumlr die unterschied-lichsten Zusammenhaumlnge herhalten musste hat er doch einen wahren Kern Er veranschaulicht dass Menschen Informationen benoumltigen um differenzierte und selbstbe-stimmte Entscheidungen treffen zu koumlnnen und muumlndige Buumlrgerinnen und Buumlrger zu sein Das ist die Vor-aussetzung fuumlr unsere Demokratie

Mit dem Internet wird Millionen Menschen Zugang zu Wissen und zahllosen Informationen ermoumlglicht Darin besteht eine riesige Chance fuumlr unsere Gesellschaft Aber wie das mit Chancen eben so ist ndash sie bergen auch Risiken Dann naumlmlich wenn wissenschaftliche Fakten angezweifelt werden Verschwoumlrungstheorien ungefiltert Verbreitung finden und politisch motivierte Botschaften sich mit Nachrichten vermischen Nicht nur die Informa-tion sondern auch die Desinformation nimmt Einfluss auf die Entscheidungsprozesse in der Bevoumllkerung Wir muumlssen gemeinsam dafuumlr sorgen dass nicht die Desinformation zur eigentlichen Macht wird

Bereits im Jahr 2018 hat die Europaumlische Kommission daher einen Aktionsplan zur Bekaumlmpfung von Desinfor-mation veroumlffentlicht Teil dessen war unter anderem die Selbstverpflichtung von Plattformen wie Facebook Google und Twitter aktiv gegen die Verbreitung von Desinformation vorzugehen sind ihre Angebote doch ein beliebter Umschlagplatz fuumlr die abstrusesten Theorien Die zu ergreifenden Maszlignahmen

wurden im sogenannten Code of Practice on Disinfor- mation (CoP) definiert Der Aktionsplan der EU-Kommis-sion sieht aber auch vor dass die Effektivitaumlt dieser Maszlignahmen uumlberpruumlft wird und der CoP falls noumltig entsprechend angepasst wird Diese Uumlberpruumlfung haben wir im letzten Jahr vorgenommen

Mit diesem Bericht moumlchten wir Ihnen die Erkenntnisse unserer umfassenden Analysen zusammengefasst praumlsentieren Wir haben neben der Arbeit mit den durch die Plattformen zur Verfuumlgung gestellten Daten auch externe Wissenschaftler beauftragt die Wirksamkeit der Selbstverpflichtungen der Plattformen im Kampf gegen Desinformation anhand ihrer Informationen und Daten unabhaumlngig zu uumlberpruumlfen Nur so gelingt es einen umfassenden Eindruck von der Effektivitaumlt ndash und der Ineffektivitaumlt ndash der bisherigen Maszlignahmen gegen Des- information zu erlangen Auszligerdem sind solche Analysen nicht nur in Deutschland sondern auch in zwoumllf weiteren europaumlischen Mitgliedsstaaten durchgefuumlhrt worden Und so viel kann ich Ihnen vorab verraten Das reicht noch nicht

Was schlieszligen wir nun daraus Fuumlr die Medienregulie-rung ist das Thema Desinformation hochkomplex Mehr denn je bedarf es eines entschiedenen Vorgehens gegen diese Gefahr fuumlr unsere Demokratie die doch zugleich das Grundprinzip einer demokratischen Medienordnung fuumlr sich missbraucht Es muss uns gelingen das Recht auf freie Meinungsaumluszligerung zu schuumltzen und zugleich die Manipulation und Irrefuumlhrung der Bevoumllkerung zu verhindern Und das koumlnnen wir nur erreichen wenn alle Beteiligten ihre Verantwortung ernst nehmen Mit dem Aktionsplan haben wir einen ersten guten Schritt gemacht Jetzt gilt es daran weiterzuarbeiten Im Folgenden lesen Sie welchen Ansatzpunkten aus Sicht der Medienregulierung begegnet werden muss

Ich wuumlnsche Ihnen viel Vergnuumlgen bei der Lektuumlre

Ihr Tobias Schmid

4

Desinformation Fake-Accounts und politische Werbung

DIE AUSGANGSLAGE

Politisch waumlchst die Uumlberzeugung dass Desinformation ein Problem ist das dringend geloumlst werden muss Ansonsten bestehe die Gefahr dass die politische Meinungsbildung oder sogar Wahlen z B durch Social-Media-Posts mit unau-thentisch erzeugter Reichweite oder Fake-Accounts beeinflusst werden Die Euro-paumlische Kommission hat daher im Vorfeld der Europawahlen 2019 erste Schritte zur Bekaumlmpfung der Desinformation ergriffen und den bdquoAktionsplan zur Bekaumlmp-fung von Desinformationldquo verabschiedet

Zudem wurde eine Selbstverpflichtungserklaumlrung erarbeitet der sogenannte bdquoCode of Practice on Disinformationldquo (CoP) Dieser besteht aus fuumlnf sogenannten Pillars (Saumlulen) die sich unterschiedlichen Themenbereichen widmen

Mehrere Social-Media-Unternehmen ndash darunter Facebook Google und Twitter ndash haben die Selbstverpflichtungserklaumlrung im Oktober 2018 unterzeichnet Darin verpflichten sie sich umfassende Maszlignahmen zur Bekaumlmpfung von Desinforma-tion zu ergreifen

Teil des uumlbergreifenden Aktionsplans ist es auch dass die EU-Kommission uumlberpruumlft inwieweit und wie effektiv die groszligen Online-Plattformen Google Facebook und Twitter die im CoP vereinbarten Maszlignahmen gegen Desinfor- mation implementiert haben

Scrutinity of Ad Placements Untersuchung der Werbeplatzierung

SAumlU

LE A

SAumlU

LE B

SAumlU

LE C

SAumlU

LE D

SAumlU

LE E

Political Advertising and Issue-Based Advertising Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen

Integrity of ServicesIntegritaumlt der Dienste

Empowering ConsumersStaumlrkung der Konsumenten

Empowering the Research CommunityStaumlrkung der Forschungsgemeinschaft

Diese Uumlberpruumlfung der Einhaltung der Selbstverpflichtungserklaumlrung hat die Europaumlische Kommission der European Regulators Group for Audiovisual Media Services (ERGA) angetragen ndash und damit den Regulierungsbehoumlrden auf nationa-ler Ebene In Deutschland sind hierfuumlr die Landesmedienanstalten zustaumlndig Die Koordination der Uumlberpruumlfung lag in Nordrhein-Westfalen

Die Landesanstalt fuumlr Medien NRW hat sich dafuumlr entschieden in einem zwei- stufigen Monitoring (Level A und Level B) zu uumlberpruumlfen ob die Plattformen ihre Selbstverpflichtungserklaumlrungen einhalten Im Monitoring Level A hat die Landesanstalt fuumlr Medien NRW mit Unterstuumltzung der Landesmedienanstalten Bayern (BLM) Berlin-Brandenburg (mabb) und Rheinland-Pfalz (medienanstalt rlp) die Selbstauskunftsberichte der Online-Plattformen ausgewertet Dafuumlr wurden auch Interviews mit Fact Checkern und Forschern herangezogen Im Monitoring Level B widmeten sich die Professoren Trevor Davis und Rebekah Tromble (George Washington University Washington DC) im Auftrag der Landesanstalt fuumlr Medien NRW der Konkretisierung der Ergebnisse indem sie selbst erhobene Daten und Informationen analysierten

5

Desinformation Fake-Accounts und politische Werbung

LEVEL A LEVEL B

ZWEISTUFIGES MONITORING

Professoren (University Washington DC)Trevor DavisRebekah Tromble

rarr Konkretisierung der Ergebnisse Analyseselbst erhobener Daten und Informationen

Landesmedienanstalten Bayern (BLM)Berlin-Brandenburg (mabb)Rheinland-Pfalz (medienanstalt rlp)

rarr Selbstauskunftsberichte der Online- Plattformen Fact Checker und Forscher

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 4: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

4

Desinformation Fake-Accounts und politische Werbung

DIE AUSGANGSLAGE

Politisch waumlchst die Uumlberzeugung dass Desinformation ein Problem ist das dringend geloumlst werden muss Ansonsten bestehe die Gefahr dass die politische Meinungsbildung oder sogar Wahlen z B durch Social-Media-Posts mit unau-thentisch erzeugter Reichweite oder Fake-Accounts beeinflusst werden Die Euro-paumlische Kommission hat daher im Vorfeld der Europawahlen 2019 erste Schritte zur Bekaumlmpfung der Desinformation ergriffen und den bdquoAktionsplan zur Bekaumlmp-fung von Desinformationldquo verabschiedet

Zudem wurde eine Selbstverpflichtungserklaumlrung erarbeitet der sogenannte bdquoCode of Practice on Disinformationldquo (CoP) Dieser besteht aus fuumlnf sogenannten Pillars (Saumlulen) die sich unterschiedlichen Themenbereichen widmen

Mehrere Social-Media-Unternehmen ndash darunter Facebook Google und Twitter ndash haben die Selbstverpflichtungserklaumlrung im Oktober 2018 unterzeichnet Darin verpflichten sie sich umfassende Maszlignahmen zur Bekaumlmpfung von Desinforma-tion zu ergreifen

Teil des uumlbergreifenden Aktionsplans ist es auch dass die EU-Kommission uumlberpruumlft inwieweit und wie effektiv die groszligen Online-Plattformen Google Facebook und Twitter die im CoP vereinbarten Maszlignahmen gegen Desinfor- mation implementiert haben

Scrutinity of Ad Placements Untersuchung der Werbeplatzierung

SAumlU

LE A

SAumlU

LE B

SAumlU

LE C

SAumlU

LE D

SAumlU

LE E

Political Advertising and Issue-Based Advertising Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen

Integrity of ServicesIntegritaumlt der Dienste

Empowering ConsumersStaumlrkung der Konsumenten

Empowering the Research CommunityStaumlrkung der Forschungsgemeinschaft

Diese Uumlberpruumlfung der Einhaltung der Selbstverpflichtungserklaumlrung hat die Europaumlische Kommission der European Regulators Group for Audiovisual Media Services (ERGA) angetragen ndash und damit den Regulierungsbehoumlrden auf nationa-ler Ebene In Deutschland sind hierfuumlr die Landesmedienanstalten zustaumlndig Die Koordination der Uumlberpruumlfung lag in Nordrhein-Westfalen

Die Landesanstalt fuumlr Medien NRW hat sich dafuumlr entschieden in einem zwei- stufigen Monitoring (Level A und Level B) zu uumlberpruumlfen ob die Plattformen ihre Selbstverpflichtungserklaumlrungen einhalten Im Monitoring Level A hat die Landesanstalt fuumlr Medien NRW mit Unterstuumltzung der Landesmedienanstalten Bayern (BLM) Berlin-Brandenburg (mabb) und Rheinland-Pfalz (medienanstalt rlp) die Selbstauskunftsberichte der Online-Plattformen ausgewertet Dafuumlr wurden auch Interviews mit Fact Checkern und Forschern herangezogen Im Monitoring Level B widmeten sich die Professoren Trevor Davis und Rebekah Tromble (George Washington University Washington DC) im Auftrag der Landesanstalt fuumlr Medien NRW der Konkretisierung der Ergebnisse indem sie selbst erhobene Daten und Informationen analysierten

5

Desinformation Fake-Accounts und politische Werbung

LEVEL A LEVEL B

ZWEISTUFIGES MONITORING

Professoren (University Washington DC)Trevor DavisRebekah Tromble

rarr Konkretisierung der Ergebnisse Analyseselbst erhobener Daten und Informationen

Landesmedienanstalten Bayern (BLM)Berlin-Brandenburg (mabb)Rheinland-Pfalz (medienanstalt rlp)

rarr Selbstauskunftsberichte der Online- Plattformen Fact Checker und Forscher

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 5: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Diese Uumlberpruumlfung der Einhaltung der Selbstverpflichtungserklaumlrung hat die Europaumlische Kommission der European Regulators Group for Audiovisual Media Services (ERGA) angetragen ndash und damit den Regulierungsbehoumlrden auf nationa-ler Ebene In Deutschland sind hierfuumlr die Landesmedienanstalten zustaumlndig Die Koordination der Uumlberpruumlfung lag in Nordrhein-Westfalen

Die Landesanstalt fuumlr Medien NRW hat sich dafuumlr entschieden in einem zwei- stufigen Monitoring (Level A und Level B) zu uumlberpruumlfen ob die Plattformen ihre Selbstverpflichtungserklaumlrungen einhalten Im Monitoring Level A hat die Landesanstalt fuumlr Medien NRW mit Unterstuumltzung der Landesmedienanstalten Bayern (BLM) Berlin-Brandenburg (mabb) und Rheinland-Pfalz (medienanstalt rlp) die Selbstauskunftsberichte der Online-Plattformen ausgewertet Dafuumlr wurden auch Interviews mit Fact Checkern und Forschern herangezogen Im Monitoring Level B widmeten sich die Professoren Trevor Davis und Rebekah Tromble (George Washington University Washington DC) im Auftrag der Landesanstalt fuumlr Medien NRW der Konkretisierung der Ergebnisse indem sie selbst erhobene Daten und Informationen analysierten

5

Desinformation Fake-Accounts und politische Werbung

LEVEL A LEVEL B

ZWEISTUFIGES MONITORING

Professoren (University Washington DC)Trevor DavisRebekah Tromble

rarr Konkretisierung der Ergebnisse Analyseselbst erhobener Daten und Informationen

Landesmedienanstalten Bayern (BLM)Berlin-Brandenburg (mabb)Rheinland-Pfalz (medienanstalt rlp)

rarr Selbstauskunftsberichte der Online- Plattformen Fact Checker und Forscher

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 6: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Dazu zaumlhlen unter anderem die Vermeidung der Platzierung von Werbung auf

Websites die Desinformationen verbreiten die Reduzierung der Einnahmen fuumlr die Anbieter

von Desinformationen die Gewaumlhrleistung der Markensicherheit der

Werbetreibenden die Ermoumlglichung der Auswahl und Uumlberwachung

der Werbeplatzierung durch die Werbetreibenden

Saumlule C Integrity of Services (Integritaumlt der Dienste)Dazu zaumlhlen unter anderem die Schlieszligung von Fake-Konten die Einrichtung von Kennzeichnungssystemen

fuumlr Bots die Sicherstellung der Integritaumlt ihrer Dienste

insbesondere mit Blick auf Accounts deren Zweck und Absicht es ist Desinformation zu verbreiten

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Dazu zaumlhlen unter anderem die Investitionen in Produkte und Programme

die den Menschen helfen informierte Entschei- dungen zu treffen wenn sie auf Desinformationen stoszligen

die Einrichtung von Instrumenten die Verbrauchern helfen zu verstehen warum sie eine bestimmte politische Werbung sehen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungs- gemeinschaft)Dazu zaumlhlen unter anderem der bessere Datenzugang fuumlr die Forschung die Foumlrderung der Forschung zu Desinformation sowie die Etablierung von Fact Checking

Saumlule B Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesell-schaftlich relevanten Themen)Dazu zaumlhlen unter anderem die Unterscheidung zwischen kommerziellen

und redaktionellen Inhalten die Kennzeichnung von bezahlten Inhalten die Offenlegung der Identitaumlt des Auftraggebers

und der ausgegebenen Betraumlge das Ziel Nutzerinnen und Nutzer erkennen zu

lassen was politische Werbung ist Dabei wird unterschieden zwischen direkter Wahlwerbung und der Positionierung von Parteien zu gesellschaftlich relevanten Themen Ein Beispiel fuumlr Wahlwerbung waumlre ein Politiker der in einem Aufruf um Stimmen wirbt Eine Positionierung waumlre hingegen ein Post mit dem Inhalt bdquoAtomkraft ndash nein dankeldquo

DIE SAumlULEN DES CODE OF PRACTICE ON DISINFORMATION

6

Desinformation Fake-Accounts und politische Werbung

Grundlage des Monitorings der Landesmedienanstalten und der Berichte der Forscher sind die im CoP definierten und festgelegten fuumlnf thematischen Saumlulen ndash Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) Integrity of Services (Integritaumlt der Dienste) Empowering Consumers (Staumlrkung der Konsumenten) und Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft) Mit der Unterzeichnung des CoP haben sich die Plattformen bei jeder dieser Saumlulen auf bestimmte bdquoCommitmentsldquo verstaumlndigt Die einzelnen Saumlulen im Detail

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 7: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Das Ziel der plattform- und parteiuumlbergreifenden Analyse ist anhand empirischer Daten zu uumlberpruumlfen inwieweit die Plattformen ihre Zusagen aus den Selbst-verpflichtungserklaumlrungen einhalten Auf Grundlage dieser Monitoring-Ergebnisse aus den verschiedenen Mitgliedsstaaten will die EU-Kommission entscheiden ob die etablierte Selbstverpflichtung der Plattformbe-treiber genuumlgt oder ob weitere regulatorische Maszlig- nahmen erforderlich sind

Das evaluative Monitoring aller fuumlnf Saumlulen fuumlhrte die Landesanstalt fuumlr Medien NRW unterstuumltzt durch die Landesmedienanstalten Bayern Berlin-Brandenburg und Rheinland-Pfalz retrospektiv fuumlr zwoumllf Monate durch Im Zentrum der Untersuchung stand die Uumlberpruumlfung inwieweit die Plattformen die Commitments des CoP umgesetzt haben Der CoP legte fest dass die Online-Plattformen sogenannte Self-Assessment Reports (SAR) anfertigen die als Datenquellen fuumlr das Monitoring dienen sollen Ergaumlnzend dazu wurden Interviews mit deutschen Fact-Checking-Organisationen und Forschern herangezogen

Um ihrer Rolle als unabhaumlngigem Regulierer gerecht zu werden stuumltzt die Landesanstalt fuumlr Medien NRW ihre eigenen Erkenntnisse nicht nur auf Informationen und Daten die die Plattformen nach eigenem Ermessen bereitstellen Sie hat sich daher entschlossen die Professoren Rebekah Tromble und Trevor Davis als externe Forscher zu beauftragen um die Ergebnisse des Monitorings (Monitoring Level A) durch eigene Forschungen zu erweitern (Monitoring Level B) Ihre Ergebnisse und Empfehlungen flieszligen mit in die Betrachtung ein

Die Forscher widmeten sich folgenden Themenschwerpunkten TREVOR DAVIS Deputy Director for Research Institute for Data Democracy and Politics George Washington University und sein Team forschten zu den Saumlulen AndashC Scrutinity of Ad Placements (Untersuchung der Werbe-platzierung) Political Advertising and Issue-Based Advertising (Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen) und Integrity of Services (Integritaumlt der Dienste)

In ihrer Untersuchung widmeten sich Trevor Davis und sein Team der Frage wie sich fuumlr den Bereich der Online-Plattformen Rahmenbedingun-gen schaffen lassen um die Desinformation wirk-sam zu begrenzen

REBEKAH TROMBLE Associate Professor School of Media and Public Affairs und Associate Director Institute for Data Democracy and Politics George Washington University untersuchte die Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

In ihrer Untersuchung widmete sich Rebekah Tromble der Frage wie sich im Bereich der Online-Plattformen der Datenzugang fuumlr Forscher verbessern laumlsst

HINTERGRUND UND ZIELE DES MONITORINGS

7

Desinformation Fake-Accounts und politische Werbung

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 8: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Saumlule A Scrutinity of Ad Placements (Untersuchung der Werbeplatzierung)Wie die Analyse der Selbstauskunftsberichte im Level-A-Monitoring zeigt haben alle Plattformen ein umfangreiches Regelwerk etabliert das genau festlegt welche Werbeinhalte publiziert werden duumlrfen Allerdings Ohne Kenntnis der Grundgesamtheit der Werbung die auf nationaler Ebene auf Plattformen veroumlffentlicht wird ist es unmoumlglich eine verlaumlssliche Bewertung daruumlber vorzunehmen wie diese Richtlinien tatsaumlchlich umgesetzt werden

Ergaumlnzend weisen Trevor Davis und sein Team darauf hin dass es laut CoP fuumlr den Bereich bdquoUntersuchung der Werbeplatzierungldquo insbesondere darum ginge bdquodie Kontrolle von Werbeplatzierungen zu verbessern um die Einfluumlsse von Desinformationen zu reduzierenldquo Das Ziel sei es die Anreize zur Produktion von truumlgerischen illegalen oder anderweitig fragwuumlrdigen Inhalten zu verringern

Im CoP heiszligt es dazu bdquoRelevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviours such as misrepresenting material information about oneself or the purpose of onersquos propertiesrdquo Die Unterzeichner verpflichten sich also Richtlinien und Verfahren zu etablieren um Werbe- und Monetarisierungs- anreize fuumlr relevante Verhaltensweisen zu unterbinden wie z B die Falsch-darstellungen1

Daher richtet sich der Fokus der Untersuchung auf die Analyse von sogenanntem bdquomonetized contentldquo der als bdquoNewsldquo praumlsentiert wird Um dies zu analysieren ist es nach Meinung von Davis notwendig die Netzwerkeffekte der Plattformen zu untersuchen die den Datenverkehr auf monetarisierte desinformierende Inhalte lenken Besonderes Augenmerk legt der Wissenschaftler auf Inhalte die als enorm schaumldlich angesehen werden unter anderem Verschwoumlrungstheorien die als Fakten praumlsentiert werden medizinische Desinformationen Extremismus oder Geschichtsrevisionismus

Die Analyse foumlrderte zahlreiche Beispiele fuumlr solche unsachgemaumlszlig monetarisier-ten bdquoNewsldquo zu Tage darunter sich an ein deutschsprachiges Publikum richtende Websites auf denen trotz desinformierender Inhalte Google-Anzeigen geschaltet wurden Fuumlr die meisten Werbetreibenden sei es kaum moumlglich ein vollstaumlndiges Bild davon zu erhalten wo ihre Anzeigen ausgespielt werden Dafuumlr fehlten ent-sprechende Tools und oumlffentlich zugaumlngliche Informationen

AUSGEWAumlHLTE ERGEBNISSE DES MONITORINGS

8

Desinformation Fake-Accounts und politische Werbung

1 Der englischen Originalpassage des CoP wird fuumlr ein besseres Verstaumlndnis eine sinngemaumlszlige deutsche Uumlbersetzung nachgestellt Gleiches gilt fuumlr die folgenden Pillars

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 9: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Saumlule B Political Advertising and Issue-Based Advertising(Wahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themen)Das Level-A-Monitoring zeigt dass die Richtlinien aller Plattformen klar unterscheiden zwischen bezahlter Werbung zu politischen und gesellschaftlich relevanten Themen sowie kommerziellen Anzeigen Nur Facebook bietet mit bdquoWahlwerbung und Werbung zu politisch oder gesellschaftlich relevanten Themenldquo eine Arbeitsdefinition und veroumlffentlicht diese unter den politischen Anzeigen in seinem Anzeigenarchiv Keine der Plattformen stellt die Grundge-samtheit der veroumlffentlichten Werbeanzeigen zur Verfuumlgung Daher ist es unmoumlglich zu beurteilen ob alle politischen Anzeigen korrekt als solche ge- kennzeichnet sind In diesem Bereich gab es im Vergleich zu fruumlheren Untersu-chungen keine Verbesserung des Verfahrens oder der Aktivitaumlt der Plattformen

Doch worauf hatten sich die Plattformen eigentlich festgelegt Im CoP bekennen sie sich dazu dass alle Anzeigen unabhaumlngig von ihrer Form und dem verwende-ten Medium klar von redaktionellen Inhalten unterscheidbar sein sollen Sie sol-len so praumlsentiert werden dass sie als bezahlte Kommunikation erkennbar sind oder insbesondere in nachrichtlichen Kontexten deutlich gekennzeichnet werden Nur fehlt ein einheitliches Verstaumlndnis der Begrifflichkeiten

Im CoP wird politische Werbung definiert als bdquoadvertisement advocating for or against the election of a candidate or passage of referenda in national and European electionldquo ndash also als bdquoWerbung die fuumlr oder gegen die Wahl eines Kandidaten wirbt oder die Verabschiedung von Referenden bei nationalen und europaumlischen Wahlenldquo

Jede Plattform verwendet ihre eigene Definition die sich jeweils von der anderer unterscheidet Da aber dieser Frage der Schutz unserer Demokratie und ihrer Grundwerte innewohnt ist es nach Ansicht der Landesmedienanstalt NRW und der Forscher dringend notwendig die Interpretationssouveraumlnitaumlt auf demokra-tische Institutionen zu uumlbertragen ndash anstatt sie weiterhin kommerziellen Unter-nehmen zu uumlberlassen Die uumlbergreifende Frage lautet Kann die direkte Zahlung an eine Plattform fuumlr die Platzierung des Contents das einzige Kriterium sein um Inhalte als Werbung zu klassifizieren

Nach Meinung von Davis braucht es eine weitergehende Definition die saumlmtliche Ausgaben fuumlr die Erstellung der Inhalte einschlieszligt ndash von der Produktion uumlber die Einbettung auf der Seite bis hin zu bezahlter Reichweite Hier gebe es ein massi-ves Missverhaumlltnis zwischen groszliger Reichweite und nahezu nicht existierender Transparenz ndash z B Transparenz daruumlber wer der Absender einer Werbebotschaft

9

Desinformation Fake-Accounts und politische Werbung

() Saumlule B rarr

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 10: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

ist und ob ihre Reichweite bezahlt wurde Dies sei besonders wichtig wenn es um politische Inhalte gehe Der Forscher verweist darauf dass funktionierende demokratische Gesellschaften vielfaumlltige und zuverlaumlssige Informationsquellen benoumltigen ndash fuumlr die Integritaumlt von Wahlen und die Bewahrung des Pluralismus Das sei auch ein wichtiger Schutz gegen Extremismus Aus diesem Grund wird

politische Werbung im Rundfunk in den meisten europaumlischen Laumlndern reguliert

Fuumlr ihre Untersuchung konzentrierten sich die Forscher auf bezahlte politische Inhalte ndash unabhaumlngig davon ob die Zahlung an eine Plattform oder an Dritte geleistet wurde z B fuumlr die Erstellung oder Verbreitung Im Blickpunkt standen politisch-werbliche Inhalte die bdquoinauthentic behaviourldquo aufwiesen also z B durch bezahlte Likes oder koordinierte Veroumlffentlichungen mehr Reichweite erzielten

Saumlule C Integrity of Services (Integritaumlt der Dienste)Das Level-A-Monitoring zeigt Die Plattformen haben klare Richtlinien bezuumlglich der Identitaumlt von Nutzerinnen und Nutzern und des Missbrauchs von automa-tisierten Bots sowie der unzulaumlssigen Nutzung von automatisierten Systemen eingefuumlhrt

Im CoP verpflichten sich die Plattformen bdquoto put in place clear policies re-garding identity and the misuse of automated bots on their services and to enforce these policies within the EUrdquo Sie verpflichten sich also dazu klare Richtlinien bezuumlglich der Identitaumlt und des Missbrauchs von automatisierten Bots auf ihren Diensten einzufuumlhren und diese Richtlinien innerhalb der EU durchzusetzen

Die Selbstauskunftsberichte enthalten nur sehr begrenzt Informationen zur Saumlule C Dies passt nach Meinung der Forscher nicht zu der hohen Relevanz die

10

Desinformation Fake-Accounts und politische Werbung

SITUATION IN DEUTSCHLANDIn Deutschland ist Werbung politischer weltanschaulicher oder religioumlser Art im Rundfunk generell verboten Fuumlr die Zeit waumlhrend der Beteiligung an Wahlen gibt es geregelte Ausnahmen Es gibt Zugang zu Werbesendezeiten fuumlr alle die an deutschen oder europaumlischen Wahlen teilnehmen Politische Werbung muss von den Parteien bezahlt werden und muss als solche klar erkennbar sein Daruumlber hinaus gibt es in Deutschland partei-rechtliche Transparenzanforderungen fuumlr politische Ausgaben Alle Ausgaben und Spen-den (ab einem Betrag von 10000 Euro) muumlssen in Jahresberichten ausgewiesen werden Im Vergleich dazu sind Kosten die mit politi-scher Online-Werbung verbunden sind derzeit im deutschen Recht nicht geregelt

() Saumlule C rarr

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 11: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

die Themen Bots und Fake-Accounts haben ndash und die sich in mehreren Studien zeigt Doch wie verbreiten sich Desinformationen auf den Plattformen Trevor Davis teilt die im Aktionsplan 2018 geaumluszligerte Auffassung der EU-Kommission dass soziale Netzwerktechnologien manipuliert werden indem Desinformationen durch aufeinander folgende Schritte verbreitet werden einerseits bei der Gene-rierung durch die Verstaumlrkung uumlber soziale Medien und andere Online-Dienste und andererseits uumlber die Verbreitung durch die Nutzerinnen und Nutzer

Problematisch sei dabei eine technische Entwicklung Algorithmen haumltten zuneh-mend die Funktion von Redakteuren Verlegern und Journalisten uumlbernommen Er sieht darin eine Verschiebung von Zustaumlndigkeiten und Autoritaumlten Wurden fruumlher Nachrichten von einem vertrauenswuumlrdigen und stark regulierten System bereitgestellt wird nun die Entscheidung daruumlber welche Nachrichten in digi-

11

Desinformation Fake-Accounts und politische Werbung

() Saumlule C rarr

FAKE-ACCOUNTSFAKE-PROFILEFake-Accounts bzw Fake-Profile sind solche Profile die unter Verwendung falscher Angaben erstellt wurden Dazu kann ein falsches Geburtsdatum oder Synonym ebenso zaumlhlen wie die Verwendung von Bildern die eine andere Person zeigen Social-Media-Plattformen wenden hier jeweils andere Maszligstaumlbe zur Bewertung eines Fake-Accounts an Teilweise werden auf diese Weise gesamte Profile und damit virtuell Personen frei erfunden Handelt es sich um die praumlzise Kopie der Daten einer Drittperson die real existiert oder um die Verwendung ihrer Bilder so spricht man von Identitaumltsdiebstahl Eine hohe Dichte an Fake-Profilen besteht insbesondere in sozialen Netzwerken die ohne Verifizierung genutzt werden koumlnnen und in denen eine Einzelperson gleich mehrere Online-Profile anlegen kann Nur die Verwendung eines Synonyms reicht nicht aus um von einem Fake-Profil zu sprechen

SOCIAL BOTSSocial Bot bedeutet uumlbersetzt sozialer Roboter Dabei handelt es sich um einen Algorithmus der darauf programmiert ist sozial motivierte Interaktionen nachzuahmen Social Bots kommen beispielsweise als Chatbots im Bereich Service zum Einsatz um Nutzerfragen zu beantworten In diesem Fall sind sie als Bots gekennzeichnet sodass dem Gegenuumlber deutlich wird dass es nicht mit einer realen Person interagiert Bots koumlnnen aber auch eingesetzt werden um unerkannt an der digitalen Oumlffentlichkeit teilzunehmen Dann spricht man von Meinungs-Bots Haumlufig machen sich die Betreiber von Fake-Accounts Social Bots zunutze um ihre Accounts digital zu beleben Social Bots dominieren oft sogar die Online-Diskussionen Das kann ganz unterschiedlich aussehen Alle Beispiele eint jedoch dass die Social Bots dazu eingesetzt werden bestimmte Meinungen zu vertreten und so deren Wahrnehmung zu verstaumlrken Generell ist der Einfluss von Social Bots als relativ hoch einzuschaumltzen da sie die oumlffentliche Meinung im Netz verzerren und auch unpopulaumlre Meinungen als vermeintlich mehrheitstauglich praumlsentieren koumlnnen

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 12: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

talen Feeds angeboten werden von einer Black Box (etwa Online-Plattformen) getroffen deren Hauptzweck es ist Einnahmen zu generieren Ein Beispiel gab den Forschern besonders zu denken Sie erkannten ein Missverhaumlltnis zwischen organischer Reichweite auf der Plattform und faktischem Abschneiden bei Wahlen So verzeichnete die AfD fast 85 Prozent der Interaktionen auf der Platt-form waumlhrend sie selbst sowohl bei der Europawahl als auch bei der letzten Bundestagswahl weniger als 13 Prozent der tatsaumlchlichen Stimmen erhielt

Daher kommt Davis zu dem Schluss Trotz dieser hohen manipulativen Gefahr sei bis heute der Zugang zu den notwendigen Daten fuumlr gruumlndliche Untersuchungen seitens der Regulierungsbehoumlrden schwierig und die bereitgestellten Informatio-nen seien spaumlrlich Haumlufig legten die Plattformen Aktivitaumlten wie unauthentisch erzeugte Reichweite nur unzureichend offen

Saumlule D Empowering Consumers (Staumlrkung der Konsumenten)Die Plattformen haben sich dazu verpflichtet die Konsumenten zu staumlrken Im CoP heiszligt es dazu

bdquoRelevant Signatories commit to invest in products technologies and programs (hellip) to help people make informed decisions when they encounter online news that may be false including by supporting efforts to develop and implement effective indicators of trustworthiness in collaboration with the news ecosystem Sie verpflichten sich also dazu in Technologien zu investieren die Nutzerinnen und Nutzer darin unterstuumltzen zwischen Information und Desinformation zu unterscheiden Doch was steckt hinter diesen Investitionen in Produkte Techno-logien und Programme die Nutzerinnen und Nutzern informierte Entscheidungen ermoumlglichen wenn sie online Nachrichten lesen

Das Level-A-Monitoring ergab Alle Plattformen foumlrdern die Akzeptanz von Maszlignahmen und Tools die Verbrauchern zu verstehen helfen warum sie die jeweilige Werbung sehen Zudem informieren sie Nutzerinnen und Nutzer daruumlber wie ihre persoumlnlichen Daten verwendet werden Facebook hat z B den bdquoContext Buttonldquo eingefuumlhrt der Nutzern zusaumltzliche Informationen zu den gesehenen Webseiten und publizierenden Unternehmen bietet Google unterstuumltzt das sogenannte bdquoTrust Projectldquo das Lesern von News-Artikeln dabei hilft vertrauenswuumlrdige journalistische Artikel zu erkennen Twitter verweist bei der Frage zu gesellschaftlichen Partnerschaften auf die bdquoWeDeserve Betterldquo-Kampagne die sich unter anderem fuumlr mehr Respekt und Toleranz in digital gefuumlhrten Debatten einsetzt

Eines der Hauptprobleme bei den eingefuumlhrten Tools und Kooperationen die die Transparenz erhoumlhen sollen Die Informationen sind zwar leicht zugaumlnglich

12

Desinformation Fake-Accounts und politische Werbung

() Saumlule D rarr

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 13: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

13

Desinformation Fake-Accounts und politische Werbung

aber fuumlr die Nutzerinnen und Nutzer nicht in allen Faumlllen leicht zu erkennen Die Unterzeichner des CoP stellen zwar einige hilfreiche Werkzeuge zur Verfuumlgung um Informationen uumlber die Nutzung der eigenen Daten und uumlber Kontrollmoumlglich-keiten zu erhalten Informationen uumlber die Verwendung der Daten und uumlber die Kontrollmoumlglichkeiten sind jedoch in der Regel nicht sehr auffaumlllig platziert

Von den Verbraucherinnen und Verbrauchern erfordert die Nutzung der Kontrollmoumlglichkeiten ein hohes Maszlig an Kompetenz Eine Beurteilung der Wirksamkeit der Maszlignahmen laumlsst sich aufgrund geringer laumlnderspezifischer Informationen in den Selbstauskunftsbe-richten kaum vornehmen

Saumlule E Empowering the Research Community (Staumlrkung der Forschungsgemeinschaft)

Im Level-A-Monitoring zeigte sich dass Facebook aktiv mit Organisationen zusammenarbeitet die Fakten uumlberpruumlfen In Deutschland sind das Correctiv und dpa

() Saumlule E rarr

FACT CHECKING DURCH CORRECTIV UND DPAWeltweit arbeitet Facebook mit rund 50 Partnern in mehr als 30 Laumlndern zusammen um Falschmeldungen zu begegnen In Deutschland kooperiert die Plattform mit dpa und Correctiv die zu Falschmeldungen Faktenchecks erstellen Um diese anschlieszligend auch dort zu zeigen wo die Falschmeldungen auftreten ndash im Newsstream der Nutzerinnen und Nutzer ndash geht Correctiv folgendermaszligen vor Die Faktenchecks werden mit den Falschmeldungen verknuumlpft und erscheinen parallel zu den falschen Inhalten Wie das genau funktioniert ist hier [httpscorrectivorgfaktencheckueber-uns20181217ueber-die-kooperati-on-zwischen-correctiv-faktencheck-und-facebook] detailliert beschrieben

Damit kommt Facebook der Verpflichtung nach der alle Plattformen im CoP zugestimmt haben

Darin heiszligt es bdquoRelevant Signatories commit to support good faith indepen-dent efforts to track Disinformation and understand its impact including the independent network of fact-checkers facilitated by the European Commission upon its establishmentldquo Sie verpflichten sich demnach Desinformation auf-zuspuumlren deren Auswirkung zu verstehen und dafuumlr mit dem unabhaumlngigen Netzwerk von Fact Checkern zusammenzuarbeiten

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 14: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Google unterstuumltzt die Faktenpruumlfung hauptsaumlchlich durch Tools und durch Schulungen fuumlr Journalistinnen und Journalisten Hierzu zaumlhlen etwa das bdquoGoogle News Labldquo (httpsnewsinitiativewithgooglecomgoogle-news-lab) im Rahmen der bdquoGoogle News Initiativeldquo Zudem foumlrdert das Unternehmen Organisationen die Fakten pruumlfen und stellt ihnen dafuumlr Tools zur Verfuumlgung Twitter arbeitet nicht regelmaumlszligig mit Organisationen zur Uumlberpruumlfung von Fakten zusammen Gegen Desinformation setzt Twitter auf sein eigenes System des Uumlberpruumlfens und Ent fernens von Accounts die die Plattform missbraumluchlich nutzen Im Hinblick auf die Unterstuumltzung der Forschungsgemeinschaft stellt Facebooks Eintreten fuumlr die Initiative bdquoSocial Science Oneldquo die ehrgeizigste Maszlignahme dar und ist ein vielversprechendes Modell zur Loumlsung des Datenzugangsproblems

14

Desinformation Fake-Accounts und politische Werbung

SOCIAL SCIENCE ONEDas bdquoSocial Science Oneldquo-Projekt (httpssocialscienceone) wurde ins Leben gerufen als neue Form der Partnerschaft zwischen Forschern und dem privaten Sektor Im Zentrum stand das Ziel zu untersuchen wie Falschmeldungen und Desinformation Waumlhlerinnen und Waumlhler beeinflussen koumlnnen Nachdem Facebook im April 2018 ankuumlndigte die eigenen Datensaumltze fuumlr unabhaumlngige Wissenschaftler zu oumlffnen passierte zunaumlchst wenig Verschiedene Forschungsprojekte warteten auf die versprochenen Daten Das sorgte dafuumlr dass die Dach-organisation bdquoSocial Science Oneldquo damit drohte sich aus dem Projekt zuruumlckzuziehen Im Februar 2020 veroumlffentlichte Facebook ein groszliges Daten-Set (httpssocialscience oneblogunprecedented-facebook-urls-dataset-now-available-research-through-social-science-one) Das sahen viele Wissenschaftler als rich-tigen und wichtigen Schritt an Inwieweit sich die Daten tatsaumlchlich fuumlr wissenschaftliche Untersuchungen eignen daruumlber bestehen unterschiedliche Auffassungen

Dabei gibt es jedoch mehrere Einschraumlnkungen z B den schleppend verlaufen-den Fortschritt und die verspaumltete Lieferung der angekuumlndigten Datenzugriffs-Tools der begrenzte Kreis von Forschern und die Definition von Datenart und -umfang durch Facebook Im Gegensatz dazu erlaubt Twitter einen besserenZugang zu seinen Daten indem das Unternehmen Forschern und Entwicklern seit2006 Zugang zu seiner Programmierschnittstelle (API) ermoumlglicht Google unter-nimmt hingegen weniger Anstrengungen und bietet weder Datenzugriffs-Toolsnoch einen offenen API-Datenzugang an

Im Level-B-Monitoring analysiert Rebekah Tromble inwieweit Facebook Google und Twitter Forschung zu den verschiedenen Aspekten von Desinformation durch eigene Aktivitaumlten und den Zugang zu Daten befoumlrdern

Tromble stellt fest dass die Anzeigenarchive der Plattformen in ihrer jetzigen () Saumlule E rarr

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 15: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

Form unzureichend sind um wissenschaftliche Unter-suchungen zu unterstuumltzen Sie lieszligen sich beispiels-weise nicht systematisch durchsuchen oder die bdquoAdsldquo blieben nur gewisse Zeit in den Archiven Twitters bdquoAd Transparency Centerldquo laumlsst sich nur nach tatsaumlchlichen Account-Namen durchsuchen Das sei problematisch da zahlreiche betruumlgerische Accounts gerade versuchten ihre wahre Identitaumlt zu verschleiern und so unerkannt blieben Facebook bewahre die Anzeigen mindestens sieben Jahre auf Eine Suche sei jedoch auch hier nur durch Schluumlsselwoumlrter moumlglich die die User eingeben muumlssten Eine Suche nach bislang nicht bekannten Akteuren sei daher nahezu unmoumlglich ebenso wie das Filtern von Anzeigen nach bestimmten Regionen

Google stelle zwar auswertbare Daten zur Verfuumlgung durchsuchbar nach Land oder Region sowie dem Namen des Werbenden Allerdings seien die Daten nicht mit den tatsaumlchlich angezeigten Werbeanzeigen verlinkt Zudem fehlten in den Archiven Anzeigen oder Links funktio-nierten nicht Hinzu komme die begrenzte Aussagekraft der Daten Google veroumlffentlicht die Houmlhe der Ausgaben fuumlr bdquoAdsldquo oder die Aufrufe (bdquoAd Impressionsldquo) in solch breiten Spannen dass sie fuumlr die wissenschaftliche Aus-wertung wenig nuumltzlich sind Verstoszligen Anzeigen gegen ihre Richtlinien entfernten alle drei Plattformen diese aus ihren Archiven Die interessantesten Inhalte fuumlr Forschungen uumlber Desinformation seien haumlufig nicht mehr zugaumlnglich Eine systematische Untersuchung werde dadurch erschwert dass die Wissenschaftler keine Moumlglichkeit haben die Herkunft Authentizitaumlt oder Vollstaumlndigkeit der Daten aus den Werbearchiven unabhaumlngig zu uumlberpruumlfen

Neben den Anzeigenarchiven gebe es laut Tromble weitere bdquoCommitmentsldquo zu denen sich die Plattformen im CoP bekannt haben z B betruumlgerische Konten (Malicious Accounts) zu beseitigen Leider seien die von den Plattformen zur Verfuumlgung gestellten Datensaumltze in ihrem Nutzen fuumlr die Wissenschaft begrenzt da sie haumlufig keine wichtigen Metadaten einschlieszliglich Infor-mationen uumlber Engagement und soziale Verbindungen lieferten Fehlen diese Daten sei schwierig nachzuvoll-ziehen wie sich Desinformation ausbreite

Weitere Untersuchungen zum Zugang zur Programmier-schnittstelle (API) oder zu Partnerschaften zwischen den Wissenschaftlern und den Plattformen zeichneten ein aumlhnliches Bild Die Datenzugaumlnge seien haumlufig nicht umfangreich genug fuumlr fundierte wissenschaftliche Ana-lysen Auch gebe es immer wieder Bedenken bezuumlglich des Datenschutzes So haumltten Vertreter der Plattformen haumlufig die Datenschutz-Grundverordnung (DSGVO) als Hindernis fuumlr die Freigabe versprochener Datensaumltze angefuumlhrt Weitere Huumlrden sind nach Meinung der Forscherin der zu erwartende Aufwand auf Seiten der Plattformen der notwendig sei um unterschiedlichste Forschungsanfragen bedienen zu koumlnnen Eine Option waumlren sogenannte bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) Diese physischen oder virtuellen Raumlume ermoumlglichten es Wissenschaftlern direkt auf die Plattformdaten zuzugreifen und sie zu analysieren Hinsichtlich ihrer Nutzung unterliegen sie klaren rechtlichen Rahmenbe-dingungen

15

Desinformation Fake-Accounts und politische Werbung

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 16: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

DIE ERGEBNISSE DES LEVEL-A- UND LEVEL-B- MONITORINGS IM UumlBERBLICK

16

Desinformation Fake-Accounts und politische Werbung

Nach dem zweistufigen Monitoring (Level A und Level B) und der umfassenden Analyse der Saumlulen AndashE lassen sich folgende Kernergebnisse der Landesmedienanstalten und der Forscher zusammenfassen Es gibt (noch) eine Menge zu tun um Desinformation auf den groszligen Online-Plattfor-men Facebook Google und Twitter wirksam zu begegnen

DatenzugangDas Datenmaterial das die Plattformen zur Verfuumlgung gestellt haben ist nicht ausreichend und nicht valide uumlberpruumlfbar Es fehlt beispielsweise der Zugang zur Grundgesamtheit saumlmtlicher Werbung um uumlberpruumlfen zu koumlnnen ob politische Werbung korrekt als solche ge-kennzeichnet wird Zudem braucht man Daten die sich auf die Mitgliedsstaaten herunterbrechen lassen

Daher sollten die Plattformen geloumlschte Werbeinhalte einschlieszliglich der Inhalte die wegen Verletzung von Werberichtlinien entfernt wurden zur Analyse durch die Forscher aufbewahren Zudem sollten die Plattformen ihre Bedenken hinsichtlich der gemeinsamen Nutzung von Daten fuumlr die unabhaumlngige akademische Forschung im Rahmen der DSGVO spezifizieren Im Gegenzug soll-ten die Datenschutzbehoumlrden formale Richtlinien fuumlr die zulaumlssige Praxis der gemeinsamen Nutzung von Daten im Rahmen der DSGVO anbieten Die Eigentumsinteres-sen der Plattformen sollten nicht vernachlaumlssigt werden muumlssten aber gegen das Interesse der Oumlffentlichkeit an der Transparenz der Plattformen abgewogen werden bdquoSafe Harboursldquo (bdquosichere Haumlfenldquo) also geschuumltzte re-glementierte Raumlume koumlnnen eine moumlgliche Option sein um die unabhaumlngige wissenschaftliche Forschung mit Plattformdaten zu ermoumlglichen

Derzeit bieten Plattformen ihren kommerziellen Partnern weitaus umfangreichere Daten an als sie Forschern oder Regulierungsbehoumlrden zur Verfuumlgung stellen

Kennzeichnung der WerbungAuch die Sichtbarkeit von politischer Werbung muss sich verbessern Es bedarf einer angemessenen Definition von

politischer Werbung ndash und die ist nicht weiter der Industrie zu uumlberlassen sondern von demokratisch legitimierter Seite vorzunehmen Diese braucht es um die Sichtbarkeit von politischer Werbung zu verbessern Denn das Problem liegt nicht bei den gekennzeichneten Werbeanzeigen sondern dort wo nicht erkennbar ist dass ein Inhalt Werbung ist

Wann ist ein Beitrag konkret als politische Werbung zu verstehen ndash und entsprechend zu kennzeichnen Hier koumlnnte eine Definition sinnvoll sein die sich an den tatsaumlchlichen Ausgaben fuumlr die Inhalte orientiert ndash von der Erstellung uumlber die Einbettung auf der Seite bis hin zu bezahlten Likes So kann mehr Transparenz fuumlr die Nutzerinnen und Nutzer entstehen

Derzeit entscheiden die Plattformen selbst welcher In-halt als Anzeige gekennzeichnet wird ndash und somit in den Anzeigenarchiven auftaucht ndash und welcher nicht Zudem ist bei der Weiterverbreitung von Anzeigen nicht mehr nachvollziehbar dass es sich um bezahlte Anzeigen han-delt da das Label verschwindet

Die Analysen haben ergeben dass Facebook Google und Twitter erste Maszlignahmen zur Beseitigung von Desinfor-mation und Fake-Accounts ergriffen haben Viele kriti-sche Inhalte bleiben jedoch unentdeckt Zwar veroumlffent-lichen die Plattformen regelmaumlszligig Zahlen dazu dass sie verschiedene Fake-Accounts und Bots geloumlscht haben Nur laumlsst sich anhand dieser Zahlen nicht bewerten wie viele unentdeckte Fake-Accounts und Bots weiterhin existieren ndash oder neu hinzukommen

SelbstverpflichtungenZudem hat sich gezeigt Selbstverpflichtungen greifen zu kurz ndash sie haben sich nicht bewaumlhrt Die Plattformen kommen ihren eigenen Zusicherungen und bdquoCommit-mentsldquo nicht in erforderlichem Maszlig nach Der Gesetz- geber muss verbindliche Regeln formulieren und deren Einhaltung kontrollieren

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 17: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

17

Desinformation Fake-Accounts und politische Werbung

So ist es hierbei in einem ersten Schritt von hervorgehobener Bedeutung die verschiedenen Phaumlnomene die unter dem Begriff der Desinformation diskutiert werden abzuschichten und nach ihrem Gefahrenpotential fuumlr eine demokratische Gesellschaft zu bewerten Darauf aufbauend wird entschieden ob und wenn ja wo es erforderlich ist zu regulieren Eine nicht gelabelte politischen Werbeanzeige ist aufsichtsrechtlich sicherlich anders zu bewerten als Inhalte fuumlr die mittels Fake Accounts eine kuumlnstliche Reichweite geschaffen wird

Dabei ist es wichtig die entscheidende Rolle unab-haumlngiger Regulierungsbehoumlrden zu staumlrken Dies koumlnnte auch im Online-Bereich ein wirksames Mittel gegen Desinformation sein Unverantwortlich waumlre es sich bei dieser Frage weiterhin nur auf Unternehmen zu beschraumlnken deren legitimes Geschaumlftsziel darin bestehe den Wert fuumlr ihre Aktio-naumlre zu maximieren

Zudem stellt sich die Frage ob auch in der bdquoOnline-Weltldquo Regeln fuumlr die Beschraumlnkung politischer Werbung existieren muumlssten Fuumlr den Rundfunk in Deutschland gelten bereits strenge Auflagen die Werbung poli-tischer ideologischer oder religioumlser Art generell verbieten Vor Wahlen gibt es geregelte Ausnahmen Parteien die an den Wahlen teilnehmen haben dann Zugang zu Sendewerbezeiten Vielleicht waumlre es an der Zeit eine solche Regelung auch fuumlr die sozialen Netzwerke zu beschlieszligen

AUS DEN GESAMTERGEBNISSEN LEITET DIE LANDESANSTALT FUumlR MEDIEN NRW DREI ZENTRALE FORDERUNGEN AB

Die Plattformen muumlssen den Datenzugang deutlich verbessernAktuell wird die wissenschaftliche Forschung uumlber Desinformation und ihre Auswirkungen stark behindert ndash z B durch fehlende Plattformtransparenz oder Hinder-nisse beim Datenzugang Regelmaumlszligige unabhaumlngigeAudits zum Umgang der Plattformen mit Daten Metho-den und Prozessen koumlnnten zur Aufrechterhaltung derSicherheit und Integritaumlt der Dienste beitragen

Der Begriff der bdquopolitischen Werbungldquo muss definiert werdenNur so ist es moumlglich entsprechende Inhalte genauer zu identifizieren Dies ist insbesondere wichtig um zu kont-rollieren welche Inhalte nach den definierten Rahmenbe-dingungen unter den Begriff der Desinformation fallen

Selbstregulierung funktioniert nicht ndash es bedarf (ko-)regulatorischer MaszlignahmenDenn Die Gestaltung des demokratischen Medienraums kann nicht der Industrie uumlberlassen werden Sie ist Aufgabe der Gesellschaft also des Gesetzgebers Dabei geht es nicht darum einzelne Unternehmen fuumlr die Nichteinhaltung zu verurteilen Aus diesen Forderungen ergibt sich fuumlr die Landesanstalt fuumlr Medien NRW ein klares Bild Die individuellen Maszlignahmen der Plattformen gegen Desinformation sind ein wichtiger Bestandteil den wir als unabhaumlngiger Regulierer zur Kenntnis nehmen Aber sie reichen bei weitem nicht aus Eine einheitliche Loumlsung ist notwendig Und damit braucht man eine Neuregulierung durch den Gesetz-geber im Schulterschluss mit den unabhaumlngigen Regu-lierungsbehoumlrden die uumlber die Selbstverpflichtungen wirtschaftlich handelnder Unternehmen hinausgehen

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 18: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

18

Desinformation Fake-Accounts und politische Werbung

Selbstverpflichtungen der groszligen Online-Plattformen als Mittel gegen Desinformation und politische Fake- Accounts Diese Strategie ist nach Meinung von Dr Tobias Schmid gescheitert Im Interview erklaumlrt der Direktor der Landesanstalt fuumlr Medien NRW die Gruumlnde und was jetzt notwendig ist um die Meinungsvielfalt im Netz zu retten

Herr Schmid Sie haben ein umfangreiches Monitoring zur Desinformation auf Facebook Google und Twitter erstellt In aller Kuumlrze Was sind die wichtigsten Erkenntnisse ihrer Untersuchung

Unsere Erkenntnisse lassen sich in drei zentralen Punkten zusammenfassen Das Datenmaterial das uns die Plattformen zur Verfuumlgung stellen reicht fuumlr ernst-gemeinte Analysen nicht aus und ist auszligerdem nicht hinreichend valide Zweitens funktioniert es nicht dass Plattformen selbst festlegen was politische Werbung ist und was nicht Und schlieszliglich koumlnnen wir das Thema nicht auf die politische Werbung beschraumlnken sondern muumlssen uumlberlegen welche Formen der Desinformation ein Fall fuumlr die Regulierung sein sollten und welche nicht Das muss aber Aufgabe des Gesetzgebers sein Dafuumlr brauchen wir verbindliche Regeln Wir stellen naumlmlich immer wieder fest dass gekennzeichnete Wer-bung am Ende nicht das Problem ist Womit wir jedoch zum dritten Punkt kommen Es herrscht Orientierungslo-sigkeit beim Umgang mit politischen Fake-Accounts und Social Bots Nach wie vor werden politische Meinungen tausendfach mit gefaumllschten Absendern vervielfaumlltigt und so wird der oumlffentliche Kommunikationsraum manipu-liert Das ist nicht akzeptabel Politisch motivierte Des-information stellt eine potenzielle Gefahr fuumlr eine demo-kratische Gesellschaft dar Dies gilt insbesondere fuumlr die Form der koordinierten gezielt vernetzten Verbreitung von politisch motivierter Desinformation durch Fake- Accounts zur kuumlnstlichen Erzeugung von Reichweite

Warum funktioniert die Selbstregulierung nicht zu der sich die Industrie verpflichtet hat

Weil selbstregulatorische Maszlignahmen weder eine er-folgreiche Bekaumlmpfung von politisch motivierter Desin-formation ermoumlglichen noch eine valide Datengrundlage

fuumlr die Messung ihrer Effektivitaumlt und Einhaltung bieten Zudem ist aktuell nicht klar genug was die Plattformen uumlberhaupt tun sollen Es gibt zu viele unbeantwortete Fragen Wie wollen wir mit politischer Werbung in Social Media umgehen Welche Transparenzanspruumlche koumlnnen wir gegenuumlber der Industrie geltend machen und wie viel Einblick muumlssen sie der Aufsicht gewaumlhren Hier ist der Gesetzgeber gefragt Es steht in seiner Verantwortung fuumlr uns alle diese gesellschaftlich relevanten Fragen zu beantworten Die Aufgabe der Industrie ist es diese Vor-gaben umzusetzen und die der Aufsicht ndash also unsere ndash ihre Einhaltung zu uumlberwachen

Was fordern Sie konkretDer Gesetzgeber muss einen deutlich verlaumlsslicheren

Rahmen definieren Dafuumlr ist es unerlaumlsslich koregula- torische Maszlignahmen zu ergreifen Wir brauchen also ein Instrument das eine rechtliche Grundlage fuumlr die Anwendung bildet und daruumlber hinaus den Zugang zu er-forderlichen validen Daten sicherstellt Bislang sind wir schon bei der Datensammlung der Willkuumlr der Plattform-betreiber ausgesetzt Was wir untersuchen duumlrfen be-stimmen die sozialen Netzwerke Wenn wir aber nur das bekommen was andere zeigen moumlchten koumlnnen wir die Validitaumlt der Daten nicht uumlberpruumlfen Zudem fehlen ver-laumlssliche Regeln was letztlich problematischer Content ist In den USA ist der nackte Koumlrper der groumlszligte Tabu-bruch in Deutschland sind Symbole des NS-Regimes un-tragbar Hier sind auch regionale Abstufungen innerhalb der Regulierung denkbar Aber es gibt eben Aspekte die nicht verhandelbar sind Uumlber allem steht das Recht der freien Meinungsaumluszligerung Wenn unter dem Deckmantel der Meinungsfreiheit Unwahrheiten Hass und Hetze ver-breitet werden sind diese Inhalte nicht mehr geschuumltzt Da gibt es unverruumlckbare Grenzen an die sich alle halten muumlssen Uumlberschreiten User diese wiederholt muumlssen wir bei extremer Desinformation auch das Loumlschen von Accounts anordnen koumlnnen Zusammengefasst Die Selbst-verpflichtungen der Plattformen sind gescheitert Machen wir also gemeinsam den naumlchsten Schritt gegen Desinfor-mation Der Gesetzgeber definiert genauere Regeln ndash und sichert deren Einhaltung Wir sind bereit als unabhaumlngige Medienaufsicht unseren Teil dazu beizutragen

INTERVIEW MIT DR TOBIAS SCHMID bdquoWIR SIND BEREITldquo

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 19: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

19

Desinformation Fake-Accounts und politische Werbung

LITERATURVERZEICHNIS

MONITORINGBEZOGENE LITERATUR ERGA (04052020) Full Report ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-2019-report- published-2020-LQpdf

ERGA (04052020) Press release ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005ERGA-Report-on- Disinformation-Press-releasepdf

ERGA (04052020) Executive Summary ERGA-Report on disinformation Assessment of the implementation of the Code of Practice httpserga-onlineeuwp-contentuploads202005Executive-Summary- ERGA-2019-report-published-2020pdf

ERGA (Juni 2019) Full Report Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-06_Report- intermediate-monitoring-Code-of-Practice-on-disinformationpdf

ERGA (Juni 2019) Statement Report of the activities carried out to assist the European Commission in the intermediate monitoring of the Code of Practice on disinformation httpserga-onlineeuwp-contentuploads201906ERGA-2019-05_Statement_ERGA_work_on_disinformation-adopted1pdf

EU-Kommission (Maumlrz 2018) A multi-dimensional approach to disinformation httpeceuropaeunewsroomdaedocumentcfmdoc_id=50271

EU-Kommission (05122018) Action Plan against Disinformation httpseceuropaeucommissionsitesbeta-politicalfileseu-communication- disinformation-euco-05122018_enpdf

Deutsche FassungEU-Kommission (05122018) Aktionsplan gegen Desinformation httpseeaseuropaeusiteseeasfilesaktionsplan_gegen_desinformationpdf

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 20: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

20

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (26042020) Communication ndash Tackling online disinformation a European Approachhttpseur-lexeuropaeulegal-contentENTXTuri=CELEX52018DC0236

Deutsche FassungEU-Kommission (26042020) Mitteilung ndash Bekaumlmpfung von Desinformation im Internet ein europaumlisches Konzept httpseur-lexeuropaeulegal-contentDETXTPDF uri=CELEX52018DC0236ampfrom=EN

EU-Kommission (26092018) EU Code of Practice on Disinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=54454

Deutsche Fassung EU-Kommission (26092018) EU-Verhaltenskodex zur Bekaumlmpfung von Desinformation httpseceuropaeunewsroomdaedocumentcfmdoc_id=59132

EU-Kommission (24092018) The Sounding Boardrsquos Unanimous Final Opinion on the so-Called Code of Practice httpseceuropaeunewsroomdaedocumentcfmdoc_id=54456

EU-Kommission (29102019) Self-Assessment reports of signatories to the code of practice Annual Report httpseceuropaeudigital-single-marketennewsannual-self-assessment- reports-signatories-code-practice-disinformation-2019

EU-Kommission (14062019) Self-Assessment reports of signatories to the code of practice May Report httpseceuropaeudigital-single-marketennewslast-intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (17052019) Self-Assessment reports of signatories to the code of practice April Report httpseceuropaeudigital-single-marketennewsfourth-intermediate- results-eu-code-practice-against-disinformation

EU-Kommission (23042019) Self-Assessment reports of signatories to the code of practice March Report httpseceuropaeudigital-single-marketennewsthird-monthly-intermediate-results-eu-code-practice-against-disinformation

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 21: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

21

Desinformation Fake-Accounts und politische Werbung

EU-Kommission (20032019) Self-Assessment reports of signatories to the code of practice February Report httpseceuropaeudigital-single-marketennewssecond-monthly- intermediate-results-eu-code-practice-against-disinformation

EU-Kommission (28022019) Self-Assessment reports of signatories to the code of practice January Report httpseceuropaeudigital-single-marketennewsfirst-monthly-intermediate-results-eu-code-practice-against-disinformation

Facebook (o D) Werbebibliothek httpswwwfacebookcomadslibraryactive_status=allampad_ type=allampcountry=DEampimpression_search_field=has_impressions_lifetime

Google (o D) Transparenzbericht httpstransparencyreportgooglecompolitical-adsregionEU

Twitter (o D) Ads Transparency Center httpsadstwittercomtransparency

Davis T Livingston S amp Hindman M (22072019) Suspicious Election Cam-paign Activity on Facebook How a Large Network of Suspicious Accounts Promo-ted Alternative Fuumlr Deutschland in the 2019 EU Parliamentary Elections httpssmpagwuedusitesgfileszaxdzs2046f2019-07-2220-20 Suspicious20Election20Campaign20Activity20White20Paper20-20 Print20Version20-20IDDPpdf

Hegelich S amp Serrano J C M (23102019) Microtargeting in Germany for the 2019 European Elections httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_Germany2019EuropeanElection_Hegelich_web2pdf

Deutsche Fassung Hegelich S amp Serrano J C M (23102019) Microtargeting in Deutschland bei der Europawahl 2019 httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungStudie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2pdf

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 22: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

22

Desinformation Fake-Accounts und politische Werbung

iRightsLab (29012020) Forschungsstand Microtargeting in Deutschland und Europa fehlende Transparenz und viele offene Fragen httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwFoerderungForschungDateien_ForschungForschungsmonitoring_Microtargeting_Deutschland_Europapdf

Kreysler P (13102019) Digitale Brandbeschleuniger der unregulierte Wahlkampf im Netz Westdeutscher Rundfunk Koumlln httpswww1wdrdemediathekaudiowdr5wdr5-dok5-das-featureaudio- digitale-brandbeschleuniger---der-unregulierte-wahlkampf-im-netz-100html

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFNMRW_forsa_Desinformation_2020_Berichtpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (07052020) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_0120ThemenDesinformationLFMNRW_forsa_Desinformation_2020_PraesentationpdfEnglische Fassung httpswwwmedienanstalt-nrwdefileadminuser_uploaden_LFMNRW_forsa_Desinformation_2020_Praesentation-finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (06032020) Was ist Desinformation Betrachtung aus sechs wissenschaftlichen Perspektiven httpswwwmedienanstalt-nrwdefileadminuser_uploadNeueWebsite_ 0120ThemenDesinformationWasIstDesinformation_Peper_LFMNRWpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnisbericht forsa- Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Bericht_forsa_Desinformation_LFMNRW_ finalpdf

Landesanstalt fuumlr Medien NRW (Hrsg) (02052019) Ergebnispraumlsentation forsa-Befragung zu Informationsverhalten bei Wahlen und politische Desinformation httpswwwmedienanstalt-nrwdefileadminuser_uploadlfm-nrwServicePressemitteilungenDokumente2019Praesentation_forsa_Desinformation_ LFMNRWpdf

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 23: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

23

Die im Literaturverzeichnis aufgefuumlhrten Hyperlinks wurden am 7 Mai 2020 abgerufen

Desinformation Fake-Accounts und politische Werbung

Medienanstalt Berlin Brandenburg (Hrsg) (05052019) White Book on Political Advertising httpsmediapolicylabdefilescontentdocumentWhite20Book20on20 Political20Advertisingpdf

Deutsche FassungMedienanstalt Berlin-Brandenburg (Hrsg) (05052019) White Book zu politischer Onlinewerbung httpsmediapolicylabdefilescontentdocumentWhite20Book20zu20poli-tischer20Online-Werbungpdf

NATO Strategic Communications Centre of Excellence (06122019) Falling behind How social media companies are failing to combat inauthentic behaviour online httpswwwstratcomcoeorghow-social-media-companies-are-failing-combat-inauthentic-behaviour-online

Serrano J C M Shahrezaye M Papakyriakopoulos O amp Hegelich S (Juli 2019) The Rise of Germanylsquos AfD A Social Media Analysis httpsdlacmorgdoipdf10114533285293328562

Social Science One (11122019) Public Statement from the Co-Chairs and European Advisory Committee of Social Science One httpssocialscienceoneblogpublic-statement-european-advisory-committee-social-science-one

Zimmermann N (14022020) Neue Studie zu sozialen Medien Versagen mit System Frankfurter Allgemeine Zeitung httpswwwfaznetaktuellfeuilletonmedienstudie-haelt-selbstkontrolle- sozialer-medien-fuer-gescheitert-16628760html

Hinweis

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede

Page 24: DESINFORMATION, FAKE-ACCOUNTS UND POLITISCHE …€¦ · Mehrere Social-Media-Unternehmen – darunter Facebook, Google und Twitter – haben die Selbstverpflichtungserklärung im

24

Desinformation Fake-Accounts und politische Werbung

IMPRESSUM

HerausgeberLandesanstalt fuumlr Medien NRWZollhof 240221 DuumlsseldorfT +49 211 77007-0F +49 211 727170infomedienanstalt-nrwdewwwmedienanstalt-nrwde

Verantwortlich Sabrina Nennstiel (Leiterin Kommunikation)

Redaktion Dr Meike Isenberg (Leiterin Forschung)

Text Martin Sattler (Freier Redakteur)

Gestaltung Nadine Hawle (NH Corporate Designstudio)Fritjof Wild (Wild GbR)

Juni 2020

Diese Publikation wird unter der Creative- Commons-Lizenz veroumlffentlicht (CC BY-SA 40) httpscreativecommonsorglicensesby-sa40legalcodede