4 Maßnahmen gegen Fake News, die Wirkung zeigen. Und 4 offene Fragen, die bleiben
Die großen sozialen Medien haben aus der US-Wahl gelernt und den Kampf gegen Fake News angenommen. Doch ein Problem können sie nicht lösen.
Es war die große Befürchtung vor der US-Wahl: Noch-US-Präsident Trump könnte sich in der Wahlnacht vorzeitig zum Sieger ausrufen und die Nachricht würde sich wie ein Lauffeuer in den sozialen Medien verbreiten. Dies könne »alternative Fakten« schaffen, noch bevor der letzte Wahlzettel ausgezählt ist – und im schlimmsten Fall Zweifel an der Legitimität der Wahl säen.
Versucht hat es Donald Trump natürlich – Trump tut eben, was Trump tut.
Doch die sozialen Medien wie Facebook, Twitter und Co. waren vorbereitet. Sie bremsten die präsidiale Falschnachricht ab und verhinderten so, dass sie einen größeren Teil der Bevölkerung erreicht.
Die Maßnahmen, mit denen sie das taten, sind vielfältig und nicht unumstritten. Doch die sozialen Netzwerke haben bereits angekündigt, sie beizubehalten, um auch nach der US-Wahl plattformweit gegen Fake News vorzugehen.
Fake News sind längst ein globales Phänomen, eine politische Waffe und sogar zu einem Gesundheitsrisiko geworden: Experten sprechen während der Coronapandemie von einer begleitenden »Infodemie«, also
Die neuen Maßnahmen machen Hoffnung,
Diese Maßnahmen gegen Fake News sind neu
Fake News sind bei Weitem nichts Neues. Desinformationskampagnen und politische Lügen gab es in der Menschheitsgeschichte schon immer.
- Red Flagging von Politiker:innen: Bisher ließen nahezu alle sozialen Netzwerke Meinungsäußerungen von Politiker:innen zu, die nicht direkt gegen die Gemeinschaftsstandards verstießen (etwa Hass schüren oder zu Gewalt aufrufen). Im Vorfeld der US-Wahl begann Twitter damit, Fake-News-Beiträge von Donald Trump zu verbergen. Sie werden dann mit einem einleitenden Statement versehen, das Nutzer:innen anklicken müssen, um zum Post des Politikers zu gelangen. Beim Noch-US-Präsidenten betraf das teilweise Dutzende Posts seines Accounts in Folge. Dazu führt ein deutlicher Warnhinweis auf diesem Post zu einer Einordnung mit Verweisen und Links zu etablierten Nachrichtenagenturen. Diese »Red Flags« (zu Deutsch: rote Flaggen) sollen ahnungslosen Nutzer:innen helfen, Fake-News-Beiträge zu erkennen, und sie zu aufklärenden Informationen führen.
- Infozentren zu kritischen Themen: Facebook versieht seit diesem Sommer Fake-News-Beiträge zu kritischen Themen mit kurzen Gegenstatements in der jeweiligen Landessprache. Sie widerlegen teilweise direkt die Falschinformation und leiten per Klick auf ein eigenes Informationszentrum zu dem Thema weiter. Bisher existieren solche Informationszentren etwa für die US-Wahl 2020, Covid-19 und
- Einschränkungen von Optionen: Twitter geht sogar noch einen Schritt weiter und schränkt bei klaren Fake News die Interaktionsmöglichkeiten ein. So lassen sich solche Beiträge nicht mehr teilen, kommentieren oder mit »gefällt mir« markieren. Damit soll vor allem Bots das Handwerk gelegt werden – also automatischen Programmen, die sich als echte Menschen tarnen, Fake News in hoher Geschwindigkeit verbreiten und so für deren Reichweite sorgen. Im Vorfeld der US-Wahl berichtete das FBI etwa davon, dass solche
- Werbeblockade: Soziale Netzwerke leben von ihren Werbekunden, die ihre Botschaften mithilfe der Informationssammlungen der Netzwerke auf bestimmte Personengruppen zuschneiden können – eine Steilvorlage für Fake News und Rufmordkampagnen in letzter Sekunde. Daher entschloss sich Facebook, politische Werbung eine Woche vor dem Ende des US-Wahlkampfes abzulehnen. Dies soll eine empfindliche Phase eines Wahlkampfes schützen, in welcher Aufklärung und Gegenrede zu langsam arbeiten würden. Google (der Betreiber der weltgrößten Videoplattform Youtube) tat dasselbe.
All diese Maßnahmen sind jetzt aktiv, wenngleich sie nicht auf allen Plattformen in demselben Umfang durchgesetzt sind. In jedem Fall hat die US-Wahl 2020 bereits ein neues Zeitalter im Kampf gegen Fake News eingeleitet. Ob und in welchem Umfang sie auf Dauer wirken, das muss noch überprüft werden – und das führt direkt zu einem weiteren Problem: Denn die Plattformen geben wenig Einblick in ihre internen Daten. Da sollte man kritisch fragen:
Ergibt es denn überhaupt Sinn, dass die privatwirtschaftlichen Plattformen selbst ihre Maßnahmen überprüfen, wenn der Erfolg solcher Maßnahmen mit ihrem Image verknüpft ist?
Und das ist nicht die einzige offene Frage …
Diese empfindlichen Fragen müssen sich Facebook und Co. gefallen lassen
Ja, die großen Netzwerke scheinen das Problem Fake News endlich ernst zu nehmen. Laut Nick Clegg, dem Leiter der Unternehmenskommunikation von Facebook, hat das weltgrößte soziale Netzwerk Facebook seit 2016 rund 35.000 Mitarbeiter:innen eingestellt,
Warum also zögerten soziale Netzwerke so lange, etwas zu tun?
Die Antwort auf diese Frage bleiben Facebook, Google, Twitter und Co. schuldig. Vieles spricht gegen das Bild, die Plattformen hätten nun endlich ihre gesellschaftliche Verantwortung verstanden. So deckten etwa Reporter:innen der Washington Post auf, dass Facebook monatelang nichts gegen Verbündete von Donald Trump unternommen und dabei sogar die eigenen Richtlinien ignoriert habe,
Was aber planen die Netzwerke bezüglich kritischer Themen jenseits der USA?
Covid-19, die Erderwärmung – immer mehr Themen haben globale Bedeutung und werden von den Plattformen erkannt. Doch was ist mit Desinformationen und Wahlen in Ländern wie Myanmar? Erst im Oktober belegte eine Studie des Burma Human Rights Network (BHRN), wie die dortige Regierung während der Wahl
Hier braucht es noch mehr Einsatz in der Breite, jenseits der US-Grenzen und über Fake News hinaus. Denn – auch das sollte die Erkenntnis der letzten Jahre sein – Desinformationen und Hassrede hängen zusammen. Und selbst zusammen sind sie nur die Spitze des Eisbergs,
Wie weit sollen die Maßnahmen gehen und wer kontrolliert die, die sie einsetzen?
Die US-Wahl zeigt klar, dass die Maßnahmen gegen Fake News ausgeweitet werden. So werden nicht nur explizite, sondern auch vermehrt implizite Inhalte mit Warnhinweisen versehen. Doch Sprache ist nun eben nicht eindeutig und die Grenzen zwischen Falschnachrichten, Hassrede, Polarisierung und Meinungsäußerung verlaufen mitunter fließend. Bei solchen empfindlichen Themen und Grauzonen reicht der Wille zur Selbstregulierung der Plattformen in Zukunft nicht mehr aus – zumindest wenn wir verhindern wollen, dass sich Plattformen zu »Torwächtern der Wahrheit« aufschwingen und damit ihre eigenen Interessen besser durchsetzen können.
Privatunternehmen wie Twitter, Google, Facebook und Co. werden bei ihrer Relevanz für die digitale Welt um einen Einblick in ihre Daten und letztlich eine dauerhafte demokratische Kontrolle nicht herumkommen. Doch das durchzusetzen, könnte das eigentliche Problem mit den sozialen Medien sein.
Hier findest du die beiden anderen aktuellen Dailys:
Titelbild: Charles Deluvio - CC0 1.0