»Entschuldigung, da lag ich falsch.« Wie wir die Diskussionskultur online verbessern
Gespräche in sozialen Medien werden schnell zu emotionalen Grabenkämpfen. Eine einfache Idee könnte viel erreichen. Doch das Problem hat noch eine zweite Seite.
Tristan Harris hat keine gute Meinung von sozialen Medien. Der Informatiker arbeitete bei Google, bevor er frustriert von der Techindustrie das Handtuch warf. Er ist einer der Protagonisten der neuen
Gleich zu Beginn formuliert Harris seine scharfe Kritik:
Es wird polarisiert und Wahlen werden gehackt. Doch gibt es etwas, was all diesen Problemen zugrunde liegt. […] Es gibt ein Problem in der Techbranche, für das es keinen Namen gibt.«
Dieses Problem beschreibt er so: Soziale Medien geben laut Harris nur vor, »sozial« zu sein. Alle Kommunikation über diese Plattformen sei letztlich nur Mittel zum Zweck der Werbung und dem Abgreifen der Nutzerdaten. Nur so machen die Unternehmen und ihre Werbepartner im Hintergrund Profit. Und genau dafür sind Twitter, Facebook, Youtube und Co. entworfen worden.
Doch die Nutzenden haben das Nachsehen. Denn als Nebenwirkung krankt die Diskussionskultur auf den Plattformen. Denn wie diese gestaltet sind, beeinflusst auch die Art und Weise, wie darauf kommuniziert wird. Oder wie Harris es formuliert:
50 Designer in Kalifornien, alle zwischen 20 bis 35 Jahre alte, weiße Männer, treffen Entscheidungen, die Milliarden Menschen tangieren.«
Und so muss sich niemand wundern, warum Facebook, Twitter, Youtube und Co. aktuell keine Orte für interessierten Meinungsaustausch sind – vielmehr stehen Selbstdarstellung, Ich-Botschaften und Gruppengefühle im Vordergrund. Denn die Plattformen profitieren nicht von gemäßigten Diskussionen, sondern von starken emotionalen Reaktionen – Angst, Wut und Hass
Oder wann hast du das letzte Mal im Netz Folgendes gelesen: »Entschuldigung, da lag ich wohl falsch. Gut, dass ich das jetzt besser verstehe. Danke!«?
Eben.
Harris ist sich absolut sicher: Für eine bessere Diskussionskultur im Netz reichen Appelle an die Nutzenden nicht aus. Die Plattformen müssen sich ändern. So könnte es gehen.
Warum die Gesprächskultur online so mies ist
Ein soziales Netzwerk wie zum Beispiel Facebook hat 5 Eigenschaften, die schlechte Startbedingungen für gute Kommunikation darstellen:
- Flüchtigkeit: Auf Facebook können Menschen jederzeit auf Nachrichten von Unbekannten treffen. Während offline bei einer flüchtigen Begegnung Körperhaltung, Stimmlage, Gestik, Mimik und Kleidung mit über eine erste Sympathiereaktion entscheiden, fehlen diese Hilfestellungen in sozialen Medien völlig. (Profil-)Bilder und Namen sind willkürlich und leicht manipulierbar. Anders gesagt: Menschen können online oft gar nicht wissen, wer hinter einem Post steht und wie der vielleicht gemeint ist – Missverständnisse sind programmiert.
- Unbekannte Gesprächspartner: Offline hat jede Begegnung und jedes Gespräch einen Kontext, der bei der Einschätzung des Gegenübers hilft. Online ist das nicht der Fall. Kommt ein Gespräch auf Facebook zustande, ist unklar, welche Erfahrungen die Teilnehmenden mit dem Thema haben, wie ihre Perspektiven und politischen Positionen sind. Und dies allein am Geschriebenen festzumachen, ist sinnlos: Schlüsselwörter (zum Beispiel »Gutmensch«) und bestimmte Formulierungen (zum Beispiel »Aufwachen!«) rufen nur schnell Vorurteile auf. Schubladendenken ist die Folge.
- Instabile Situation: Während es offline schon eine drastische Maßnahme ist, wortlos ein Gespräch zu verlassen, ist dies online gang und gäbe. Auf Facebook ist unklar, wer eine Antwort wahrgenommen hat und ob das Gespräch überhaupt weitergeht. Auch können sich jederzeit Fremde in das Gespräch einmischen, die vorher mitgelesen haben. Deshalb formulieren Menschen ihre Beiträge eher pointiert, sodass sie für sich stehen können.
- Störenfriede: Soziale Medien sprechen Menschen an, die Gespräche bewusst sabotieren wollen. Entweder geht es diesen »Trollen« um den Spaß an Eskalation. Oder sie sind politische Partisanen, die andere Meinungen stören und ihre Anhänger ärgern wollen. Beides ist Gift für den Gesprächsraum, da immer die Unsicherheit mitgedacht werden muss, dass ein Gegenüber seine Meinung gar nicht ernsthaft vertritt – sondern nur »trollt«.
- Mangelnde Konsequenzen: Offline haben Gespräche oft einen Zweck. Gelingen sie, ist etwas erreicht. Misslingen sie, ist etwas verloren – und sei es nur die Stimmung in der Nachbarschaft. Die Soziologie weiß längst, dass Gespräche vor allem dazu dienen, Beziehungen aufzubauen oder zu festigen. Online ist dies nicht der Fall. Die digitale Welt ist schnelllebig und Beiträge rasch in der Timeline verschwunden. So haben Gespräche nahezu keine Konsequenzen, was dazu führt, dass Menschen konfliktbereiter argumentieren.
Das alles führt dazu, dass Gespräche online schnell schieflaufen und eskalieren können. Plattformen wie Facebook bieten aber nur wenige Möglichkeiten, Diskussionen zu deeskalieren. Die meisten kennen dafür nur 2 sehr grobe Instrumente:
- Das Melden eines Beitrages führt dazu, dass er entfernt wird, wenn er gegen Plattformrichtlinien oder Gesetze verstößt. Doch diese Maßnahme hilft nur gegen die stärksten Ausreißer und kommt so gut wie immer viel zu spät.
- Das dauerhafte Blocken eines Gegenübers ist zwar nützlich, weil es sofort passiert. Es führt aber, häufiger eingesetzt, zum Entstehen einer
Was fehlt, sind feinere, schnell einsetzbare Instrumente zur Deeskalation. Eines davon könnte etwas sein, was gute Diskussionen im echten Leben haben und das online auffällig fehlt: das Eingeständnis, sich zu geirrt zu haben.
Warum Fehler einzugestehen online manches besser macht
»Soziale Medien haben ein Konfliktproblem«, diagnostiziert Nick Punt ganz im Sinne von Tristan Harris. Der Autor und Blogger machte im Sommer einen Vorschlag, soziale Medien zu reparieren. Seine Lösung heißt
Du glaubst, dass soziale Medien außer Kontrolle sind? Das könnte sein, weil es keinen Weg gibt, Konflikte zu deeskalieren. Dabei ist dies ein wichtiger Teil jeder menschlichen Gesellschaft.
Wer bei Twitter einen Fehler begeht, hat bisher 3 Optionen: entweder den Beitrag löschen – was aber verpönt ist und zu mehr Missverständnissen führen kann. Oder eine Antwort auf den eigenen Beitrag verfassen und den Fehler erklären – was aber zu kurz greift, da der ursprüngliche Post weiter erscheint, die Antwort aber nicht direkt. Oder sich mit dem Fehler eingraben und eventuelle Reaktionen ignorieren – was zwar naheliegt, um das eigene
Nick Punt möchte dem eine vierte Option hinzufügen. Eine einfache Option im Reiter eines jeden Tweets könnte diesen nachträglich als Fehler markieren. Dies würde direkt im Beitrag selbst als Nachricht angezeigt: »Der Nutzer sagt, er habe einen Fehler in diesem Tweet gemacht«. In einer Antwort auf den Tweet könnte dann die Erklärung stehen, was genau falsch war.
Ein so markierter »Mea Culpa«-Tweet könnte auch vom Algorithmus anders verarbeitet werden. Nick Punt schlägt vor, dass er nicht mehr bei anderen als neuer Beitrag auftaucht und nicht mehr kommentarlos geteilt oder gelikt werden kann. Das Ganze erinnert stark an Twitters Umgang mit Desinformationen in einigen Fällen – nur in diesem Fall eben freiwillig für die eigenen Beiträge.
Donald Trumps Tweets wurden mehrfach von Twitter mit Markierungen versehen, die seine Fehler kenntlich machen.
Da für ein solches »Mea Culpa« nur ein einziger Klick nötig wäre, ist die Hürde auch sehr niedrig. Und weil die Gestalt einer Plattform beeinflusst, wie darauf kommuniziert wird, glaubt Punt daran, dass viele Nutzende dieses neue Instrument – nach einer Eingewöhnungszeit – auch einsetzen werden. Im besten Fall entsteht eine Diskussionskultur, die Fehler verzeiht und mehr deeskaliert.
»Mea Culpa« ist eine solide Idee für Menschen, die sowieso gesittet miteinander umgehen und generell auch bereit sind, Fehler zuzugeben. Die Diskussionskultur im Netz allein retten kann es aber nicht. Denn »Das Dilemma mit den sozialen Medien« hat auch noch einen anderen Grund, den Punt und auch Tristan Harris in ihren Überlegungen ausblenden.
Vorbild Journalismus. Hier entschuldigt sich ein »Zeit«-Autor für einen Fehler.
Die zweite Seite des Problems: Wie Diskussionskultur im Netz bewusst vergiftet wird
Nicht nur die Struktur der Plattformen ist schuld daran, wie es in sozialen Medien zugeht. Denn auch die Menschen, die darin agieren, wüten und streiten, sind alles andere als unschuldig am momentan rauen Ton im Netz. Und darunter gibt es auch jene notorischen Stänkerer und Desinformanten, die bewusst die Diskussionskultur vergiften.
Die Extremismusforscher Holger Marcks und Maik Fielitz kennen sich damit aus und sehen darin einen Treibstoff für die gesellschaftliche Polarisierung. In ihrer Arbeit für das Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg (IFSH) und das Institut für Demokratie und Zivilgesellschaft (IDZ) in Jena spüren sie jenen Menschen nach, die die Diskussionskultur nachhaltig verschlechtern.
Und das tun diese Menschen nicht aus Spaß (also das, was geläufig »Trolling« heißt), da sind sich die beiden Forscher einig – sondern aus Kalkül. Denn soziale Medien sind zwar nicht dafür konzipiert worden, um demokratische Debatten zu führen, sind aber längst ein Forum, worin Politik rund um die Uhr stattfindet und die öffentliche Meinung geprägt wird.
Und genau deshalb ziehen soziale Medien solche manipulativen Akteure an. Denn diese profitieren davon, eine Kultur des Hasses und der Unwahrheit zu etablieren:
Man versucht, den sozialen Medien ihr emanzipatorisches Potenzial zu nehmen und sie Schritt für Schritt zu verschmutzen. Das Interesse am digitalem Spektakel spielt ihnen dabei in die Hände.
Damit meint Fielitz, dass es Menschen mittlerweile gewohnt sind, dass Diskussionen im Internet eskalieren und für manche gar ein Unterhaltungspotenzial bieten. Das macht die Arbeit der Manipulatoren einfacher. Sie können sich profilieren und kommen gerade über soziale Medien leicht an Multiplikatoren, die ihre Positionen weitertragen, auch wenn diese voller Falschinformationen sind.
So sind soziale Medien mittlerweile zu Motoren des modernen Rechtsextremismus geworden, sagen die beiden Forscher. Wer versucht, die Diskussionskultur der sozialen Medien zu verbessern, muss diese Tatsache mitdenken.
Auch stehen Plattformen längst nicht mehr für sich allein. »Immer größere Teile der Diskussionskultur sind plattformübergreifend oder passieren in geschlossenen digitalen Räumen wie privaten Chats oder auf alternativen Plattformen. Dort entsteht eine bestimmte Dynamik, die dann in die großen Netzwerke schwappt«, erklärt Holger Marcks.
Hier könnten technische Lösungen ansetzen. Etwa könnte eine Posts-pro-Tag-Grenze helfen, die Dynamik auszubremsen, die aus dem massenhaften Posten von Falsch- und Hassnachrichten entsteht. Oder es ließe sich das Teilen von Posts beschränken, indem bei einem Repost eine eigene Einordnung dazugeschrieben werden muss. Doch gegen die gesteuerte und breit angelegte Eskalation helfen einzelne Lösungen wie diese oder »Mea Culpa« nicht weiter. Stattdessen schlagen die beiden Forscher auch einen Satz an Maßnahmen vor, die direkt gegen die manipulativen Akteure gerichtet sind:
- Fact-Checking: Manipulative Akteure nutzen immer wieder Fake News, also Falschbehauptungen, die wie Nachrichten wirken und sich über soziale Medien verbreiten. Hier muss vor allem der Journalismus gegenhalten und aufklären. Die Aufklärung von Fact-Checkern wie Correctiv bleibt zwar meist hinter der Desinformation zurück und wirkt wie ein Kampf gegen Windmühlen. Doch sie mildert ab – und Journalisten können nachspüren und aufschlüsseln, worauf die Akteure gerade abzielen.
- Zentrale Kanäle sperren: Immer schränken soziale Medien wie Twitter Accounts ein, die ihre Gemeinschaftsstandards verletzen und die Diskussion vergiften. Darunter sind auch manipulative Akteure. Diese werden davon hart getroffen, weil sie gerade auf die Multiplikatoren über soziale Medien angewiesen sind. Sie ziehen schließlich ihre Existenz daraus, sich digital zu inszenieren.
- Bots und Sockenpuppen ausschalten: Die Akteure und ihre engen Anhänger wirken durch soziale Medien einflussreicher, als sie sind. Dies erreichen sie mit einer ganzen Armee von Zweitaccounts (»Sockenpuppen« genannt) und Programmen (»Bots«), die ihre Inhalte weiterposten und damit den Algorithmus der Plattformen manipulieren wollen.
- Demetrifizieren: Soziale Medien laden dazu ein, zu manipulieren, da diejenigen Inhalte sichtbarer werden, die mehr Likes erhalten. So können Manipulatoren mit gekauften Likes und Trollarmeen die eigenen Inhalte immer wieder in die Timelines spülen. Tech-Unternehmen könnten dem einen Riegel vorschieben, wenn die Logik der Zahlen eingeschränkt würde. Diese Einschränkung wird »Demetrifizierung« genannt. Das heißt: Nicht jeder sieht, wie hoch Likezahlen sind, was Inhalte gleichberechtigter nebeneinanderstehen lässt und eine kritischere Begutachtung fordert.
- Algorithmen umschulen: Dramatische Inhalte werden weiterhin von den Algorithmen der sozialen Medien bevorzugt, weil sie Klicks versprechen. Dies fördert die Dynamiken manipulativer Posts, die diese Verstärkerfunktion bereits mitdenken. Hier könnten Tech-Unternehmen die Logik der eigenen Algorithmen so ändern, dass sie bestimmte Themen und Schlüsselwörter nicht auch noch bevorzugen (Algorithm Accountability). Youtube hat etwa mit manchen
Internet ist kein nettes Spielzeug, für das es nur etwas mehr Medienkompetenz bedarf. Es ist eine Technologie, die die Wahrnehmung der Welt radikal verändert und Prinzipien der demokratischen Verständigung auf den Kopf stellt. Daher bedarf es neuer Regeln für die Massenkommunikation.
Doch Plattformen wie Facebook sind träge und gehen trotz mancher gelobter Besserung nur ungern gegen vergiftete Diskussionen vor – solange sie davon
Mit Illustrationen von Tobias Kaiser für Perspective Daily