Wie reparieren wir die (a-)sozialen Medien?
4 Forscher haben die großen Probleme der Plattformen durchleuchtet – und wissen, wie wir sie lösen.
- Ein Vater postet ein Video auf der Onlineplattform Tiktok. Darin zu sehen ist sein Sohn, noch ein Kleinkind, der mit ihm im Auto sitzt. Der Vater filmt, wie sich sein Kind immer wieder erschreckt, als er den Wagen plötzlich beschleunigt. Er titelt »Findet ihr ihn süs:like«.
- Eine Instagram-Influencerin teilt ein Video, wie sie den Sitz einer Flugzeugtoilette ableckt. Sie nennt es »Coronavirus Challenge«. Sie wird zum Trend: Auf sozialen Medien filmen sich zahlreiche Nachahmer:innen,
- Der US-amerikanische Präsident schreibt per Twitter und Facebook eine direkte Drohung an Demonstrierende im Zuge des
Was haben diese 3 Geschichten aus den
Jetzt könnte die Frage aufkommen: Warum tun die Plattformen nicht etwas dagegen?
Wie verdienen soziale Medien ihr Geld?
Soziale Medien verkaufen empfindliche Nutzer:innendaten an Werbeunternehmen. Je intensiver eine Person eine Plattform nutzt, desto häufiger kann personalisierte Werbung angezeigt werden und desto klarer lassen sich Interessen an Klicks und Likes ablesen. Deshalb ist auch ein negativer Kommentar oder wütender Smiley für die Plattformen letztlich genauso gut wie ein »Herzchen« oder Lob, vielleicht sogar besser: Denn was aufregt und polarisiert, sorgt oft für mehr sogenanntes »Engagement«. Und anhand dieser Beschäftigung mit Inhalten entscheiden Algorithmen im Hintergrund darüber, was »trendet«.
Fakt ist: Auf den etablierten Plattformen stehen längst nicht mehr Freundschaften, Informationen und persönliche Kontakte im Vordergrund, sondern Einnahmen durch personalisierte Werbung, Reichweite, Polarisierung und Klicks. Aus der ursprünglich guten Idee – Menschen global zu vernetzen – wurde eine »Aufmerksamkeitsökonomie«,
Ein typischer Einwand wäre nun: »Dann nutz sie halt nicht, wenn sie dir nicht gefallen!«
Aber das ist alles andere als einfach. Allein auf Facebook sind nach den letzten Zahlen
Dennoch ist es höchste Zeit, darüber nachzudenken, wie soziale Medien besser werden können.
Wie müsste ein Netzwerk aussehen, das wieder das Zwischenmenschliche der Nutzer:innen in den Vordergrund stellt? Neue Plattformen und internationale Forscher:innen denken darüber längst nach – und haben erste Antworten.
Warum sind soziale Medien kaputt und wie kann man sie reparieren?

Philipp Lorenz-Spreen kennt die Schattenseiten der sozialen Medien nur zu gut. Für seine Arbeit am Max-Planck-Institut für Bildungsforschung beschäftigt sich der Soziophysiker intensiv mit digitalen Netzwerken und damit, wie Menschen in ihnen kommunizieren.
Eine seiner Beobachtungen macht ihm selbst Sorgen: Die Plattformen verändern die Diskussionskultur – und das nicht zum Besseren.
Es gibt natürlich noch nicht besonders viele Langzeitstudien, wie soziale Medien den demokratischen Diskurs verändern. Eine haben wir letztes Jahr veröffentlicht. Sie sagt: Themen wechseln sich immer schneller ab, werden aber weniger tief besprochen.
Philipp Lorenz-Spreen hat dafür keine einfachen Lösungen parat, denn aus seiner Sicht stammen viele Probleme vom grundsätzlichen Interessenkonflikt im Kern der sozialen Medien: Wirtschaftliche Interessen der Privatunternehmen Facebook, Youtube, Twitter und Co. sind nicht deckungsgleich mit den Interessen der Nutzer:innen. Das führt im Extremfall zu sogenannten »Dark Patterns«, also Strukturen, die Nutzer:innen gegen ihre eigenen Interessen manipulieren und sogar ein optimales Miteinander sabotieren können.
Beispiele gefällig?
- Dark Patterns schützen fragwürdige Inhalte: Hat etwa jemand etwas offensichtlich Menschenfeindliches in sozialen Medien gepostet, kannst du dich auf das »Netzwerkdurchsetzungsgesetz« (NetzDG) berufen und dies bei den Plattformen anzeigen. Diese müssen dann reagieren und zumindest überprüfen, ob der Post zeitnah gelöscht werden muss. Doch bei Facebook ist die Funktion
- Dark Patterns bremsen faire Inhalte aus: Plattformen führen sogenannte »Blacklists« von Begriffen, die in Titeln automatisch dazu führen, dass Inhalte auf eine Verletzung der »Community-Richtlinien« hin überprüft werden. Für die Dauer dieser
- Dark Patterns manipulieren, was du siehst: Auch Inhalte, die nicht durch schwarze Listen ausgesiebt werden, sind auf den Plattformen alles andere als gleichberechtigt. Auf Youtube beispielsweise landen ausgewählte Posts oder Videos auf hervorgehobenen Empfehlungslisten (»Youtube-Trends«) und werden für dich unter »Nächste Titel« angezeigt. Dahinter steckt Youtubes Algorithmus, der im Hintergrund alle Inhalte auswertet und daraufhin überprüft, wie viele Menschen wahrscheinlich auf sie reagieren. Und wovon das Netzwerk glaubt, dass es eher nicht gefällt, wird zum Teil sogar gar nicht angezeigt –
Der Grund: Youtube profitiert nicht von einem breiten und ausgewogenen Ideenangebot, sondern von Trends und gedanklichen Schubladen, damit Werbung besser platziert werden kann. Youtube-Macher:innen wissen natürlich darum, und weil manche von ihnen finanziell auf den Erfolg ihrer Videos angewiesen sind, produzieren sie vor allem Inhalte, die dem Algorithmus gefallen – klickbar, emotional, polarsierend –, wie die Influencerin mit ihrem Toilettensitz-Video.
Für Philipp Lorenz-Spreen ist das nicht weniger als eine Entmündigung – frei nach dem Motto: Das Netzwerk weiß besser als du selbst, was du sehen willst und was nicht. Und genau darin sieht er den Ansatzpunkt, die Plattformen zu verbessern und die Mündigkeit der Nutzer:in in den Mittelpunkt zu stellen.

So könnten bessere soziale Medien aussehen
Gemeinsam mit 3 anderen
- Informationen transparenter machen: Die Algorithmen der sozialen Netzwerke gelten heute als Geschäftsgeheimnis. Doch wenn nur das Unternehmen weiß, wie Daten gesammelt und geordnet werden, dann bleiben Fehler und Fallstricke dieser Systeme verborgen. Deshalb fordern Lorenz-Spreen und seine Kollegen: Was und wie eine Plattform im Hintergrund arbeitet, sollte auch interessierten Nutzer:innen und Forschenden zur Verfügung stehen. »Dies kann beispielsweise bedeuten, dass angezeigt wird, auf welchem Weg eine Information einen Benutzer erreicht hat – oder wer auf welche Weise bereits mit dem Inhalt interagiert hat.« Ist etwa einsehbar, dass ein Inhalt bereits Sekunden nach Veröffentlichung Hunderte positive Interaktionen hat oder ein:e Nutzer:in exzessiv nur zu einem bestimmten Thema Inhalte teilt und liket, stecken vielleicht gar keine Menschen dahinter, sondern automatische Bots – und jemand will manipulieren. Der Inhalt erscheint dann populärer, als er in Wahrheit ist. So etwas ist aber wichtig einzusehen, gerade bei politischen Inhalten. Hier könnte mehr Transparenz auch dabei helfen, Desinformationen und Propaganda zu durchschauen.
- Inhalte klarer kategorisieren: »Zum Teil ist es überhaupt nicht mehr klar, was Inhalte sind – da verschwimmt vieles zwischen Privatem, Beruflichem, Werbung, Nachrichten und Politischem. Eine stärkere Unterscheidung wäre wichtig.« So wäre deutlicher, wie Inhalte gemeint sind. Doch Lorenz-Spreen denkt sogar darüber hinaus und an unterschiedliche Funktionen: »Warum soll ich denn mit Nachrichten genauso interagieren können wie mit Posts meiner Freunde? Warum gibt es bei einer politischen Werbung auf Facebook einen Like- und einen Share-Button?«
Auch ein Like für Nachrichten kann vieles bedeuten: von »Ich finde den Inhalt wertvoll« über »Das ist auch meine politische Meinung« bis hin zu »Ich finde die Schlagzeile lustig, habe aber nicht reingelesen«. Hier könnte ein Netzwerk etwa Nutzer:innen dazu zwingen, das Geteilte kurz einzuordnen, anstatt den Originalinhalt schweigend zu verbreiten und zu pushen. - Nudging hin zum kritischen Blick: Die Onlinewelt ist schnelllebig und oft mangelt es an gesicherten Informationen und Quellen. Hier reicht für die Forschenden das traditionelle Fact-Checking durch Drittanbieter nicht aus. Stattdessen fordern sie, dass Plattformen die eigenen Nutzer:innen durch sanftes Hinweisen dazu erziehen, kritischer mit Informationen umzugehen. »Zum Beispiel, indem die Schaltfläche ›Teilen‹ kurz verzögert ist, wenn in einem Artikel keine externen Verweise zitiert werden«, erklärt Lorenz-Spreen. Diese Techniken stammen aus der Verhaltensökonomie und sind quasi zum Positiven gekehrte Manipulationen – »Nudging« genannt.
Das Risiko, dass Plattformen dadurch eventuell auch etwas weniger intuitiv zu nutzen wären, nehmen die 4 Forscher in Kauf. Sie sind überzeugt, dass solche Maßnahmen, die kritisches Verhalten bestärken (»boosten«) auf lange Sicht dabei helfen könnten, die Medienkompetenzen von Nutzer:innen zu fördern.
Weg von impulsgetriebenen Konsument:innen hin zu kritischen Fact-Checker:innen, die das Geschäft der sozialen Medien durchschauen und sich nicht mehr so leicht manipulieren lassen? Das dürfte den Unternehmen gar nicht schmecken. Wie also können diese Forderungen umgesetzt werden, damit sie nicht nur gut gemeinte Ideen bleiben?
So kriegen wir die Plattformen dazu, einzulenken
Beim Thema der Umsetzung ist Lorenz-Spreen ganz Realist: Die Macht der Plattformen ist groß, ihre Geschäftsmodelle profitabel und Konkurrenzdruck kaum vorhanden. Also müssen sie gezwungen werden, sich zu ändern: zum Beispiel durch öffentlichen Druck, der auch finanziell spürbar ist.
Gegen Facebooks unkritischen Umgang mit fragwürdigen Inhalten gibt es seit Jahren Proteste und Boykottaufrufe. Seit einigen Wochen machen 800 Unternehmen ernst, darunter der Lebensmittelgigant Unilever, der Pharmakonzern Pfizer oder auch Adidas und VW. Sie sorgen sich um ihr Image und wollen ihre Werbung nicht mehr in der Nähe von hetzerischen und negativen Inhalten wissen, die von Facebooks Algorithmus in den Feeds nach oben gespült werden. Dazu entziehen sie dem sozialen Netzwerk kurzerhand die Werbeeinnahmen und erzeugen damit einen Milliardenschaden. Für die Unternehmen ist das günstige gute PR, für Facebook eine weitere PR-Katastrophe, die der Konzern schnell beenden will. Und so überlegt er sich etwa gerade,

Das Problem bei solchen Boykotts ist aber, dass es nur ein Netzwerk trifft und immer noch auf ein Einlenken und Selbstregulierung angewiesen ist. Fairer wäre es, wenn bestimmte Elemente verpflichtend für alle Plattformen gemacht würden – per Gesetz. Das wäre durchaus möglich, etwa im Rahmen des gerade auf EU-Ebene verhandelten »Digital Services Act«. Dieser wird die seit 2000 bestehende eCommerce-Richtlinie ablösen und soll dem Internet (und vor allem sozialen Medien) neue Rahmenbedingungen geben und Grauzonen ausräumen. Eigentlich geht es hier um rechtswidrige Inhalte im Netz, doch es wäre durchaus möglich, darin eine Verpflichtung zu Transparenz und Offenlegung der Algorithmen für größere Plattformen zu verankern. So wären nicht nur bestehende Netzwerke betroffen, sondern auch alle zukünftigen.
Öffentlicher Druck oder doch per Gesetz? Beide Ansätze sind nur gerecht, findet auch Forscher Phillip Lorenz-Spreen: »Alles probieren, was geht« ist seine Devise. Denn dass die Plattformen nicht im besten Interesse der Nutzer:innen handeln und dass sie sich gegen Veränderungen sperren, haben sie längst bewiesen. Mit diesen Hebeln kann die Öffentlichkeit auf die Unternehmen einwirken, deren Angebote längst schon zu zentraler digitaler Infrastruktur geworden sind – quasi eine seit Langem überfällige Demokratisierung unserer neuen Kommunikationswelt.
Ich begebe mich in der zweiten Hälfte dieses Jahres auf die Suche nach dem Sozialen in den sozialen Medien. Dieser Text soll daher der Auftakt zu einer ganzen Reihe sein. Was etwa könnten soziale Netzwerke von »Wikipedia« lernen? Was taugen neue Netzwerke wie »WT:Social«? Wenn du spezielle Fragen hast, schreibe sie in die Diskussionen!
Mit Illustrationen von Doğu Kaya für Perspective Daily