Zurück zum Artikel

Links zum Artikel

Wie reparieren wir die (a-)sozialen Medien?

4 Forscher haben die großen Probleme der Plattformen durchleuchtet – und wissen, wie wir sie lösen.

15. Juli 2020  10 Minuten

  • Ein Vater postet ein Video auf der Onlineplattform Tiktok . Darin zu sehen ist sein Sohn, noch ein Kleinkind, der mit ihm im Auto sitzt. Der Vater filmt, wie sich sein Kind immer wieder erschreckt, als er den Wagen plötzlich beschleunigt. Er titelt »Findet ihr ihn süs:like«. Das Video des »Tiktok«-Nutzers »aqua10k« 550.000 Menschen gefällt das. Dass der Vater dabei die Straße vernachlässigt und nicht auf die Bitte seines Sohnes eingeht, langsamer zu fahren, scheint nebensächlich.
  • Eine Instagram -Influencerin teilt ein Video, wie sie den Sitz einer Flugzeugtoilette ableckt. Sie nennt es »Coronavirus Challenge«. Sie wird zum Trend: Auf sozialen Medien filmen sich zahlreiche Nachahmer:innen, Wie Ava Louise die »Coronavirus Challenge« ins Leben rief die Haltegriffe in der U-Bahn oder gleich mehrere Produkte im Supermarkt ablecken.

  • Der US-amerikanische Präsident schreibt per Twitter und Facebook eine direkte Drohung an Demonstrierende im Zuge des Das kannst du für »Black Lives Matter« sofort tun – ein Selbsttest im »Kritischen Weißsein« Black-Lives-Matter -Protests: »Wenn Plünderungen beginnen, wird geschossen«. Das ist ein Fall von Gewaltverherrlichung, wenn nicht gar eine Androhung politischen Machtmissbrauchs. Donald Trump droht Demonstrierenden per »Twitter« (englisch) Hunderttausende seiner politischen Anhänger:innen geben dafür einen Daumen hoch.

Was haben diese 3 Geschichten aus den sozialen Medien Soziale Medien (englisch »Social Media«) dienen der profilbasierten Vernetzung von Benutzer:innen und deren Kommunikation und Kooperation über das Internet. Sie sind die Basis des sogenannten »Web 2.0« oder »Mitmachweb«, in dem vor allem von Nutzer:innen erstellte Inhalte kursieren. gemeinsam? Sie zeigen die Diese Studie untersucht den Zusammenhang zwischen Social -Media-Nutzung, Einsamkeit und Depression (englisch, 2015) Abgründe, die heute im Internet an der Tagesordnung sind. Und sie bestätigen das, was die Wissenschaft in den letzten Jahren über die großen Plattformen wie Facebook , Twitter , Youtube , Instagram und Co. herausgefunden hat: Soziale Medien können schädliche Phänomene hervorrufen, geben zum Beispiel Im »Handbook of Trait Narcissism« wird der aktuelle Stand der Forschung im Zusammenhang mit Narzissmus und Social Media diskutiert (englisch, Paywall, 2018) Narzisst:innen eine Bühne, erzeugen Ängste Diese Studie wertet »Fear of Missing Out« (FOMO) als starken Motivator zur Nutzung sozialer Medien (englisch, 2018) (zum Beispiel die, etwas zu verpassen) und polarisieren – vor allem unter jungen Menschen mit geringer Medienkompetenz.

Jetzt könnte die Frage aufkommen: Warum tun die Plattformen nicht etwas dagegen?

Wie hemmungslos das Geschäftsmodell »Facebook« funktioniert, erklärte das Buch »Die facebook-Falle« bereits 2011 Die Antwort ist einfach wie ernüchternd: Weil sie all das für ihr Geschäftsmodell in Kauf nehmen.

Wie verdienen soziale Medien ihr Geld?

Soziale Medien verkaufen empfindliche Nutzer:innendaten an Werbeunternehmen. Je intensiver eine Person eine Plattform nutzt, desto häufiger kann personalisierte Werbung angezeigt werden und desto klarer lassen sich Interessen an Klicks und Likes ablesen. Deshalb ist auch ein negativer Kommentar oder wütender Smiley für die Plattformen letztlich genauso gut wie ein »Herzchen« oder Lob, vielleicht sogar besser: Denn was aufregt und polarisiert, sorgt oft für mehr sogenanntes »Engagement«. Und anhand dieser Beschäftigung mit Inhalten entscheiden Algorithmen im Hintergrund darüber, was »trendet«.

Fakt ist: Auf den etablierten Plattformen stehen längst nicht mehr Freundschaften, Informationen und persönliche Kontakte im Vordergrund, sondern Einnahmen durch personalisierte Werbung, Reichweite, Polarisierung und Klicks. Aus der ursprünglich guten Idee – Menschen global zu vernetzen – wurde eine »Aufmerksamkeitsökonomie«, Soziale Medien als Schlachtfeld von Propaganda: Die »New York Times« berichten über Desinformationen zu den George-Floyd-Protesten (englisch, 2020) die scheinbar immer mehr entgleist.

Ein typischer Einwand wäre nun: »Dann nutz sie halt nicht, wenn sie dir nicht gefallen!« Aber das ist alles andere als einfach. Allein auf Facebook sind nach den letzten Zahlen Die aktuellsten »Facebook«-Statistiken in der Übersicht bei »BusinessofApps« (englisch, 2020) 2,35 Milliarden Menschen aktiv. Und immer mehr Unternehmen, Organisationen und auch Politiker:innen nutzen soziale Medien als erste Anlaufstelle für Neuigkeiten und Kommunikation. Dazu waren viele Menschen während der Coronapandemie auf soziale Netzwerke angewiesen, um ihrer Isolation durch Kontaktverbote etwas entgegenzuwirken.

Dennoch ist es höchste Zeit, darüber nachzudenken, wie soziale Medien besser werden können.

Wie müsste ein Netzwerk aussehen, das wieder das Zwischenmenschliche der Nutzer:innen in den Vordergrund stellt? Neue Plattformen und internationale Forscher:innen denken darüber längst nach – und haben erste Antworten.

Warum sind soziale Medien kaputt und wie kann man sie reparieren?

Philipp Lorenz-Spreen forscht am »Max-Planck-Institut für Bildungsforschung« über soziale Medien. – Quelle: Philipp Lorenz-Spreen

Philipp Lorenz-Spreen kennt die Schattenseiten der sozialen Medien nur zu gut. Für seine Arbeit am Max-Planck-Institut für Bildungsforschung beschäftigt sich der Soziophysiker intensiv mit digitalen Netzwerken und damit, wie Menschen in ihnen kommunizieren.

Eine seiner Beobachtungen macht ihm selbst Sorgen: Die Plattformen verändern die Diskussionskultur – und das nicht zum Besseren.

Es gibt natürlich noch nicht besonders viele Langzeitstudien, wie soziale Medien den demokratischen Diskurs verändern. Eine haben wir letztes Jahr veröffentlicht. Sie sagt: Themen wechseln sich immer schneller ab, werden aber weniger tief besprochen. – Philipp Lorenz-Spreen, Soziophysiker und Social-Media-Forscher

Philipp Lorenz-Spreen hat dafür keine einfachen Lösungen parat, denn aus seiner Sicht stammen viele Probleme vom grundsätzlichen Interessenkonflikt im Kern der sozialen Medien: Wirtschaftliche Interessen der Privatunternehmen Facebook , Youtube , Twitter und Co. sind nicht deckungsgleich mit den Interessen der Nutzer:innen. Das führt im Extremfall zu sogenannten »Dark Patterns«, also Strukturen, die Nutzer:innen gegen ihre eigenen Interessen manipulieren und sogar ein optimales Miteinander sabotieren können.

Beispiele gefällig?

  • Dark Patterns schützen fragwürdige Inhalte: Hat etwa jemand etwas offensichtlich Menschenfeindliches in sozialen Medien gepostet, kannst du dich auf das »Netzwerkdurchsetzungsgesetz« (NetzDG) berufen und dies bei den Plattformen anzeigen. Diese müssen dann reagieren und zumindest überprüfen, ob der Post zeitnah gelöscht werden muss. Doch bei Facebook ist die Funktion Hier findest du das Meldeformular im Sinne des NetzDG bei »Facebook« dazu als umständliches Formular gestaltet und im Hilfebereich des Netzwerks verborgen. Und auch Facebooks eigene FAQ zum Thema verunsichern zusätzlich: »Zieh […] ggf. einen Rechtsanwalt oder eine Aufsichtsbehörde zurate, bevor du eine Meldung einreichst.« So bleiben auch den Ton vergiftende Posts wie Donald Trumps Gewaltandrohung einfach länger öffentlich stehen. Natürlich kommt bei Donald Trump noch hinzu, dass es der US-Präsident ist und seine Beiträge deshalb auf ein hohes öffentliches Interesse stoßen – auch wenn sie einen giftigen Ton treffen oder gar menschenverachtend sind. Das ist jedenfalls die Argumentation von »Facebook«. Doch Trumps Äußerung steht hier nur symbolisch für zahlreiche andere Posts, die in ähnlichem Ton geschrieben wurden. Ein Grund dafür: Überprüfen können nur Menschen, und deren Arbeit kostet Geld. Wäre die NetzDG-Meldefunktion weniger versteckt, kämen wahrscheinlich viel mehr Anfragen und Facebook müsste viel mehr Überprüfer:innen einstellen – eine finanzielle und logistische Belastung für das Unternehmen.
  • Dark Patterns bremsen faire Inhalte aus: Plattformen führen sogenannte »Blacklists« von Begriffen, die in Titeln automatisch dazu führen, dass Inhalte auf eine Verletzung der »Community-Richtlinien« hin überprüft werden. Für die Dauer dieser Überprüfung »Youtube«-Überprüfungen können bis zu 7 Tage dauern, je nachdem, warum etwas geflagged wurde. Das ist aber nur ein grober Erfahrungswert von berichtenden Youtubern. sind sie von der Werbung ausgeschlossen (»demonetarisiert«) und werden auch nicht empfohlen. Über diesen Punkt herrscht aktuell noch Unklarheit. Geflaggte Videos auf »Youtube« werden zwar weiterhin angezeigt und sind noch suchbar, aber scheinbar weniger oder kaum noch empfohlen. Hier sind weitere Untersuchungen nötig, da »Youtube« die Mechanik im Hintergrund nicht offenlegt. So weit, so logisch, wenn es nur klare Verletzungen der Communityrichtlinien wie Schimpfwörter, Extremismus oder unangebrachte Sexualität beträfe. Doch diese schwarzen Listen sind nicht öffentlich, sondern geheim – und äußerst fragwürdig. Sehr aufwendige Untersuchungen zu Youtube zeigen auf, dass auch ganz normale Begriffe auf diesen Listen landen – etwa »weiblich« oder »Minnesota«. Was das soll? Wahrscheinlich wurden diese Begriffe von automatischen Systemen auf die Listen gesetzt und danach nicht überprüft. Auffällig ist aber, dass viele Begriffe aus dem LGBTQI-Umfeld wie »schwul«, »lesbisch« oder »trans« »Reclaimthenet« berichtet über die aufwendige Recherche des Unternehmens »Ocelot AI« (englisch, 2019) auf der Liste zu finden sind und es solche Inhalte damit auf den Plattformen schwerer haben.
  • Dark Patterns manipulieren, was du siehst: Auch Inhalte, die nicht durch schwarze Listen ausgesiebt werden, sind auf den Plattformen alles andere als gleichberechtigt. Auf Youtube beispielsweise landen ausgewählte Posts oder Videos auf hervorgehobenen Empfehlungslisten (»Youtube-Trends«) und werden für dich unter »Nächste Titel« angezeigt. Dahinter steckt Youtubes Algorithmus, der im Hintergrund alle Inhalte auswertet und daraufhin überprüft, wie viele Menschen wahrscheinlich auf sie reagieren. Und wovon das Netzwerk glaubt, dass es eher nicht gefällt, wird zum Teil sogar gar nicht angezeigt – »Youtube«-Experte und Videoblogger Matt Gielen versucht dem Algorithmus auf die Schliche zu kommen und gibt faszinierende Einblicke (englisch, 2020) anhand von Daten, die zwar gesammelt, aber nicht transparent angezeigt werden.

    Der Grund: Youtube profitiert nicht von einem breiten und ausgewogenen Ideenangebot, sondern von Trends und gedanklichen Schubladen, damit Werbung besser platziert werden kann. Youtube -Macher:innen wissen natürlich darum, und weil manche von ihnen finanziell auf den Erfolg ihrer Videos angewiesen sind, produzieren sie vor allem Inhalte, die dem Algorithmus gefallen – klickbar, emotional, polarsierend –, wie die Influencerin mit ihrem Toilettensitz-Video.

Für Philipp Lorenz-Spreen ist das nicht weniger als eine Entmündigung – frei nach dem Motto: Das Netzwerk weiß besser als du selbst, was du sehen willst und was nicht. Und genau darin sieht er den Ansatzpunkt, die Plattformen zu verbessern und die Mündigkeit der Nutzer:in in den Mittelpunkt zu stellen.

Im Kopf behalten: Der eigentliche Zweck von sozialen Medien ist nicht das Soziale, sondern das Auslesen von Präferenzen, um personalisierte Werbung zu platzieren. – Illustration: Doğu Kaya

So könnten bessere soziale Medien aussehen

Gemeinsam mit 3 anderen Wissenschaftlern Ralph Hertwig (Deutschland), Stephan Lewandowsky (Australien) und Cass Sunstein (USA). aus dem Bereich der Verhaltensforschung und Psychologie hat Philip Lorenz-Spreen seine Social-Media-Lösungsvorschläge diskutiert und im Das Paper »How behavioural sciences can promote truth, autonomy and democratic discourse online« (englisch, 2020) Fachmagazin Nature Human Behaviour veröffentlicht. Dies sind ihre Ansätze:

  1. Informationen transparenter machen: Die Algorithmen der sozialen Netzwerke gelten heute als Geschäftsgeheimnis. Doch wenn nur das Unternehmen weiß, wie Daten gesammelt und geordnet werden, dann bleiben Fehler und Fallstricke dieser Systeme verborgen. Deshalb fordern Lorenz-Spreen und seine Kollegen: Was und wie eine Plattform im Hintergrund arbeitet, sollte auch interessierten Nutzer:innen und Forschenden zur Verfügung stehen. »Dies kann beispielsweise bedeuten, dass angezeigt wird, auf welchem Weg eine Information einen Benutzer erreicht hat – oder wer auf welche Weise bereits mit dem Inhalt interagiert hat.« Ist etwa einsehbar, dass ein Inhalt bereits Sekunden nach Veröffentlichung Hunderte positive Interaktionen hat oder ein:e Nutzer:in exzessiv nur zu einem bestimmten Thema Inhalte teilt und liket, stecken vielleicht gar keine Menschen dahinter, sondern automatische Bots – und jemand will manipulieren. Der Inhalt erscheint dann populärer, als er in Wahrheit ist. So etwas ist aber wichtig einzusehen, gerade bei politischen Inhalten. Hier könnte mehr Transparenz auch dabei helfen, Desinformationen und Propaganda zu durchschauen.
  2. Inhalte klarer kategorisieren: »Zum Teil ist es überhaupt nicht mehr klar, was Inhalte sind – da verschwimmt vieles zwischen Privatem, Beruflichem, Werbung, Nachrichten und Politischem. Eine stärkere Unterscheidung wäre wichtig.« So wäre deutlicher, wie Inhalte gemeint sind. Doch Lorenz-Spreen denkt sogar darüber hinaus und an unterschiedliche Funktionen: »Warum soll ich denn mit Nachrichten genauso interagieren können wie mit Posts meiner Freunde? Warum gibt es bei einer politischen Werbung auf Facebook einen Like- und einen Share-Button?«

    Auch ein Like für Nachrichten kann vieles bedeuten: von »Ich finde den Inhalt wertvoll« über »Das ist auch meine politische Meinung« bis hin zu »Ich finde die Schlagzeile lustig, habe aber nicht reingelesen«. Hier könnte ein Netzwerk etwa Nutzer:innen dazu zwingen, das Geteilte kurz einzuordnen, anstatt den Originalinhalt schweigend zu verbreiten und zu pushen.
  3. Nudging hin zum kritischen Blick: Die Onlinewelt ist schnelllebig und oft mangelt es an gesicherten Informationen und Quellen. Hier reicht für die Forschenden das traditionelle Fact-Checking durch Drittanbieter nicht aus. Stattdessen fordern sie, dass Plattformen die eigenen Nutzer:innen durch sanftes Hinweisen dazu erziehen, kritischer mit Informationen umzugehen. »Zum Beispiel, indem die Schaltfläche ›Teilen‹ kurz verzögert ist, wenn in einem Artikel keine externen Verweise zitiert werden«, erklärt Lorenz-Spreen. Diese Techniken stammen aus der Verhaltensökonomie und sind quasi zum Positiven gekehrte Manipulationen – »Nudging« genannt.

Das Risiko, dass Plattformen dadurch eventuell auch etwas weniger intuitiv zu nutzen wären, nehmen die 4 Forscher in Kauf. Sie sind überzeugt, dass solche Maßnahmen, die kritisches Verhalten bestärken (»boosten«) auf lange Sicht dabei helfen könnten, die Medienkompetenzen von Nutzer:innen zu fördern.

Weg von impulsgetriebenen Konsument:innen hin zu kritischen Fact-Checker:innen, die das Geschäft der sozialen Medien durchschauen und sich nicht mehr so leicht manipulieren lassen? Das dürfte den Unternehmen gar nicht schmecken. Wie also können diese Forderungen umgesetzt werden, damit sie nicht nur gut gemeinte Ideen bleiben?

So kriegen wir die Plattformen dazu, einzulenken

Beim Thema der Umsetzung ist Lorenz-Spreen ganz Realist: Die Macht der Plattformen ist groß, ihre Geschäftsmodelle profitabel und Konkurrenzdruck kaum vorhanden. Also müssen sie gezwungen werden, sich zu ändern: zum Beispiel durch öffentlichen Druck, der auch finanziell spürbar ist.

Gegen Facebooks unkritischen Umgang mit fragwürdigen Inhalten gibt es seit Jahren Proteste und Boykottaufrufe. Seit einigen Wochen machen 800 Unternehmen ernst, darunter der Lebensmittelgigant Unilever , der Pharmakonzern Pfizer oder auch Adidas und VW. Sie sorgen sich um ihr Image und wollen ihre Werbung nicht mehr in der Nähe von hetzerischen und negativen Inhalten wissen, die von Facebooks Algorithmus in den Feeds nach oben gespült werden. Dazu entziehen sie dem sozialen Netzwerk kurzerhand die Werbeeinnahmen und erzeugen damit einen Milliardenschaden. Für die Unternehmen ist das günstige gute PR, für Facebook eine weitere PR-Katastrophe, die der Konzern schnell beenden will. Und so überlegt er sich etwa gerade, »Heise« berichtet über Bewegung bei »Facebook« beim Thema Werbung (2020) politische Werbung auf seiner Plattform nicht mehr zu erlauben.

Ein erster Textentwurf des »Digital Services Act« wird gegen Jahresende erwartet. Aktuell können Bürger:innen grundsätzliche Fragen dazu bei der EU beantworten und mitgestalten. – Illustration: Doğu Kaya

Das Problem bei solchen Boykotts ist aber, dass es nur ein Netzwerk trifft und immer noch auf ein Einlenken und Selbstregulierung angewiesen ist. Fairer wäre es, wenn bestimmte Elemente verpflichtend für alle Plattformen gemacht würden – per Gesetz. Das wäre durchaus möglich, etwa im Rahmen des gerade auf EU-Ebene verhandelten »Digital Services Act«. Dieser wird die seit 2000 bestehende eCommerce-Richtlinie ablösen und soll dem Internet (und vor allem sozialen Medien) neue Rahmenbedingungen geben und Grauzonen ausräumen. Eigentlich geht es hier um rechtswidrige Inhalte im Netz, doch es wäre durchaus möglich, darin eine Verpflichtung zu Transparenz und Offenlegung der Algorithmen für größere Plattformen zu verankern. So wären nicht nur bestehende Netzwerke betroffen, sondern auch alle zukünftigen.

Öffentlicher Druck oder doch per Gesetz? Beide Ansätze sind nur gerecht, findet auch Forscher Phillip Lorenz-Spreen: »Alles probieren, was geht« ist seine Devise. Denn dass die Plattformen nicht im besten Interesse der Nutzer:innen handeln und dass sie sich gegen Veränderungen sperren, haben sie längst bewiesen. Mit diesen Hebeln kann die Öffentlichkeit auf die Unternehmen einwirken, deren Angebote längst schon zu zentraler digitaler Infrastruktur geworden sind – quasi eine seit Langem überfällige Demokratisierung unserer neuen Kommunikationswelt.



Ich begebe mich in der zweiten Hälfte dieses Jahres auf die Suche nach dem Sozialen in den sozialen Medien. Dieser Text soll daher der Auftakt zu einer ganzen Reihe sein. Was etwa könnten soziale Netzwerke von »Wikipedia« lernen? Was taugen neue Netzwerke wie »WT:Social«? Wenn du spezielle Fragen hast, schreibe sie in die Diskussionen!

Mit Illustrationen von Doğu Kaya für Perspective Daily

von Dirk Walbrühl 

Dirk ist ein Internetbewohner der ersten Generation. Ihn faszinieren die Möglichkeiten und die noch junge Kultur der digitalen Welt, mit all ihren Fallstricken. Als Germanist ist er sich sicher: Was wir heute posten und chatten, formt das, was wir morgen sein werden. Die Schnittstellen zu unserer Zukunft sind online.

Themen:  Populismus   Gesellschaft   Internet  

Die Diskussionen sind leider nur für Mitglieder verfügbar.

Weitere Artikel für dich