Inhalt

Warum wir online nur noch unsere eigene Meinung hören

Links zum Artikel

Dirk Walbrühl

Warum wir online nur noch unsere eigene Meinung hören

12. Dezember 2016

Wenn dir alles gefällt, was du bei Facebook und Co. liest, sitzt du schon fest in deiner Echokammer. Soziale Medien machen es möglich und erzeugen falsche Erwartungen. So bringst du deine Filterblase zum Platzen.

Es ist der 9. November des Jahres 2016, der Morgen nach der US-Wahl, die in die Geschichte eingehen wird. Noch ist die Nachricht über den Sieg von Donald Trump brandheiß. Mein Smartphone brummt ununterbrochen mit neuen Kurznachrichten: Hillary Clinton gesteht ihre Niederlage ein und Donald Trump hält seine erste Rede als zukünftiger 45. Präsident der USA. »Wie konnte das passieren?«, frage ich mich und fahre meinen Computer hoch. Es ist vielleicht die Frage des Jahres. Aus Gewohnheit führt mich mein erster Klick zu den Neuigkeiten meiner Freunde und Bekannten auf Facebook.

Auch ich habe nicht wirklich mit dieser Entwicklung gerechnet – genauso wenig wie mit dem Brexit oder der Ablehnung des ersten Was ein Frieden für Kolumbien und die Kokain-Produktion bedeutet, beleuchte ich in diesem Artikel Friedens-Referendums in Kolumbien. »Das wird nicht passieren!«, da war sich mein Soziales Netzwerk im Vorfeld einig – alle waren meiner Meinung! Auch die Artikel in meiner Timeline diskutierten bereits seit dem Sommer den Dieses Stück aus dem Paste-Magazine beschwor eine neue Ära der Fortschrittlichkeit (englisch) Untergang der Republikaner. Und meine liebsten Entertainer wie Der britische Comedian John Oliver arbeitete sich 2016 in seiner Last Week Tonight-Show an Donald Trump ab (englisch) John Oliver oder Stephen Colbert hatten sich monatelang vor allem an Trumps Skandalen abgearbeitet. Daumen hoch, fleißig geteilt! Die eigentliche Frage musste also lauten:

Woher kam diese falsche Zuversicht?

Ich erinnere mich an einen Bekannten, den ich erst kürzlich aus meiner Freundesliste geworfen hatte. Die ewig gleichen Parolen gegen Geflüchtete und »Gutmenschen« gingen mir einfach zu weit. An diesem Morgen tippe ich seinen Namen in die Suchleiste von Facebook ein und lese in seinem Netzwerk mit.

Eine Meinung, die für mich aus einer anderen Welt zu stammen scheint. Und genau darin liegt das Problem. Wir alle leben mittlerweile in unserer eigenen Der Internetaktivist Eli Pariser warnte als einer der ersten in diesem Buch davor (englisch 2012) Echokammer. Es ist Zeit, aufzuwachen.

Schalte das Soziale Netzwerk im Artikel um und entdecke, wie unterschiedlich die Perspektiven in Echokammern sein können. Mit einem Klick unten rechts auf die Aktionsleiste (Varianten), kannst du das auch während des Lesens tun. Du brauchst eine Erläuterung oder Auffrischung, was Soziale Medien überhaupt sind? Dann klicke hier.

Das ist kein Fehler, das soll so sein

Nicht nur ich begebe mich nach der US-Wahl auf Spurensuche. Ich will wissen, wie diese Täuschung entsteht und wirkt. Viele liberale US-Medien Dieser Artikel von VOX.com verortet die Schuld im Medieneinfluss der Hollywood-Elite (englisch, 2016) suchen lieber einen Dieser Artikel der Wochenzeitschrift New York gab Falschmeldungen und Meinungsmache auf Facebook die Schuld (englisch, 2016) Schuldigen. Der Name: Mark Zuckerberg, der Gründer und CEO von Facebook, dem weltweit größten Sozialen Netzwerk. Er hatte erst 2013 getönt, Facebook sei längst mehr als nur ein Ort für private Status-Updates (Bilder vom Mittagessen und Katzen) – die Leser wollten Die Umfrage des US-Meinungsforschungs-Instituts Pew bestätigte, dass immer mehr Nutzer Facebook als Nachrichten-Quelle verwenden (englisch, 2016) »echte« Nachrichten.

Soziale Netzwerke als Nachrichtenportale? Im November erklärte Mark Zuckerberg dann als Reaktion auf die Vorwürfe:

»Unser Ziel ist es, Menschen die Inhalte zu zeigen, die für sie die meiste Bedeutung haben, und Menschen wollen akkurate Nachrichten.«

Der konkrete Vorwurf: Soziale Netzwerke ermöglichten es, gezielt Desinformationen zu verbreiten, und Die größte Kritik an Zuckerberg betrifft das ungehinderte Verbreiten von Falschmeldungen über Facebook. Hier ein Artikel dazu, 2 Tage nach der Wahl hätten damit die Wahl beeinflusst. Tatsächlich lenkt Zuckerberg kurz darauf ein und verspricht mehr Maßnahmen gegen Falschmeldungen. Zuckerberg betonte, dass er das Problem »ernst nimmt«. Dies sind seine Ideen für Gegenstrategien: So möchte er vor allem die Erkennung von Falschmeldungen verbessern. Das könnte mit einem neuen Bewertungssystem für Posts einhergehen, bei dem die Nutzer darüber abstimmen, ob der Inhalt der Beschreibung entspricht – aber auch eine automatische Erkennung wäre denkbar. Ebenfalls will Facebook mit Drittanbietern zusammenarbeiten, die Fakten-Checks effektiv durchführen. Informationen, die von mehreren Nutzern oder Drittanbietern als falsch bewertet wurden, erhielten dann eine Warnung. Wer als Unternehmen häufiger Falschmeldungen teilt (»financially motivated spam«), könnte ebenfalls von Facebook bei den Werbeeinnahmen abgestraft werden. Aber auch ein anderes Wort fällt immer wieder in der Diskussion: Echokammer. Echokammer ist gerade ein Modewort innerhalb der Kommunikations-Wissenschaften. Eine Alternative dazu sind »Filter-Blase« oder »Informations-Blase«. Diese wurden vom Internetaktivisten Eli Pariser 2012 in seinem Buch Filter-Bubble geprägt. Eine klare Definition gibt es aktuell nicht. Als elementarer Teil kann aber ein gewisser Grad von Abgeschlossenheit gegenüber Meinungen und Informationen gesehen werden. Dazu kommen emotionale Befindlichkeiten, die diese Informations-Filter motivieren und bestärken können.

»Mach Facebook zu deinem Facebook. Mit mehr von dem, was dir gefällt. Und weniger von allem anderen.« – Facebook-Werbung

Echokammern können vielleicht nicht erklären, warum Donald Trump gewählt wurde – Unser Gastautor Daniel-C. Schmidt analysiert in diesem Text die Wahl und die zerrissene Bevölkerung der USA das wird Analysten wohl noch Jahre beschäftigen. Doch sie können dabei helfen zu verstehen, warum viele Menschen vom 9. November 2016 überrascht wurden. Und das ist wichtig, denn das Phänomen ist nicht ausschließlich mit der US-Wahl verknüpft:

Anders gefragt: Warum hat der Beitrag-Ersteller Wir haben im ganzen Text die Facebook-Beitrtäge unkenntlich gemacht, um die Identität der Meinungs-Geber zu schützen. Es ist eine Sache, etwas öffentlich auf Facebook zu posten (in der Annahme, nur Freunde und Bekannten können es lesen), und etwas Anderes, in einem Artikel als Beispiel zu erscheinen. online nicht mitbekommen, wie viele Bereits dieser Artikel vom Guardian wies auf den Einfluss von Sozialen Medien auf das EU-Referendum hin (englisch, 2016) Briten die EU verlassen wollten? Eine Antwort dazu gibt mir Jörg Müller-Lietzkow. Er lehrt Medienökonomie an der Universität Paderborn und ist Co-Sprecher und Mitbegründer des Vereins für Netzpolitik, Das »#cnetz – Verein für Netzpolitik e. V.« ist ein CDU-naher Verein, der sich seit 2012 für »eine verantwortungsvolle Digitalpolitik, die einen fairen Ausgleich zwischen den unterschiedlichen Interessen schafft«, einsetzt #cnetz. Seit Jahren beschäftigt er sich mit den Strukturen und Auswirkungen unserer digitalen Kommunikation. Echokammern sind für ihn erst einmal »Ballungen und Hierarchisierungen von Informationen«. Und so entstehen sie:

Jörg Müller-Lietzkow ist Co-Sprecher und Mitbegründer des CDU-nahen Vereins für Netzpolitik –

  • Die subjektive Auswahl der Freunde: Auf Sozialen Netzwerken wird nur das angezeigt, was auch geteilt wird. Eine Diese Studie untersuchte die Posts von 17.000 Facebook-Nutzern und ihr Teil-Verhalten (englisch, 2016) Studie der Universität Lucca (Italien) bestätigte, dass neue Inhalte in Sozialen Netzwerken hauptsächlich in bestimmten homogenen Kreisen Auch wer in diesen Kreisen als bevorzugter Kontakt angezeigt wird, sortieren Soziale Netzwerke vor und greifen dazu auf Big Data zurück. Facebook etwa überprüft für den Rang der personalisierten »Freunde«-Liste jedes Nutzers, wie häufig man selbst mit einer Person interagiert, in wie vielen gemeinsamen Gruppen man ist, wie viele gemeinsame Freunde man hat und wie beliebt die Person bei gemeinsamen Freunden ist. Der genaue Algorithmus dahinter ist allerdings nicht bekannt. zirkulieren. Anders als bei traditionellen Nachrichten-Redaktionen erfahren diese Neuigkeiten aber keine professionelle Überprüfung und Einordnung.

  • Das Verhalten von Newsfeeds: Soziale Netzwerke sind heute vor allem ein wichtiger Kanal für die Kommunikation von Unternehmen. Wer eines davon mit »Gefällt mir« bedenkt, abonniert auch einen Teil der vom Unternehmen geteilten Inhalte. Doch längst nicht alle Beiträge erscheinen auch in den Zeitleisten der Abonnenten. Hier sortiert Facebook automatisch aus, Dabei liest Facebook aus, ob und wie häufig man bereits vorher mit einem Post des Autors interagiert hat. Wieder ist genaues über den Algorithmus mit Namen EdgeRank nicht bekannt, doch es spricht vieles für folgendes System: Ein Like erhöht die Chance, auch die nächsten Posts zu sehen. Wurde ein Post verborgen, senkt das die Chance. Ebenfalls eine Rolle spielen die Interaktionen anderer Personen. Wird ein Post besonders häufig ignoriert oder dagegen Beschwerde eingelegt, sinkt die Chance, dass er auch bei unbeteiligten Nutzern angezeigt wird. Außerdem sortiert Facebook die Art der Posts nach Erfahrungswerten. Wer besonders häufig Fotos teilt und mit »Gefällt mir« bedenkt, sieht mehr Fotos. je nachdem, wie der Leser sich vorher im Sozialen Netzwerk gegenüber den Beiträgen des Unternehmens verhalten hat – und was gerade im Dieser Artikel von BuzzFeedNews erklärt, wie der Trending-Algorithmus Falschmeldungen fördert (englisch, 2016) Trend ist.

  • Der Algorithmus: Dies wird zusätzlich von einem Algorithmus beeinflusst, der die Haltung des Nutzers ausliest. Er arbeitet im Hintergrund und sortiert Beiträge auch inhaltlich vor. Eine Die Studie untersuchte über 7 Millionen gepostete politische Internetseiten (englisch, 2015) Studie der Universität von Michigan bestätigte, dass Facebook je nach politischer Ausrichtung automatisch 5–8% der Beiträge herausfiltert, weil sie nicht zum eigenen Standpunkt passen – obwohl sie von Freunden geteilt wurden.

»Das persönliche Informationsuniversum, das Sie online bewohnen - einzigartig und nur für Sie aufgebaut von den personalisierten Filtern, die das Web jetzt antreiben.« – Eli Pariser

Kurz gesagt: Soziale Netzwerke sind dafür gemacht, dass wir uns dort wohl fühlen – und damit das so bleibt, bekommen wir aus allen Quellen eher das zu lesen, was uns tendenziell gefällt. Aus dem Blickwinkel der Betreiber gedacht eine schlaue Idee: Jedes »Gefällt mir«, jeder geteilte Beitrag, jeder Kommentar verändert das, was der Nutzer als Nächstes zu sehen bekommt. Und ergibt in der Gesamtheit ein Nutzerprofil, das wiederum ausgelesen werden kann – »Social Profiling« nennt sich das. Und hier kommt auch Datenschutz ins Spiel. Denn Firmen wie Cambridge Analytica lesen die Daten aus und verwenden sie zur politischen Einflussnahme. Wie erfolgreich das aktuell bereits ist, ist noch umstritten. Menschen fühlen sich einfach gut dabei, die eigene Meinung als Echo zurückgespielt zu bekommen.

Das gehört auch zur Strategie Sozialer Netzwerke wie Facebook – schließlich verdienen sie vor allem durch personalisierte Werbung. Für sich allein genommen ist das allerdings noch kein Problem, erklärt Müller-Lietzkow:

»Schädlich wird eine solche Präferenz-Wahl erst dadurch, dass jemandem durch die Steuerung der ihm zugeschobenen Informationen auch eine bestimmte Denkrichtung vermittelt wird. Dadurch kann ein sogenanntes Agenda-Setting entstehen.«

Der Begriff bezeichnet das Zusammenspiel von Medien und Politik. So geht die Theorie davon aus, dass Medien zwar nicht beeinflussen können, was das Publikum denkt, wohl aber, worüber es sich Gedanken macht, erklärt Müller-Lietzkow:

»Das Fatale daran ist ja nicht, dass ich mehr von dem Einen bekomme, sondern der Umkehrschluss, dass ich das Andere nicht mehr erhalte. Wenn ich meine Präferenzen regelmäßig manifestiere, nehme ich mir die Möglichkeit, eine Meinungsvielfalt gespiegelt zu bekommen – die eigentlich unsere Gesellschaft abbilden würde.«

Anders als bei traditionellen Nachrichten-Medien, die sich trotz Blattlinie Der Begriff stammt eigentlich aus dem Österreichischen und meint die politisch-weltanschauliche Ausrichtung des Mediums. Diese wird vom Herausgeber bestimmt und oftmals in einem Statut festgelegt. stets bemühen, auch immer wieder Kritiker und Gegenpositionen zu Wort kommen lassen, wird die Weltsicht durch Soziale Netzwerke eingeschränkt – zumindest, wenn man diese gewohnheitsmäßig als erste Anlaufstelle für Neuigkeiten nimmt.

Für mich und die Trump-Wahl heißt das: In meiner Echokammer wurden mir die kritischen Stimmen über Trumps politische Gegner und die positiven Stimmen über Trump kaum noch angezeigt. Reingefallen!

Doch damit bin ich nicht allein. Die Studie des Trendforschungsinstituts Pew Research Centre überprüfte die Mediengewohnheiten von US-Bürgern (englisch, 2015) Eine Studie aus dem Jahr 2015 ergab, dass 61% junger US-Amerikaner ihre politischen Nachrichten hauptsächlich über Soziale Netzwerke (Facebook) beziehen. Da Facebook zwei Drittel der US-Bürger erreicht, informiert das Netzwerk zusammengenommen 44% der US-Amerikaner über das Weltgeschehen. Dabei war Facebook bereits Anfang 2016 in die Kritik geraten, da die Rubrik »Nachrichtentrends« (Trending Topics) angeblich liberale Nachrichten bevorzugt hatte. Im Gegensatz dazu nimmt die Generation der Baby-Boomer (Alter 50+) politische Nachrichten nach wie vor allem über das Fernsehen wahr. Ein Ergebnis des Reuters Institute’s Digital News Report (englisch, 2016) 52% der Internetnutzer teilen Nachrichten sogar als Teil ihrer täglichen Routine weiter. Der künftige amerikanische Präsident Donald Trump ist das beste Beispiel für das Informations-Problem der Sozialen Netzwerke: So verbreitete er mehrfach während des Wahlkampfs Trump verbreitete im März 2016 eine Falschmeldung, die einen Protestler seiner Wahlveranstaltung mit ISIS in Verbindung brachte. Die Geschichte beim Business Insider (englisch) fragwürdige Informationen und erklärte, er habe sie aus dem Internet. Bei den Provokationen, den Reaktionen der Medien und Trumps Erklärungen könnte es sich natürlich auch um Kampagnen-Strategie gehandelt haben.

In Deutschland haben in den letzten 2 Jahren Soziale Netzwerke wie Facebook gedruckte Zeitungen als Nachrichtenquelle abgelöst. Weiter vorn: Das Fernsehen. –

Wer seine Kammer zum Bunker umbaut, lebt gefährlich

Was in den Echokammern vor allem fehlt, sind neue Perspektiven, die Meinungen herausfordern können. Dabei besteht die Gefahr, dass aus der Interessensgemeinschaft eine abgeschlossene Gemeinschaft wird. Doch was passiert genau, wenn Menschen tiefer in die Echokammer abtauchen und aus ihr ein abgeschotteter Echobunker wird?

Ich frage dazu Armin Scholl. Der Kommunikationswissenschaftler der Universität Münster forscht zu Gegenöffentlichkeiten, also Meinungsbildung jenseits der traditionellen Leit-Medien. Er erklärt:

»Das Phänomen gab es schon immer. Stammtische haben sich auch früher getroffen und eine abgeschlossene Meinung gebildet. Menschen haben nun mal eine ideologische Ausrichtung und suchen danach, diese zu verstärken.«

Was früher ab und zu in geschlossenen Gesellschaften eines Wirtshauses ausgesprochen wurde, geschieht heute täglich in den Nischen der Sozialen Netzwerke. Auch das ist ein Effekt des Internets. Es erleichtert Außenseitern, sich untereinander zu vernetzen und nach außen hin abzuschotten. Hierbei muss natürlich innerhalb der einzelnen Ideologien ein Unterschied gemacht werden. Das betont auch Armin Scholl. Er unterscheidet etwa zwischen abgeschlossenen Ideologien mit Alleingültigkeits-Anspruch (wie Fundamentalismus oder Rechtsradikalismus) und Ideologien, die offen für den Diskurs und neue Ideen bleiben. Armin Scholl analysiert den psychologischen Effekt:

»Gerade Außenseiter-Gruppierungen, die Positionen vertreten, die in der Minderheit sind, brauchen diese wechselseitige Selbstbestärkung, weil sie sonst nirgendwo Zustimmung bekommen.«

In diesen Echobunkern hört man nur noch sich selbst und nimmt anders lautende Öffentlichkeit gar nicht mehr wahr. Dadurch entsteht ein verkehrtes Weltbild: Das Eigene wird zum Allgemeingültigen; was in der Gesellschaft als allgemeingültig angesehen wird, wird als abnormal wahrgenommen. Dieser Anspruch der eigenen Wahrnehmung als Normalität manifestiert sich auch, so betont Armin Scholl, an einem überzogenen Repräsentations-Anspruch und den Glauben daran, für eine Mehrheit zu sprechen. Dass diese (meist) anti-liberalen Echokammern selbstverständlich nicht für eine pluralistische Gesellschaft sprechen können, ergibt sich dabei von selbst. So halten sich Gerüchte und Falschmeldungen Gezielte Falschmeldungen sind ein wichtiger Bestandteil, wenn es darum geht, die Weltbilder von Echobunkern aufrechtzuerhalten. Durch die Sozialen Medien erreichen sie dabei auch Personen außerhalb des Bunkers und machen diese erst sichtbar. Doch Falschmeldungen, »Meinungskorrektur« und Soziale Medien sind jeweils eigene Themen, die an dieser Stelle zu weit führen würden. in Echobunkern länger; Gegenreden finden kaum statt. Das bestärkt auch Verschwörungstheorien, inklusive Radikalisierung der Mitglieder. Wozu das führen kann, haben vor kurzem die selbsternannten Reichsbürger Die Reichbürgerbewegung ist keine einheitliche Bewegung, sondern umfasst mehrere (getrennt voneinander operierende) Gruppen mit teilweise sektenartiger Struktur. Sie verortet sich im Umfeld der rechtsextremen Szene in Deutschland mit starken Überschneidungen, zieht aber durch eine radikale Kapitalismus-Kritik auch Menschen anderer politischer Ausrichtung an. Seit 2010 treten sie verstärkt auf und verbreiten ihre Ideologie vor allem in einschlägigen Internet-Foren und in Sozialen Medien. Ihre Ideologie dreht sich um die Ablehnung der BRD und letztlich der Demokratie. Bei der Idee, Deutschland sei eine GmbH, wird ein blumiger Vergleich bestimmter Politiker und Satiriker zweckentfremdet und zu einer klassischen Verschwörungstheorie umgedeutet. Die Bewegung geriet in die Schlagzeilen, nachdem ein Mitglied der abgeschotteten Bewegung im Oktober einen Polizisten ermordet hatte. demonstriert.

Wer in der Gesellschaft mit seiner Meinung in der Minderheit ist, dreht den Spieß im Echobunker einfach um.

Ein solcher Echobunker muss allerdings aktiv aufrechterhalten werden und das kostet auf Dauer Mühe. In Sozialen Netzwerken mag eine 100%-ige Abschottung für eine Weile funktionieren – insbesondere wenn Neuigkeiten nur noch durch Quellen in einen solchen Bunker gelangen, die diese Inhalte bereits ideologisch vordeuten. Etwa durch berüchtigte Nachrichten-Blogs wie Halle-Leaks, die Nachrichten rechtsextrem umdeuten und dabei auch die Wahrheit für die Ideologie verbiegen. »Nachrichten« wie »Neue Vergewaltiger-Solidaritäts-Demo der Linken in Freiburg« oder »Afrikaner kommen zu uns, um Giraffen zu retten« enthalten bereits Hate-Speech, entbehren journalistischer Sorgfalt und dienen primär dazu, Leser innerhalb des Echobunkers aufzuwiegeln. Doch offline ist unsere Gesellschaft trotz digitaler Grüppchenbildung In der Kommunikationswissenschaft nennt sich der Effekt »Fragmentierung«. Ob und wie genau Soziale Medien unsere Welt tatsächlich fragmentieren, ist auch in der Kommunikationswissenschaft noch umstritten. Zumindest gibt es gegenteilige und parallel ablaufende Prozesse wie die Einbindung von Perspektiven. Eine Auswertung der Gerüchte-Verbreitung auf Twitter nach dem Amoklauf von München dieses Jahr ergab allerdings tatsächlich fragmentierte Kommunikationswege in Sozialen Netzwerken. immer noch stark verwoben und wirkt dem Effekt entgegen. Armin Scholl schränkt deshalb die Wirkung von Echobunkern ein:

»Zunächst versucht der Bunkerbewohner natürlich, widersprüchliche Informationen zu vermeiden. Wenn das nicht mehr möglich ist, müssen sie umgedeutet werden. Wenn auch das nicht mehr gelingt, werden andere Perspektiven durch Aggression emotional ausgeschlossen. Das alles wird ab einem gewissen Punkt natürlich absurd und funktioniert nur für eine sehr kleine Minderheit auf Dauer.«

Raus aus der Kammer – Schritt 1: Außenperspektiven suchen

Fassen wir zusammen: Echokammern verzerren die Weltsicht. Wenn wir Soziale Netzwerke als primäre Nachrichten-Quelle wählen, verleiten sie uns dazu, Ereignisse falsch zu bewerten. Echobunker sind anstrengend und sogar gefährlich. Eine radikale Konsequenz wäre nun, ganz zu verzichten. Doch das kommt für viele Digital Natives Als Digital Native bezeichnet man Personen, die mit dem Internet und den Möglichkeiten der Digitalen Welt aufgewachsen sind. Das Gegenteil sind »Digital Immigrants«, die den Umgang mit dem Internet erst im Erwachsenenalter erlernt haben. wie mich nicht in Frage. Auch Professor Armin Scholl betont das Potential:

»Soziale Netzwerke können sogar zur Pluralisierung beitragen – wenn man selbst dafür sorgt.«

Also begab ich mich nach der US-Wahl auf die Suche nach Maßnahmen, um meine Echokammer zum Einsturz zu bringen. Dies sind die wichtigsten Schritte: Den Start macht eine Analyse der eigenen Perspektive. Dafür braucht es aber den Kontakt mit herausfordernden Haltungen. Das ist auch die Taktik der britischen Tageszeitung The Guardian, die neuerdings mit der Rubrik Der Guardian will mit der Rubrik »Burst Your Bubble« die Perspektiven erweitern (englisch) »Burst your bubble« über konservative Blickwinkel informiert. Besonders nützlich sind Nachrichten, die schon durch ihren Standort und Fokus eine neue Perspektive mitbringen. So wie diese 5:

  • Der Standard.at: Der Online-Auftritt der Wiener Tageszeitung bietet einem Deutschen die Außen-Perspektive aus einem Nachbarstaat, häufig auch auf die deutsche Innenpolitik. Migrationsthemen und feministische Berichterstattung erhalten dabei besonderen Raum.
  • Dekoder.org: Herausgeber Martin Krohs hat In diesem Text erklärt Martin Krohs Russland für die Westentasche – anhand Macht, Volk und Intelligenzija bereits für Perspective Daily geschrieben. Sein eigenes Projekt übersetzt ausgewählte Beiträge russischer Journalisten und versieht diese mit einem Kommentar von europäischen Wissenschaftlern.
  • National Review: Die US-Zeitschrift einte einst die Republikaner und ist seitdem der konservativen Politik verpflichtet. Sie bietet Nachrichten und Kommentare mit individualistischer und traditionell christlicher Haltung.
  • Southern China Morning Post: Das Medium aus Hongkong verfolgt eine liberale Blattlinie und wirft einen eigenen und kritischen Blick auf den pazifischen Raum. Wichtig ist den Redakteuren vor allem die Eigenständigkeit von China.
  • Al-Jazeera: Der Sender wird aus Katar finanziert und vertritt eine amerikakritische Haltung. Er war der Sender des »Arabischen Frühlings« und betrachtet das Weltgeschehen aus arabischer Perspektive.

Raus aus der Echokammer – Schritt 2: Den Algorithmus umgehen

Nach der Selbstkontrolle der eigenen Haltung geht es an die Struktur des Sozialen Netzwerkes. Damit dieses nicht mehr so einseitig Ergebnisse filtert, muss der Algorithmus verwirrt werden. Dieser Punkt ist für den Medienwissenschaftler Jörg Müller-Lietzkow besonders wichtig, denn was die Maschine lernt, geht über das eigene Profil hinaus:

»Lernfähige Algorithmen verbinden Informationen durch unsere semantischen Verbindungen. Das ist ein Dilemma und betrifft nicht nur Facebook und Co., sondern auch Suchmaschinen wie Google. Wenn mir etwa etwas gefällt, was ein Politiker zu Familienpolitik sagt oder ich es gar teile, verbindet der Algorithmus den Politiker mehr mit Familienpolitik – auch für andere Suchanfragen, sprich Dritte sind von meinem Verhalten betroffen. In Zukunft sollten wir viel häufiger die Frage stellen: Was ist die Vernetzung, die dadurch entsteht, und wollen wir diese? Im Umkehrschluss, wer kann diese massiv beeinflussen?«

Was Müller-Lietzkow beschreibt, ist ein Problem im Aufbau der Digitalen Welt. Das Wissen darum kann aber dabei helfen, das eigene Verhalten zu ändern:

  • Anderen Haltungen folgen: »Gefällt mir« für Organisationen und Personen mit anderslautenden Meinungen können soziale Nachteile mit sich bringen. Damit sich Bekannte nicht wundern, warum man plötzlich Frauke-Petry-Fan ist, Helene Fischer hört oder angeblich einer Biker-Gang aus dem Ruhrgebiet beigetreten ist: Man muss solche Verbindungen im Profil nicht anzeigen lassen. Der Algorithmus bezieht sie trotzdem ein.
  • Informationen prüfen: Nicht auf Mark Zuckerberg warten, selbst machen! Informationen lassen sich überprüfen, bevor man selbst im Sozialen Netzwerk eine Falschmeldung verbreitet. Noch besser: Bei umstrittenen Haltungen direkt haltbare Gegenperspektiven mit-teilen. Auch das sorgt beim Algorithmus für Kopfzerbrechen.
  • Re-Freunden: Ein großer Teil der Struktur eines Sozialen Netzwerks entsteht über die Auswahl der Freunde. Warum nicht doch den entfernten Bekannten mit der unbequemen Meinung wieder einladen? So lässt sich das Netzwerk schnell ausgewogener gestalten.
  • Den eigenen Feed bewusster steuern: Jetzt kommt der schwierige Teil. Denn nun spülen häufiger provokante Meinungen in den Ticker des Sozialen Netzwerks. Wer hier nun auf »verbergen« oder »weniger anzeigen« drückt, gibt dem Algorithmus wieder falsche Signale. Lieber aneckende Meinungen auch mal aushalten.

Raus aus der Echokammer – Schritt 3: Andere Kammern öffnen

Der Kampf gegen die Echokammer hört für mich nicht bei der eigenen Perspektive auf. Denn wir alle stecken in unseren Echokammern fest. Gehen wir einen Schritt weiter!

  • Sensibilisieren: Ein Mittel, um gegen die Kammer vorzugehen, lautet »Sensibilisierung«. Das sagt auch eine Die Kenntnis von Filteralgorithmen verändert den Umgang mit sozialen Medien, zeigt diese Studie (englisch, 2015) Studie aus dem Jahr 2015. Sie bestätigte, dass allein die Aufklärung über die Funktionsweise des Algorithmus bei 83% der Teilnehmer zu einem bewussteren Umgang mit den eigenen Sozialen Netzwerken führte.
  • Produktive Konfrontation: Nur wer sich mit vielen verschiedenen Meinungen auseinandersetzt und diese bespricht, kann die Echokammern von anderen Menschen durchbrechen. Durch die Konfrontation mit einer anderen Haltung lässt sich auch die eigene überprüfen. Dazu muss man nicht gleich mit einem Fremden diskutieren. Gesprächspartner finden sich auch schon im eigenen Bekanntenkreis.
  • Korrektur von Falschmeldungen: Nicht alle Meinungen muss man tolerieren. Manche sind einfach faktisch falsch oder gar keine Meinung, sondern Beschimpfungen, also Unsere Gastautorin Larissa Schwedes erklärt, was Hassrede im Internet ausmacht und wie wir dagegen vorgehen können. »Hate-Speech«. Hier hilft nur: Korrigieren, Belege für Behauptungen verlangen und effektiv Counter-Speech betreiben – auch wenn man dabei selbst aneckt.

In einer Echokammer verlieren wir die Chance, über Meinungen und Ansichten zu stolpern, die uns herausfordern und inspirieren können.

Fazit: Soziale Netzwerke sind keine Nachrichten-Medien. Ein problematischer Umgang mit ihnen fängt nicht erst dort an, wo nur noch eine Meinung im Bunker herrscht. Er beginnt bereits, wenn wir aktiv nach der Bestärkung der eigenen Meinung suchen und uns mit dem Unvermeidlichsten anderer Perspektiven auseinandersetzen. Das ist es, was mir die Trump-Wahl gezeigt hat.

Bei der kommenden Bundestagswahl wird mein Soziales Netzwerk jedenfalls ein ganz anderes sein.

Titelbild: Ronja Schweer - copyright

 

Die Diskussionen sind leider nur für Mitglieder verfügbar.

Werde jetzt Mitglied!

Als Mitglied erhältst du deine tägliche Dosis neuer Perspektiven:
Statt Nachrichtenflut ein Beitrag pro Tag - verständlich, zukunftsorientiert, werbefrei!

Diesen Artikel schenkt dir das zahlende Mitglied Daniel Germer.

Jetzt Mitglied werden ›