Zurück zum Artikel

Links zum Artikel

Bist du sicher, dass alle deine Online-Freunde Menschen sind?

Die Bots sind unter uns. Automatische Programme können Kommentare schreiben und dir antworten. Als Netzwerk betreiben sie moderne Propaganda. So können wir uns davor schützen.

12. Oktober 2017  9 Minuten

Sie Der Artikel »Die untote Bot-Armee« auf Spektrum.de (2017) »lauern in den Untiefen« sozialer Netzwerke – die Bots. Sie tarnen sich als echte Menschen und sind doch Computerprogramme. Einzeln sind sie unscheinbar, doch zusammen bilden sie eine Der Artikel »Wie Social Bots Wahlkämpfe beeinflussen« bei nordbayern.de (2017) »Digitale Armee« mit nur einem Ziel: Der Artikel »Social Bots: Die gezielte Manipulation aus dem Internet« bei der Aachener Zeitung (2017) »gezielte Manipulation aus dem Internet.« An den Fäden von geheimen »Bot-Mastern« sind sie die neuesten »perfiden Tricks« im Der Artikel »Die perfiden Tricks der Twitter-Bots« auf SRF (2017) Meinungskampf. Selbst Der Artikel »Wie digitale Dreckschleudern Meinung machen« auf »Spiegel Online« (2016) »die Kanzlerin hält sie für gefährlich.«

So etwa stellt sich das Bild von Bots dar, wenn man nur nach den reißerischen Überschriften des vergangenen Jahres zu diesem Thema geht. Bots garantieren Schlagzeilen. Tatsächlich In diesem offenen Brief warnen 9 Wissenschaftler vor den Auswirkungen der Digitalisierung auf die Demokratie (2015) warnen sogar einige Wissenschaftler und Politiker SPD-Fraktionschef Thomas Oppermann warnte im Interview mit der Rheinischen Post vor Social Bots. vor ihrem schädlichen Einfluss auf die Demokratie. Angeblich sollen sie Dieses Paper untersucht den Einsatz von Twitter-Bots im Ukraine-Konflikt (englisch, 2016) in der Ukraine, Die Analyse zu Bots und der US-Wahl bei Motherboard.de (2017) bei der US-Wahl und dem Brexit Stimmung gemacht haben.

Doch wie das bei vielen Neuerungen im Digitalen Zeitalter ist: Der Effekt wird häufig überbewertet. Wie gefährlich sind diese Bots also wirklich? Und was sollten und können wir gerade gegen sie tun?

Das sind Bots wirklich

Ein »Bot« ist ein Computerprogramm, das automatisch Aufgaben abarbeitet.

Der Begriff »Bot« Eine wissenschaftliche Definition von Bots aus dem Verbundprojekt PropStop: Bots sind teilautonom agierende digitale Agenten, die mit Menschen in Onlinemedien über die Schnittstelle Kommunikation sozial interagieren. Davon abzugrenzen sind digitale Assistenten wie Microsofts Cortana. kommt von Roboter. Doch im Internet haben sie weder Zahnräder noch Batterien. Es handelt sich um Programme, die selbstständig handeln – und das ist nützlich. So entsteht etwa das Ergebnis jeder Suchanfrage bei Google durch die fleißige Arbeit des Googlebots, Googlebot ist ein sogenannter »Crawler« oder »Webcrawler« und bei Weitem nicht der einzige. Andere Crawler-Bots sammeln beispielsweise E-Mail-Adressen oder durchsuchen das Internet in speziellem Auftrag nach ganz bestimmten Inhalten. Der erste Crawler entstand 1993 mit dem namensgebenden »Webcrawler«, welcher das Wachstum des damals noch jungen Internets messen sollte. der das Internet nach Websites durchforstet, diese auswertet und ihre Inhalte indiziert. Andere Bots jedoch kommunizieren mit Menschen.

Stufe 1: Der Chatbot: Stelle dir vor, du bist im Internet auf der Suche nach Informationen zum Thema »Geflüchtete«. Das kannst du seit Januar 2017 auch bei Zum Novibot von funk, dem jungen Angebot von ARD und ZDF (2017) Novi machen, dem Chatbot 1965 entwickelte der IT-Experte Joseph Weizenbaum ELIZA, die erste Software, die rudimentär mit einem Menschen kommunizieren konnte. Heute werden die weiterentwickelten »Chatbots« bei Hotlines und Kundendialogsystemen eingesetzt, um typische Fragen abzufangen und erst bei ungewöhnlichen Fragen menschliche Ansprechpartner hinzuzuschalten. der Tagesschau. In einem Chatfenster gibst du das Wort »Geflüchtete« als Thema ein und erhältst dann ausgewählte Novi verweist im Test etwa auf den Artikel »Familiennachzug – Gebremst umgesetzt« von Tagesschau.de (2017) Nachrichten-Links, Smileys und etwas Smalltalk. Novi gibt aber gleich zu Beginn der Unterhaltung zu, dass er ein Bot ist. »Hey! Ich bin Novi – dein Nachrichtenbot.«

Du willst mehr darüber wissen, wo Chatbots eingesetzt werden? Klick hier!

Chatbots werden heute vermehrt im Dienstleistungssektor eingesetzt, etwa bei Krankenkassen oder Versicherungen, um Personal zu sparen. Nachrichten-Chatbots sollen vor allem junge Menschen erreichen und mit Nachrichten versorgen. Dass es sich dabei nicht um Menschen am anderen Ende der Leitung handelt, ist klar. Es soll nur das Gefühl erzeugt werden, man interagiere mit einer Person – ohne zu täuschen. Sie können etwa häufige Fragen beantworten und sollen das Eine Analyse zu Chatbots vom Deutschen Fachverlag bei Marketing-Börse (2017) »Markenerlebnis steigern«. Und das kommt an: Nach einer Bitkom-Umfrage könnten sich Die Pressemeldung zur Bitkom-Umfrage über Chatbots (2017) 25% der Bundesbürger vorstellen, Chatbots zu nutzen. Auch Parteien springen auf den Trend auf und Hier testet Motherboard den CSU-Chatbot Leo (2017) entwickeln eigene Chatbots zur Wähler-Kommunikation.

Stufe 2: Der Soziale-Medien-Bot: Über das Thema »Geflüchtete« diskutierst du auch auf Facebook. Kurz darauf erhältst du eine Freundschaftsanfrage von »Maria Wagenfeld«. »Maria Wagenfeld« ist keine Erfindung. Bis zu ihrer Löschung hieß so ein Bot-Profil, das Pro-AfD-Propaganda verbreitete und sogar der F.A.Z. auffiel.

Hey, ich habe gesehen, du ärgerst dich auch über Flüchtlingspolitik? Lass uns mal quatschen. – Maria Wagenfeld

Ein Klick auf ihr Profil zeigt ein hübsches Foto, Hobbies und Hunderte Freunde. »Nett von ihr!«, du nimmst an. Das ist ja auch der Sinn von sozialen Medien: sich zu vernetzen. Maria hat auch eine klare Meinung zum Thema und postet regelmäßig Links zu kritischen Artikeln und klickt bei Kommentaren gegen Geflüchtete auf »Gefällt mir«. Doch auch Maria ist kein Mensch, sondern ein sogenannter Social Bot, ein Programm, das in sozialen Medien vorgibt, ein Mensch zu sein. Dass Maria nicht zugibt, ein Bot zu sein, und ahnungslose Menschen täuscht, ist Teil des Konzepts. Wer Maria betreibt und zu welchem Zweck, bleibt dabei im Dunkeln.

Du willst mehr darüber wissen, wo Social Bots herkommen? Klick hier!

Die Software, um solche Bots zu betreiben, ist nicht schwer zu programmieren. Auf Websites im Darknet Einem nicht von Google indizierten Bereich des Internets, in dem auch illegale Waren und Dienstleistungen gehandelt werden. Ein Überblick über die Angebote des Darknet-Marktes zur Meinungsmanipulation in sozialen Medien. finden sich die gängigen Programme dazu, die jeder kaufen und herunterladen kann. Für jedes soziale Netzwerk gibt es eigene Bots, zum Beispiel Twitter- und Facebook-Bots oder auch Bots für Lust auf ein Partner-Upgrade? Hier erkläre ich die moderne Partnersuche im Netz Partnersuche-Netzwerke. Die Programmierer wollen nicht erkannt werden, denn der Einsatz von Social Bots verstößt gegen die AGBs der sozialen Netzwerke. Einmal gekauft, muss jeder Social Bot noch mit einer Datenbank verbunden werden, die vordefinierte Nachrichten enthält. Der Bot gibt sie dann bei bestimmten Auslösern aus. Diese Datenbank erstellt der sogenannte Bot-Master, also derjenige, der den Bot auch betreibt. Um einen Bot loszuwerden, muss man ihn nur entfreunden – oder darauf warten, dass er enttarnt und gelöscht wird.

Stufe 3: Das Propaganda-Bot-Netz: Nach einigen Tagen stellst du fest, dass deine Facebook-Zeitleiste voll mit kritischen Anti-Geflüchteten-Beiträgen ist. Nicht nur Maria postet sie, sondern auch eine neue Gruppe, der du plötzlich und ungefragt angehörst. Maria hat dich einfach hinzugefügt. Dabei fällt auf, dass Maria und andere Mitglieder zeitgleich dieselben Beiträge teilen, Hinweise auf koordinierte Bot-Aktionen, ermittelt von der Facebook-Gruppe »Gegen die Alternative für Deutschland« (2016) mit exakt derselben Formulierung. Du bist einem Bot-Netz ins Netz gegangen. Bot-Netze oder Bot-Netzwerke können Hunderttausende Fake-Accounts umfassen. Sie werden zentral über ein Programm gesteuert. Sie können sogar als ganzes Netzwerk im Darknet gekauft oder gemietet werden. Der Preis ist verlockend: Dirk Helbing der ETH Zürich schätzt ihn auf 1.000 Euro für 100.000 Bots. Nun wirst du täglich mit einseitigen Nachrichten befeuert, die deine Meinung prägen sollen. Allein durch die hohe Post-Frequenz des Netzwerks werden Beiträge deiner echten Freunde oder In diesem Text erkläre ich, wie Echokammern auch ohne Bots funktionieren und wie du ihnen entkommst anderer Perspektiven in deiner Zeitleiste verdrängt. Dabei liest das Netzwerk wahrscheinlich auch deine Social-Media-Daten aus und stellt sie den unbekannten Forschern gelang es, mit Bots Facebook-Daten automatisiert einzusammeln (2011) Betreibern zur Verfügung.

Du willst mehr über die Funktionsweise von Bot-Netzwerken wissen? Klick hier!

Bot-Netzwerke posten über mehrere Social-Bot-Accounts dieselben Nachrichten und Links. Sie bestärken sich dabei auch gegenseitig durch die »Like« oder »Gefällt mir«-Option der sozialen Netzwerke. Dies manipuliert den Facebook-Algorithmus, denn der bevorzugt Beiträge mit hoher Interaktionsrate. Durch diese Strategie erhält der von einem Netzwerk geteilte Beitrag eine höhere Reichweite. Bei der Fernsehdebatte von Angela Merkel waren im Anschluss Bot-Netzwerke auf Twitter aktiv. Analysten schätzen: Jeder zehnte Beitrag zu Angela Merkel stammte von einem Bot. Dass viele Bot-Netzwerke vor allem politische Inhalte haben und Daten über Twitter-Bots im Bundestagswahlkampf der TU München (2017) bei Wahlen eingesetzt werden, ist logisch: Sie sind effektive Kanäle für automatisierte Propaganda. Auch US-Geheimdienste zeigten früh Eine wahrscheinlich von Hackern geleakte E-Mail von HB Gary Federal, einem den US-Sicherheitsbehörden nahestehenden Software-Unternehmen (2011) Interesse an dem Thema.

Das Ganze stammt nicht aus einem dystopischen Zukunftsroman, sondern passierte im Vorfeld der Bundestagswahl 2017 – obwohl Die Ablehnung von Social Bots als Statement der AfD (2016) alle Parteien beteuert hatten, Die F.A.Z. berichtet über den möglichen Einsatz von Bots in der AfD-Kampagne (2017) keine Social Bots einzusetzen. Aufgedeckt wurde das durch den Satiriker Shahak Shapira. Shahak Shapira ist ein in Berlin lebender israelischer Satiriker und Künstler. Er veröffentlicht regelmäßig Artikel für DIE ZEIT, Stern.de und Vice. Bekannt ist er durch seine Yolocaust-Aktion, in der er Anfang 2017 Selfies von Personen am Denkmal für die ermordeten Juden Europas in Berlin mit Fotomaterial aus den NS-Vernichtungslagern kombinierte. Die Aktion löste eine internationale Debatte über die Erinnerungskultur an den Holocaust aus.

Shahak Shapira ist Mitglied in der Satirepartei DIE PARTEI und wurde dort im »Schattenkabinett« für den Posten »Beauftragter für Neue Medien« vorgeschlagen.
Der Bericht zur Aktion von Shahak Shapira gegen AfD-Bot-Netz-Gruppen bei Wired (2017) Sein Team schleuste sich in 31 von Bots erstellte, geheime Facebook-Gruppen ein und machte diese öffentlich. Die Gruppen posteten vor allem AfD-Parteiwerbung und auch Ich erkläre hier das Phänomen der Fake News und was du darüber wissen musst Fake News. Viele Mitglieder beteuerten nachher verwundert, dass sie nicht einmal wussten, Teil dieser Gruppen zu sein. Sie hielten die Bots für echte Menschen. Mit etwas Medienkompetenz ist es natürlich leicht, ein auffälliges Post-Verhalten und eine spontane Veränderung der eigenen Timeline als künstlich zu identifizieren und die politische Schlagrichtung zu erkennen. Es wäre zu einfach, die Verantwortung hier ganz auf die Programme abzuschieben: Manche Mitglieder solcher Bot-Gruppen wollen von Bots verführt werden.

Die politische Lösung: Warum verbieten wir Bots nicht einfach?

Bots als Service sind nützlich, doch bei Täuschung und Propaganda hört der Spaß auf. Das findet auch Christian Grimme vom Verbundprojekt PropStop. An der Universität Münster forscht er zum Thema Bots und verdeckter Propaganda im Internet. Er beschreibt den psychologischen Effekt auf alle Nutzer in sozialen Medien:

Social Bots erzeugen Unsicherheit und Angst. Denn ich kann mir mit Social Bots nicht mehr sicher sein, ob mein Gegenüber ein Mensch ist oder eine Maschine. – Christian Grimme von PropStop

Die einfachste Lösung liegt auf der Hand: Bots per Gesetz verbieten und damit die Propaganda im Netz reduzieren. Was aber könnte ein neues Gesetz wirklich ändern und wen könnte es betreffen?

  • Soziale Netzwerke? Bots verstoßen bereits gegen die AGBs von sozialen Netzwerken wie Facebook und diese arbeiten bereits intern daran, Facebook und andere soziale Netzwerke löschen Fake-Accounts unter Bot-Verdacht mittlerweile nicht mehr direkt. Sie leiten sie in eigene virtuelle Umgebungen mit anderen Fake-Accounts um – gewissermaßen wie eine Quarantäne. Dort unterhalten sich die Social Bots quasi miteinander und interagieren nicht mehr mit echten Nutzern. Die Mühe des Bot-Masters läuft so ins Leere, ohne dass er es direkt bemerkt. nichtmenschliche Profile zu isolieren und zu sperren. Erst im August Der Bericht zu Facebooks Fake-Account-Löschung im August auf MDR.de (2017) löschte Facebook Zehntausende Konten, die Spam oder Desinformation verbreitet haben.
  • Bot-Master? Obwohl die politische Richtung eines Propaganda-Bot-Netzwerks meist glasklar ist, lassen sich die Verantwortlichen kaum ermitteln. Über Fake-Profile und anonymisierte Internetverbindungen bleiben sie geheim. Oft werden sie aus dem Ausland betrieben und entziehen sich damit deutscher Gerichtsbarkeit.
  • Programmierer? Die Programmierer von Social Bots lassen sich noch schlechter ermitteln. Sie verkaufen die Software im Darknet. Dort lässt sich zwar polizeilich mit hohem Aufwand verdeckt ermitteln. Doch »jeder mit Grundwissen in Informatik kann einen einfachen Bot programmieren«, sagt Christian Grimme.
  • Alle Nutzer? Eine radikale Umsetzungsmöglichkeit eines Bot-Verbots wäre, alle Nutzer sozialer Medien dazu zu zwingen, sich auszuweisen. Doch das würde In diesem Artikel erkläre ich die Identitätspolitik in sozialen Netzwerken und warum Pseudonyme auch sinnvoll sind das Gefüge sozialer Medien erheblich stören und erfordern, den privaten Unternehmen empfindliche Daten zu übermitteln.

Ein Bot-Verbot wäre also vor allem eine symbolische Handlung ohne klare Umsetzbarkeit. Es würde viele Fragen aufwerfen und eben jenen politischen Kräften in die Hände spielen, die das Internet stärker kontrollieren, regulieren und überwachen wollen. Am Ende könnte ein politischer Schnellschuss stehen – wie etwa das heftig kritisierte und im Oktober 2017 in Kraft getretene »Netzwerkdurchsetzungsgesetz« Das umstrittene Netzwerkdurchsetzungsgesetz (NetzDG) gilt als politischer Schnellschuss im Wahljahr 2017. Damit sind nicht mehr deutsche Gerichte, sondern automatische Filter des Unternehmens für zensierte Beiträge und Meinungen zuständig. Hohe Bußgelder dürften dazu führen, dass Facebook lieber zu viel als zu wenig sperrt und damit die Meinungsfreiheit einschränkt. Diverse Digitalverbände, Medienrechtler, Bürgerrechtler sowie Stiftungen, Netzaktivisten, Journalisten- und Wirtschaftsverbände warnten vor dem Gesetz. Trotzdem trat es am 1.10.2017 in Deutschland in Kraft. – das Facebook und Co. mit hohen Bußgeldern zum Löschen von Beiträgen zwingt.

Auch Christian Grimme hält bei allem Gefahrenpotenzial ein schnelles Gesetz gegen Bots für schwierig und übereilt.

Diese Diskussion gab es schon beim Thema Spam-Mails. Wir sind aktuell noch nicht sicher, ob Bots gesellschaftliche Auswirkungen haben. Dazu fehlt uns die Datengrundlage. Was sie können, ist polarisieren, wie bei der US-Wahl. Hillary oder Trump. Ja oder nein. In Deutschland haben wir diese Art von Entscheidungen aber selten. – Christian Grimme von PropStop

Christian Grimme hält die Angst vor »bösen, gefährlichen Bots« für zu einfach und wirbt für einen Perspektivenwechsel, denn die öffentliche Meinung zu beeinflussen, sei auch mit einer Twitter-Bot-Armee nicht leicht. Das sei eine »zu simple Vorstellung.«

Grimmes Team versuchte in eigenen Experimenten mit Bot-Netzwerken soziale Medien zu beeinflussen – mit mäßigem Erfolg. Nach seiner Einschätzung erfüllen Bots Nicht Bot-Netzwerke haben die US-Wahl entschieden, sondern wahrscheinlich der Brief von FBI-Direktor James Comey, wie Nate Silver auf FiveThirtyEight argumentiert (englisch, 2017) nur kleinere Rollen in einer langwierigen Propaganda-Gesamtstrategie. Sie können dabei helfen, ein Meinungsbild leicht zu verzerren Dies passiert vor allem dadurch, dass Bot-Netzwerke ein Interesse an Themen simulieren, die ohne diese Bot-Unterstützung kaum solche Reichweite hätten. Die eigentliche Änderung der öffentlichen Meinung findet aber durch glaubwürdige Trendsetter und Multiplikatoren statt. Diese werden dann wieder durch Bot-Netzwerke verstärkt, bis andere Multiplikatoren aufspringen. und Während des Kanzler-TV-Duells versuchten rechtsnationale Gruppen mit Bots das Hashtag »Kanzlerduell« zu kapern, wie Buzzfeed ermittelte (2017) bestimmte Themen aufzublähen.

»Twitter ist eben nicht die Bundesrepublik. Das soziale Netzwerk bildet nur einen kleinen Teil aller Deutschen ab.«

Die eigentliche Gefahr besteht darin, dass vor allem Politiker und Journalisten soziale Medien als Abbild der Gesamtbevölkerung missverstehen und BBC-News analysierte, wie Social Bots Hashtags während und nach den Präsidentschaftsdebatten zwischen Trump und Clinton beeinflussten (englisch, 2016) künstlich aufgeblähte Themen aufgreifen und überinterpretieren. Dabei wirken sie – ganz im Sinne der Propaganda – als Trendsetter und Multiplikatoren.

Die individuelle Lösung: Warum bringen wir nicht jedem bei, Bots zu erkennen?

Verbot oder nicht – sie überhaupt zu erkennen, ist der Schlüssel, um gegen Bots vorzugehen. Simpel programmierte Social Bots zu erkennen, ist einfach. Bots aufzuspüren, ist schwierig. Vor allem Social Media-Accounts mit einer hohen Frequenz stehen unter Bot-Verdacht.

  • Frequenz: Postet der Account Bot-Indikator nach The Computational Propaganda Project der Oxford University (englisch) 50 oder mehr Beiträge oder »Gefällt mir«-Angaben pro Tag?
  • Reaktionszeit: Menschen müssen tippen, Bots nicht. Reagiert ein Account innerhalb unwahrscheinlich kurzer Zeit?
  • Regelmäßigkeiten: Postet der Account regelmäßig zu immer denselben Zeiten?
  • Menschliche Details: Hat der Account kein realistisches Profilbild, keine Freunde oder ist erst seit kurzer Zeit aktiv?
  • Zusammenschaltung: Postet der Account zur selben Zeit denselben Inhalt wie andere Accounts?
  • Anschlussfehler: Postet der Account unpassende Antworten auf Fragen in den Kommentaren, sodass der Anschluss unlogisch wirkt?
  • Logikfehler: Argumentiert ein Account grob am Thema vorbei oder lässt er sich nicht auf Gespräche und Nachfragen ein?

»Auch der Twitter Account des Papstes ist wahrscheinlich automatisiert – das macht Franziskus doch nicht selbst. Und das weiß man auch.«

Das große Aber: Diese Indikatoren reichen heute nicht mehr aus. Bot-Netzwerke, die nur »Likes« verteilen, bleiben leicht unbemerkt. Moderne, gut programmierte Bots ahmen sogar menschliches Verhalten nach: Sie begehen absichtlich Tippfehler, halten Tabea Wilke von Botswatch im Gespräch mit MDR Kultur (2017) »Schlafenszeiten« ein und ändern zufällig ihr Verhalten. Andere moderne Bots sind Hybride zwischen Mensch und Maschine: Sie schlummern in Profilen von normalen Nutzern und werden zu bestimmten Zeiten oder Gelegenheiten angestellt, um als Social Bot oder Teil eines Propaganda-Bot-Netzwerks zu handeln.

Diese modernen und hochentwickelten Bots sind aufwendig zu programmieren und deutlich seltener als ihre »dummen« Verwandten. Um sie aufzuspüren, werden wiederum Computerprogramme eingesetzt, die auf maschinellem Lernen basieren – gute Bots jagen böse Bots als Katz-und-Maus-Spiel.

Ein Hindernis bei der Bot-Suche entsteht durch den Menschen: Moderne Bots unterscheiden sich kaum von politischen Trollen, Trolle nennt man Teilnehmer im Internet, die nicht an einem konstruktiven Gespräch interessiert sind, sondern destruktiv versuchen, Diskussionen im Netz zu stören. Dies kann aus emotionalem Impuls heraus oder aus Vergnügen an Zwist und Unfug passieren. Manchmal schließen sich Trolle zu eigenen Gruppen zusammen, die gemeinsam störend handeln. also echten Menschen, die in sozialen Medien aufgeregt auf Schlagwörter reagieren und hauptsächlich Einzeiler-Parolen mit vielen Smileys Smileys signalisieren Emotionen, die wir normalerweise mit Menschen assoziieren. abgeben. Dies könnte ein Grund sein, warum Bots so gut in Umgebungen mit politisch extremen Positionen passen und dort kaum auffallen. Wer kein Interesse an Argumenten hat und bloß Parolen raushaut, spielt am Ende nur den Bots in die Hände.

Die 4 wirksamsten Maßnahmen gegen Bots

Die Sorge um Bots ist durchaus nachvollziehbar – und die wissenschaftliche Forschung zu dem Thema steckt noch in den Kinderschuhen. Doch es ist auch keine Lösung, die Hände in den Schoß zu legen. So können wir es in Zukunft mit den Bots aufnehmen:

  1. Medien – mehr Aufklärung: Angst vor Propaganda-Bots gibt nur fragwürdigen Gesetzesvorhaben Rückenwind, die die Meinungsfreiheit bedrohen. Hier hilft unaufgeregte Aufklärung bei der Einschätzung der wirklichen Gefahr. Klar, dystopische Szenarien von der Weltherrschaft der Bots machen Spaß und bringen Klicks, doch Social Bots sind vor allem eines: automatisierte Propaganda. Und diese wird zumindest in Deutschland aktuell kaum eingesetzt. 7–10% der Accounts, die sich bei Twitter zur Rede von Angela Merkel auf dem CDU-Parteitag äußerten, könnten Social Bot gewesen sein – das geht aus Analysen von Botswatch und PropStop hervor. Doch Twitter ist an sich für sein hohes Bot-Aufkommen bekannt – die Beschränkung der Nachrichten auf 140 Zeichen macht es Bots besonders leicht, unerkannt zu bleiben. Und immerhin waren über 90% der beteiligten Nutzer echte Menschen. Anlass zu Panik sieht anders aus.
  2. Politik – öffentliche Ächtung und Cyberabwehr: Politiker und Parteien müssen klare Bekenntnisse gegen automatisierte Propaganda abgeben und sollten zur Rede gestellt werden, wenn sie nachweislich von Bot-Netzwerken profitieren. »Meinungskorrektur« Ein beliebter Begriff in der rechtsnationalen und rechtsextremen Szene. Er wird vor allem für Sperrungen von auffälligen Accounts verwendet. Im Gegensatz dazu handelt es sich bei Social-Bot-Netzwerken tatsächlich um Versuche, die öffentliche Meinung in die gewünschte Richtung zu »korrigieren«. durch Maschinen darf kein Kavaliersdelikt werden. Beobachtungsprojekte wie Botswatch wertet seit 2016 Bots und ihr Verhalten aus Botswatch können dabei analysieren, welche politischen Botschaften von Bots gesendet werden. Darüber hinaus muss überprüft werden, ob und in welchem Umfang ein (auch symbolisches) Gesetz gegen Bots Aktuell enthält das geltende Rundfunkrecht der Länder keine ausdrückliche Regelung zum Einsatz von Bots in sozialen Netzwerken. Politische Ideen sind durchaus da – so forderte etwa Katrin Göring-Eckardt von den Grünen eine »Kennzeichnungspflicht« für Social Bots. Jörg Ukrow vom Institut für europäisches Medienrecht fordert Rahmenbedingungen für eine »regulierte Selbstregulierung.« Die Umsetzbarkeit steht auf einem anderen Blatt. wirksam sein kann. Zuletzt muss die deutsche Cyberabwehr die Mittel Wie diese Mittel aussehen, ob Unternehmen wie Facebook auch dem Staat Daten übergeben müssen und welche, ist eine wichtige Frage. Klar ist nur: Wir sollten alle ein Interesse daran haben, dass unser Staat effektiv Bot-Netzwerke sprengen kann, die versuchen, unsere Demokratie zu manipulieren und Wahlen zu beeinflussen. Damit wären wir aber beim Thema Cyberkriegsführung und das würde diesen Text sprengen. und das Personal haben, um Wahlen im Inland effektiv vor Beeinflussung zu schützen.
  3. Soziale Netzwerke – mehr Transparenz: Soziale Netzwerke wie Facebook suchen und löschen heute schon Social Bots. Doch sie ermöglichen mit ihren Plattformen gleichzeitig deren Einsatz. Zudem erschweren sie die Entwicklung einer technischen Lösung unnötig, weil sie ihre auf Bots bezogenen Daten nicht mit der Wissenschaft teilen oder nur verkaufen. Eine technologische Lösung kann zumindest helfen, Bots einzudämmen – wie bereits bei Spam-Mail. Deshalb lautet die wichtigste 2 Forscher des Oxford Internet Institute schrieben diesen offenen Brief an Facebook mit der Forderung nach mehr Transparenz (englisch, 2017) Forderung von Forschungsinitiativen: Transparenz.
  4. Wir alle – mehr Medienkompetenz: Wir müssen lernen, mit Informationen und ihren Quellen in sozialen Medien kritischer umzugehen. In der heutigen Cyber-Welt ist es eine Schlüsselfähigkeit, das Gesehene zu hinterfragen: Die in sozialen Medien geteilten Beiträge sind eben nicht unbedingt die Perspektive eines anderen Menschen. Ein einfacher Schritt in die richtige Richtung ist es schon einmal, nicht nur soziale Medien als Informationsquelle zu nutzen und sich genau anzuschauen, wen man als Freund bestätigt.

Die ideale Lösung gegen Bots wäre allerdings kein neues Gesetz oder Technologien, sondern eine aufgeklärte, politische Diskussionskultur, in der Maschinen keine Chance haben. Denn Social Bots werden erst mal Teil unseres digitalen Lebens bleiben.

Mit Illustrationen von Lucia Zamolo für Perspective Daily

von Dirk Walbrühl 

Dirk ist ein Internetbewohner der ersten Generation. Ihn faszinieren die Möglichkeiten und die noch junge Kultur der digitalen Welt, mit all ihren Fallstricken. Als Germanist ist er sich sicher: Was wir heute posten und chatten, formt das, was wir morgen sein werden. Die Schnittstellen zu unserer Zukunft sind online.

Themen:  Internet   Politik  

Die Diskussionen sind leider nur für Mitglieder verfügbar.

Weitere Artikel für dich