Bist du sicher, dass alle deine Online-Freunde Menschen sind?
Die Bots sind unter uns. Automatische Programme können Kommentare schreiben und dir antworten. Als Netzwerk betreiben sie moderne Propaganda. So können wir uns davor schützen.
Sie Der Artikel »Die untote Bot-Armee« auf Spektrum.de (2017) »lauern in den Untiefen« sozialer Netzwerke – die Bots. Sie tarnen sich als echte Menschen und sind doch Computerprogramme. Einzeln sind sie unscheinbar, doch zusammen bilden sie eine Der Artikel »Wie Social Bots Wahlkämpfe beeinflussen« bei nordbayern.de (2017) »Digitale Armee« mit nur einem Ziel: Der Artikel »Social Bots: Die gezielte Manipulation aus dem Internet« bei der Aachener Zeitung (2017) »gezielte Manipulation aus dem Internet.« An den Fäden von geheimen »Bot-Mastern« sind sie die neuesten »perfiden Tricks« im Der Artikel »Die perfiden Tricks der Twitter-Bots« auf SRF (2017) Meinungskampf. Selbst Der Artikel »Wie digitale Dreckschleudern Meinung machen« auf »Spiegel Online« (2016) »die Kanzlerin hält sie für gefährlich.«
So etwa stellt sich das Bild von Bots dar, wenn man nur nach den reißerischen Überschriften des vergangenen Jahres zu diesem Thema geht. Bots garantieren Schlagzeilen. Tatsächlich In diesem offenen Brief warnen 9 Wissenschaftler vor den Auswirkungen der Digitalisierung auf die Demokratie (2015) warnen sogar einige Wissenschaftler vor ihrem schädlichen Einfluss auf die Demokratie. Angeblich sollen sie Dieses Paper untersucht den Einsatz von Twitter-Bots im Ukraine-Konflikt (englisch, 2016) in der Ukraine, Die Analyse zu Bots und der US-Wahl bei Motherboard.de (2017) bei der US-Wahl und dem Brexit Stimmung gemacht haben.
Doch wie das bei vielen Neuerungen im Digitalen Zeitalter ist: Der Effekt wird häufig überbewertet. Wie gefährlich sind diese Bots also wirklich? Und was sollten und können wir gerade gegen sie tun?

Das sind Bots wirklich
Ein »Bot« ist ein Computerprogramm, das automatisch Aufgaben abarbeitet.
Der Begriff
kommt von Roboter. Doch im Internet haben sie weder Zahnräder noch Batterien. Es handelt sich um Programme, die selbstständig handeln – und das ist nützlich. So entsteht etwa das Ergebnis jeder Suchanfrage bei Google durch die fleißige Arbeit des der das Internet nach Websites durchforstet, diese auswertet und ihre Inhalte indiziert. Andere Bots jedoch kommunizieren mit Menschen.Stufe 1: Der Chatbot: Stelle dir vor, du bist im Internet auf der Suche nach Informationen zum Thema »Geflüchtete«. Das kannst du seit Januar 2017 auch bei Zum Novibot von funk, dem jungen Angebot von ARD und ZDF (2017) Novi machen, dem der Tagesschau. In einem Chatfenster gibst du das Wort »Geflüchtete« als Thema ein und erhältst dann ausgewählte Novi verweist im Test etwa auf den Artikel »Familiennachzug – Gebremst umgesetzt« von Tagesschau.de (2017) Nachrichten-Links, Smileys und etwas Smalltalk. Novi gibt aber gleich zu Beginn der Unterhaltung zu,
Du willst mehr darüber wissen, wo Chatbots eingesetzt werden? Klick hier!
Chatbots werden heute vermehrt im Dienstleistungssektor eingesetzt, etwa bei Krankenkassen oder Versicherungen, um Personal zu sparen. Nachrichten-Chatbots sollen vor allem junge Menschen erreichen und mit Nachrichten versorgen. Dass es sich dabei nicht um Menschen am anderen Ende der Leitung handelt, ist klar. Es soll nur das Gefühl erzeugt werden, man interagiere mit einer Person – ohne zu täuschen. Sie können etwa häufige Fragen beantworten und sollen das Eine Analyse zu Chatbots vom Deutschen Fachverlag bei Marketing-Börse (2017) »Markenerlebnis steigern«. Und das kommt an: Nach einer Bitkom-Umfrage könnten sich Die Pressemeldung zur Bitkom-Umfrage über Chatbots (2017) 25% der Bundesbürger vorstellen, Chatbots zu nutzen. Auch Parteien springen auf den Trend auf und Hier testet Motherboard den CSU-Chatbot Leo (2017) entwickeln eigene Chatbots zur Wähler-Kommunikation.
Stufe 2: Der Soziale-Medien-Bot: Über das Thema »Geflüchtete« diskutierst du auch auf Facebook. Kurz darauf erhältst du eine Freundschaftsanfrage von
– Maria Wagenfeld
Ein Klick auf ihr Profil zeigt ein hübsches Foto, Hobbys und Hunderte Freunde. »Nett von ihr!«, du nimmst an. Das ist ja auch der Sinn von sozialen Medien: sich zu vernetzen. Maria hat auch eine klare Meinung zum Thema und postet regelmäßig Links zu kritischen Artikeln und klickt bei Kommentaren gegen Geflüchtete auf »Gefällt mir«. Doch auch Maria ist kein Mensch, sondern ein sogenannter Social Bot, ein Programm, das in sozialen Medien vorgibt, ein Mensch zu sein. Dass Maria nicht zugibt, ein Bot zu sein, und ahnungslose Menschen täuscht, ist Teil des Konzepts. Wer Maria betreibt und zu welchem Zweck, bleibt dabei im Dunkeln.
Du willst mehr darüber wissen, wo Social Bots herkommen? Klick hier!
Die Software, um solche Bots zu betreiben, ist nicht schwer zu programmieren. Auf Lust auf ein Partner-Upgrade? Hier erkläre ich die moderne Partnersuche im Netz Partnersuche-Netzwerke. Die Programmierer wollen nicht erkannt werden, denn der Einsatz von Social Bots verstößt gegen die AGBs der sozialen Netzwerke. Einmal gekauft, muss jeder Social Bot noch mit einer Datenbank verbunden werden, die vordefinierte Nachrichten enthält. Der Bot gibt sie dann bei bestimmten Auslösern aus. Diese Datenbank erstellt der sogenannte Bot-Master, also derjenige, der den Bot auch betreibt. Um einen Bot loszuwerden, muss man ihn nur entfreunden – oder darauf warten, dass er enttarnt und gelöscht wird.
finden sich die gängigen Programme dazu, die jeder kaufen und herunterladen kann. Für jedes soziale Netzwerk gibt es eigene Bots, zum Beispiel Twitter- und Facebook-Bots oder auch Bots fürStufe 3: Das Propaganda-Bot-Netz: Nach einigen Tagen stellst du fest, dass deine Facebook-Zeitleiste voll mit kritischen Anti-Geflüchteten-Beiträgen ist. Nicht nur Maria postet sie, sondern auch eine neue Gruppe, der du plötzlich und ungefragt angehörst. Maria hat dich einfach hinzugefügt. Dabei fällt auf, dass Maria und andere Mitglieder zeitgleich dieselben Beiträge teilen, Hinweise auf koordinierte Bot-Aktionen, ermittelt von der Facebook-Gruppe »Gegen die Alternative für Deutschland« (2016) mit exakt derselben Formulierung. Du bist einem Nun wirst du täglich mit einseitigen Nachrichten befeuert, die deine Meinung prägen sollen. Allein durch die hohe Post-Frequenz des Netzwerks werden Beiträge deiner echten Freunde oder In diesem Text erkläre ich, wie Echokammern auch ohne Bots funktionieren und wie du ihnen entkommst anderer Perspektiven in deiner Zeitleiste verdrängt. Dabei liest das Netzwerk wahrscheinlich auch deine Social-Media-Daten aus und stellt sie den unbekannten Forschern gelang es, mit Bots Facebook-Daten automatisiert einzusammeln (2011) Betreibern zur Verfügung.
Du willst mehr über die Funktionsweise von Bot-Netzwerken wissen? Klick hier!
Bot-Netzwerke posten über mehrere Social-Bot-Accounts dieselben Nachrichten und Links. Sie bestärken sich dabei auch gegenseitig durch die »Like« oder »Gefällt mir«-Option der sozialen Netzwerke. Dies manipuliert den Facebook-Algorithmus, denn der bevorzugt Beiträge mit hoher Interaktionsrate. Durch diese Strategie erhält der von einem Netzwerk geteilte Beitrag eine höhere Reichweite. Bei der Fernsehdebatte von Angela Merkel waren im Anschluss Bot-Netzwerke auf Twitter aktiv. Analysten schätzen: Jeder zehnte Beitrag zu Angela Merkel stammte von einem Bot. Dass viele Bot-Netzwerke vor allem politische Inhalte haben und Daten über Twitter-Bots im Bundestagswahlkampf der TU München (2017) bei Wahlen eingesetzt werden, ist logisch: Sie sind effektive Kanäle für automatisierte Propaganda. Auch US-Geheimdienste zeigten früh Eine wahrscheinlich von Hackern geleakte E-Mail von HB Gary Federal, einem den US-Sicherheitsbehörden nahestehenden Software-Unternehmen (2011) Interesse an dem Thema.
Das Ganze stammt nicht aus einem dystopischen Zukunftsroman, sondern passierte im Vorfeld der Bundestagswahl 2017 – obwohl Die Ablehnung von Social Bots als Statement der AfD (2016) alle Parteien beteuert hatten, Die F.A.Z. berichtet über den möglichen Einsatz von Bots in der AfD-Kampagne (2017) keine Social Bots einzusetzen.
Aufgedeckt wurde das durch den Satiriker Der Bericht zur Aktion von Shahak Shapira gegen AfD-Bot-Netz-Gruppen bei Wired (2017) Sein Team schleuste sich in 31 von Bots erstellte, geheime Facebook-Gruppen ein und machte diese öffentlich. Die Gruppen posteten vor allem AfD-Parteiwerbung und auch Ich erkläre hier das Phänomen der Fake News und was du darüber wissen musst Fake News. Viele Mitglieder beteuerten nachher verwundert, dass sie nicht einmal wussten, Teil dieser Gruppen zu sein.

Die politische Lösung: Warum verbieten wir Bots nicht einfach?
Bots als Service sind nützlich, doch bei Täuschung und Propaganda hört der Spaß auf. Das findet auch Christian Grimme vom Verbundprojekt PropStop. An der Universität Münster forscht er zum Thema Bots und verdeckter Propaganda im Internet. Er beschreibt den psychologischen Effekt auf alle Nutzer in sozialen Medien:
– Christian Grimme von PropStop
Die einfachste Lösung liegt auf der Hand: Bots per Gesetz verbieten und damit die Propaganda im Netz reduzieren. Was aber könnte ein neues Gesetz wirklich ändern und wen könnte es betreffen?
- Soziale Netzwerke? Bots verstoßen bereits gegen die AGBs von sozialen Netzwerken wie Facebook und diese Der Bericht zu Facebooks Fake-Account-Löschung im August auf MDR.de (2017) löschte Facebook Zehntausende Konten, die Spam oder Desinformation verbreitet haben. nichtmenschliche Profile zu isolieren und zu sperren. Erst im August
- Bot-Master? Obwohl die politische Richtung eines Propaganda-Bot-Netzwerks meist glasklar ist, lassen sich die Verantwortlichen kaum ermitteln. Über Fake-Profile und anonymisierte Internetverbindungen bleiben sie geheim. Oft werden sie aus dem Ausland betrieben und entziehen sich damit deutscher Gerichtsbarkeit.
- Programmierer? Die Programmierer von Social Bots lassen sich noch schlechter ermitteln. Sie verkaufen die Software im Darknet. Dort lässt sich zwar polizeilich mit hohem Aufwand verdeckt ermitteln. Doch »jeder mit Grundwissen in Informatik kann einen einfachen Bot programmieren«, sagt Christian Grimme.
- Alle Nutzer? Eine radikale Umsetzungsmöglichkeit eines Bot-Verbots wäre, alle Nutzer sozialer Medien dazu zu zwingen, sich auszuweisen. Doch das würde In diesem Artikel erkläre ich die Identitätspolitik in sozialen Netzwerken und warum Pseudonyme auch sinnvoll sind das Gefüge sozialer Medien erheblich stören und erfordern, den privaten Unternehmen empfindliche Daten zu übermitteln.
Ein Bot-Verbot wäre also vor allem eine symbolische Handlung ohne klare Umsetzbarkeit. Es würde viele Fragen aufwerfen und eben jenen politischen Kräften in die Hände spielen, die das Internet stärker kontrollieren, regulieren und überwachen wollen. Am Ende könnte ein politischer Schnellschuss stehen – wie etwa das heftig kritisierte und im Oktober 2017 in Kraft getretene
– das Facebook und Co. mit hohen Bußgeldern zum Löschen von Beiträgen zwingt.Auch Christian Grimme hält bei allem Gefahrenpotenzial ein schnelles Gesetz gegen Bots für schwierig und übereilt.
– Christian Grimme von PropStop
Christian Grimme hält die Angst vor »bösen, gefährlichen Bots« für zu einfach und wirbt für einen Perspektivenwechsel, denn die öffentliche Meinung zu beeinflussen, sei auch mit einer Twitter-Bot-Armee nicht leicht. Das sei eine »zu simple Vorstellung.«
Grimmes Team versuchte in eigenen Experimenten mit Bot-Netzwerken soziale Medien zu beeinflussen – mit mäßigem Erfolg. Nach seiner Einschätzung erfüllen Bots Nicht Bot-Netzwerke haben die US-Wahl entschieden, sondern wahrscheinlich der Brief von FBI-Direktor James Comey, wie Nate Silver auf FiveThirtyEight argumentiert (englisch, 2017) nur kleinere Rollen in einer langwierigen Propaganda-Gesamtstrategie. Sie können dabei helfen, und Während des Kanzler-TV-Duells versuchten rechtsnationale Gruppen mit Bots das Hashtag »Kanzlerduell« zu kapern, wie Buzzfeed ermittelte (2017) bestimmte Themen aufzublähen.
»Twitter ist eben nicht die Bundesrepublik. Das soziale Netzwerk bildet nur einen kleinen Teil aller Deutschen ab.«
Die eigentliche Gefahr besteht darin, dass vor allem Politiker und Journalisten soziale Medien als Abbild der Gesamtbevölkerung missverstehen und BBC-News analysierte, wie Social Bots Hashtags während und nach den Präsidentschaftsdebatten zwischen Trump und Clinton beeinflussten (englisch, 2016) künstlich aufgeblähte Themen aufgreifen und überinterpretieren. Dabei wirken sie – ganz im Sinne der Propaganda – als Trendsetter und Multiplikatoren.
Die individuelle Lösung: Warum bringen wir nicht jedem bei, Bots zu erkennen?
Verbot oder nicht – sie überhaupt zu erkennen, ist der Schlüssel, um gegen Bots vorzugehen. Simpel programmierte Social Bots zu erkennen, ist einfach. Bots aufzuspüren, ist schwierig. Vor allem Social Media-Accounts mit einer hohen Frequenz stehen unter Bot-Verdacht.
- Frequenz: Postet der Account Bot-Indikator nach The Computational Propaganda Project der Oxford University (englisch) 50 oder mehr Beiträge oder »Gefällt mir«-Angaben pro Tag?
- Reaktionszeit: Menschen müssen tippen, Bots nicht. Reagiert ein Account innerhalb unwahrscheinlich kurzer Zeit?
- Regelmäßigkeiten: Postet der Account regelmäßig zu immer denselben Zeiten?
- Menschliche Details: Hat der Account kein realistisches Profilbild, keine Freunde oder ist erst seit kurzer Zeit aktiv?
- Zusammenschaltung: Postet der Account zur selben Zeit denselben Inhalt wie andere Accounts?
- Anschlussfehler: Postet der Account unpassende Antworten auf Fragen in den Kommentaren, sodass der Anschluss unlogisch wirkt?
- Logikfehler: Argumentiert ein Account grob am Thema vorbei oder lässt er sich nicht auf Gespräche und Nachfragen ein?
»Auch der Twitter Account des Papstes ist wahrscheinlich automatisiert – das macht Franziskus doch nicht selbst. Und das weiß man auch.«
Das große Aber: Diese Indikatoren reichen heute nicht mehr aus. Bot-Netzwerke, die nur »Likes« verteilen, bleiben leicht unbemerkt. Moderne, gut programmierte Bots ahmen sogar menschliches Verhalten nach: Sie begehen absichtlich Tippfehler, halten Tabea Wilke von Botswatch im Gespräch mit MDR Kultur (2017) »Schlafenszeiten« ein und ändern zufällig ihr Verhalten. Andere moderne Bots sind Hybride zwischen Mensch und Maschine: Sie schlummern in Profilen von normalen Nutzern und werden zu bestimmten Zeiten oder Gelegenheiten angestellt, um als Social Bot oder Teil eines Propaganda-Bot-Netzwerks zu handeln.
Diese modernen und hochentwickelten Bots sind aufwendig zu programmieren und deutlich seltener als ihre »dummen« Verwandten. Um sie aufzuspüren, werden wiederum Computerprogramme eingesetzt, die auf maschinellem Lernen basieren – gute Bots jagen böse Bots als Katz-und-Maus-Spiel.
Ein Hindernis bei der Bot-Suche entsteht durch den Menschen: Moderne Bots unterscheiden sich kaum von politischen
also echten Menschen, die in sozialen Medien aufgeregt auf Schlagwörter reagieren und hauptsächlich Einzeiler-Parolen mit vielen abgeben. Dies könnte ein Grund sein, warum Bots so gut in Umgebungen mit politisch extremen Positionen passen und dort kaum auffallen. Wer kein Interesse an Argumenten hat und bloß Parolen raushaut, spielt am Ende nur den Bots in die Hände.
Die 4 wirksamsten Maßnahmen gegen Bots
Die Sorge um Bots ist durchaus nachvollziehbar – und die wissenschaftliche Forschung zu dem Thema steckt noch in den Kinderschuhen. Doch es ist auch keine Lösung, die Hände in den Schoß zu legen. So können wir es in Zukunft mit den Bots aufnehmen:
- Medien – mehr Aufklärung: Angst vor Propaganda-Bots gibt nur fragwürdigen Gesetzesvorhaben Rückenwind, die die Meinungsfreiheit bedrohen. Hier hilft unaufgeregte Aufklärung bei der Einschätzung der wirklichen Gefahr. Klar, dystopische Szenarien von der Weltherrschaft der Bots machen Spaß und bringen Klicks, doch Social Bots sind vor allem eines: automatisierte Propaganda. Und diese wird zumindest in Deutschland aktuell Anlass zu Panik sieht anders aus.
- Politik – öffentliche Ächtung und Cyberabwehr: Politiker und Parteien müssen klare Bekenntnisse gegen automatisierte Propaganda abgeben und sollten zur Rede gestellt werden, wenn sie nachweislich von Bot-Netzwerken profitieren. Botswatch wertet seit 2016 Bots und ihr Verhalten aus Botswatch können dabei analysieren, welche politischen Botschaften von Bots gesendet werden. Darüber hinaus muss überprüft werden, ob und in welchem Umfang wirksam sein kann. Zuletzt muss die deutsche Cyberabwehr und das Personal haben, um Wahlen im Inland effektiv vor Beeinflussung zu schützen. durch Maschinen darf kein Kavaliersdelikt werden. Beobachtungsprojekte wie
- Soziale Netzwerke – mehr Transparenz: Soziale Netzwerke wie Facebook suchen und löschen heute schon Social Bots. Doch sie ermöglichen mit ihren Plattformen gleichzeitig deren Einsatz. Zudem erschweren sie die Entwicklung einer technischen Lösung unnötig, weil sie ihre auf Bots bezogenen Daten nicht mit der Wissenschaft teilen oder nur verkaufen. Eine technologische Lösung kann zumindest helfen, Bots einzudämmen – wie bereits bei Spam-Mail. Deshalb lautet die wichtigste 2 Forscher des Oxford Internet Institute schrieben diesen offenen Brief an Facebook mit der Forderung nach mehr Transparenz (englisch, 2017) Forderung von Forschungsinitiativen: Transparenz.
- Wir alle – mehr Medienkompetenz: Wir müssen lernen, mit Informationen und ihren Quellen in sozialen Medien kritischer umzugehen. In der heutigen Cyber-Welt ist es eine Schlüsselfähigkeit, das Gesehene zu hinterfragen: Die in sozialen Medien geteilten Beiträge sind eben nicht unbedingt die Perspektive eines anderen Menschen. Ein einfacher Schritt in die richtige Richtung ist es schon einmal, nicht nur soziale Medien als Informationsquelle zu nutzen und sich genau anzuschauen, wen man als Freund bestätigt.
Die ideale Lösung gegen Bots wäre allerdings kein neues Gesetz oder Technologien, sondern eine aufgeklärte, politische Diskussionskultur, in der Maschinen keine Chance haben. Denn Social Bots werden erst mal Teil unseres digitalen Lebens bleiben.
Mit Illustrationen von Lucia Zamolo für Perspective Daily
Die Diskussionen sind leider nur für Mitglieder verfügbar.