Fake-Fotos fluten das Internet. Was hilft?
Künstliche Intelligenz macht digitale Lügen leichter. Die EU hat schon ein neues Gesetz dagegen parat. Doch das reicht nicht.
Es ist ein überraschend sympathisches Bild, das von Ex-Präsident Donald Trump vor einer Woche in sozialen Netzwerken geteilt wurde. Trump lächelt inmitten einer Menge von
Es ist genau diese Art von Foto, die der Präsidentschaftskandidat braucht, um sich bei Schwarzen Wählerinnen und Wählern beliebter zu machen. Also genau der Wähler:innenschicht, in der sein Konkurrent Joe Biden
Hier ist das Bild:
Doch einiges auf dem Foto ist unstimmig. Schaue einmal genauer hin!
Na, hast du es erkannt? Der Zeigefinger an Trumps rechter Hand ist seltsam gebogen. Auf der roten Kappe des Mannes links ist nur Text-Kauderwelsch zu lesen. Der Grund dafür: Tatsächlich handelt es sich hierbei um ein KI-generiertes Bild einer Szene, die so nie existierte. Es ist ein Versuch, mithilfe von KI zu lügen, um
Jetzt wäre es leicht zu sagen: »Wer sich näher mit dem Bild beschäftigt, merkt doch, dass da was nicht stimmt!«
In diesem Text will ich dir zeigen, warum es nicht so einfach ist, warum Desinformationen als die größte Gefahr 2024 gelten, warum auch die Lösung, die die EU in solchen Fällen nun verfolgt, nicht richtig greifen wird – und was stattdessen eher gegen KI-Fakes helfen würde.
Warum KI-Desinformationen nun weltweite Gefahr Nummer 1 sind
Okay, sagen wir, du hast erkannt, dass das Foto oben von Donald Trump unecht ist. Aber wäre dir das auch in sozialen Medien gelungen,
Man muss auch bezweifeln, dass Menschen die echten von falschen Bildern unterscheiden können, selbst wenn sie sich näher mit KI-Erzeugnissen auskennen. Das Trump-Fake-Foto oben ist eher schlecht gemacht. Ein Fall aus Hongkong vom Februar zeigt, wie realistisch gut gemachte Fake-Inhalte mittlerweile sind. Dort war ein Angestellter eines internationalen Konzerns von Betrügern in einen Videocall gelockt worden, wo aber keine Menschen auf ihn warteten, sondern KI-generierte Bilder von Personen aus dem Konzern, die ihm bekannt waren. Zusammen mit verstellten Stimmen
Genau so wirken Desinformationen heute. Sie werden einerseits immer realistischer und rechnen andererseits mit niedrigen Aufmerksamkeitsspannen und der menschlichen Überforderung im Angesicht der Informationsflut in sozialen Medien.
Gute Fakes nutzen dabei menschliche Denkfehler gezielt aus: zum Beispiel den »Bestätigungsfehler«
Wie gut das klappt, zeigt die Verbreitung von Trumps Fake-Fotos. Durch die Recherche der BBC wurde der Radiomoderator Mark Kaye als Urheber identifiziert, der das Bild mithilfe der KI-Anwendung Midjourney erstellt hatte – »in nur 30 Sekunden«, gibt er zu.
Kaye wollte damit explizit Donald Trump politisch helfen – und ganz nebenbei auch sein eigenes Buch promoten. Seine Rechtfertigung, dafür per Fake News zu lügen, ist symptomatisch für eine Gesellschaft, in der Wahrheit immer weniger Stellenwert gegenüber politischer Loyalität einnimmt: Der BBC sagte Kaye:
Das ist natürlich – je nach Interpretation – naiv oder ignorant. Denn es ist nie ein einzelner Post, sondern die Masse an Desinformationen, die Menschen politisch beeinflussen. Diese laxe Haltung mit Fake News attestiert auch Kommunikationswissenschaftler Christian Hoffmann denjenigen, die die die Fakes ungeniert verbreiten, gegenüber dem MDR:
Das macht diese Masche so attraktiv für skrupellose Parteien und ihre loyalen Politik-Influencer wie Kaye.
Wir haben es also mit einem mehrschichtigen Problem zu tun:
- Desinformationen werden durch KI immer realistischer und einfacher herzustellen.
- Skrupellose Politik-Akteure nutzen KI-Anwendungen immer ungenierter für Desinformation.
- Politische Polarisierung verlockt Menschen dazu, KI-Desinformationen zu teilen.
- Soziale Medien ermöglichen die virale Verbreitung.
- Niedrige Aufmerksamkeitsspannen und menschliche Bias machen uns anfällig für Desinformationen, die sich mit unseren Erwartungshaltungen decken.
Und das alles in einem Superwahljahr, wo nicht nur die Menschen in den USA,
Kein Wunder also, dass Desinformation
Dazu passt die Studie »Verunsicherte Öffentlichkeit« der Bertelsmann-Stiftung, die im Februar 2024 erschienen ist. Darin gab die Hälfte der 5.000 befragen Deutschen an, unsicher zu sein, »ob Informationen im Internet der Wahrheit entsprechen«. Jüngere Menschen und Menschen mit
Was kann man da tun?
Auftritt: Die EU und ein neues Gesetz!
AI Act: So geht die EU nun gegen Desinformationen vor
Die gute Nachricht: Die EU tut etwas. Erst Mitte März 2024 stimmte das EU-Parlament für das wohl erste KI-Gesetz weltweit, den sogenannten »AI Act«. Kurz gesagt regelt es, wofür, wie und unter welchen Bedingungen KI in der EU verwendet werden darf. Ursprünglich sollte der vor allem Bürger:innen gegen Konzerninteressen verteidigen. Mittlerweile loben Konzernbosse wie der Vorstandschef des
Darin ist festgelegt, dass Systeme, die Wahlen beeinflussen können, fortan zu »Hochrisiko-Anwendungen« gerechnet werden. Das betrifft auch Social-Media-Plattformen. Sie werden nun dazu verpflichtet, zu kennzeichnen, wenn Texte, Bilder oder Videos auf künstlicher Intelligenz beruhen. Das
Anbieter wie Midjourney oder Verbreiter wie Facebook könnten dazu im EU-Raum verpflichtet
Jetzt also auch in der EU. Das ist sicher gut gemeint. Ob es auch in einem Staat mit weit weniger restriktiver Internetkontrolle als in China funktioniert, darf angezweifelt werden. Die EU schreibt dazu in einem Briefing von Ende 2023 einschränkend:
Generative-KI-Entwickler und politische Entscheidungsträger stehen nun vor einer Reihe von Problemen, einschließlich der Frage, wie sichergestellt werden kann, dass robuste Watermarking-Tools entwickelt werden, Standards entstehen und Regeln [AI Act] implementiert werden.
Kommen wir an dieser Stelle auf die Geschichte um das Trump-Foto zurück, was das Problem und seine Dynamiken verdeutlicht. Es konnte sich eine Weile ohne sogenanntes Watermark (also digitale Stempel wie »KI-generiert«) ungehindert verbreiten – doch der ursprüngliche Post des Radiomoderators Kaye auf Twitter/X hatte kaum Reichweite (rund 4.000 Views).
Eine Studie der Mozilla Foundation sagt vereinfacht: Das wird so nicht reichen, um KI-Desinformationen in den Griff zu kriegen.
Dafür bietet sie eine andere Perspektive.
Die Mozilla Foundation sagt: Das sollten wir gegen KI-Desinformationen tun
Die Mozilla Foundation ist eine US-amerikanische Nichtregierungsorganisation, die Open-Source-Programme wie den Browser Firefox oder das E-Mail-Programm Thunderbird entwickelt und vertreibt und sich kritisch mit Datenschutz und Regierungsvorhaben auseinandersetzt. Da auch in den USA unter der Biden-Regierung 2023 Bestrebungen zum Watermarking zu erkennen waren, hat sie sich in der Studie »In Transparency We Trust?« mit den Risiken und Chancen auseinandergesetzt.
Sie kommen zu einem eher vernichtenden Urteil. Zwar könnten Watermarks auf Bildern oder Videos theoretisch helfen, diese als KI-Inhalte zu erkennen, und für den Umgang damit sensibilisieren, jedoch gibt es gleich mehrere große Aber:
- Menschen mit eingeschränktem Sehvermögen können diese leicht übersehen.
- Bildbearbeitungsprogramme
- Dadurch könnten im Extremfall bestehende Unsicherheiten noch verstärkt werden.
- Automatische Watermarking-Systeme sind sehr fehleranfällig.
Allerdings hätten Wasserzeichen, die gar nicht für Menschen bestimmt sind, sondern von anderer Software ausgelesen werden, mehr Potenzial, so die verantwortliche Forscherin Ramak Molavi Vasse’i vom
Aber was hilft denn dann?
Vasse’is Antwort ist »Ein vielschichtiger Ansatz« und gleich 2 Perspektivenwechsel, die sie in der Studie weiter ausführt.
- Perspektivenwechsel 1: Slow AI. In einer Welt, in der KI-Anwendungen ungehemmt immer besser werden, hat die Demokratie das Nachsehen – AI Act und Watermarks hin oder her. Hier nimmt Vasse’i die KI-Hersteller in die Pflicht, etwa das Unternehmen Midjourney. Sie müssten Watermark-Technologie von Beginn an mitdenken und sich ihrer Verantwortung für die Menschen, die diese dann in sozialen Medien sehen, bewusster werden. Vasse’i fordert hier nicht weniger als einen Wechsel zu »Slow AI«, wie sie es nennt, also einer vorsichtigeren Entwicklung im Bereich KI. Und wenn die Unternehmen nicht wollen – was bei der Mentalität der Branche »Hauptsache, schnell die Ersten sein« sehr wahrscheinlich ist –, muss sie die Politik eben zwingen. Der AI Act gäbe dafür sogar Rahmenbedingungen.
- Perspektivenwechsel 2: Bad Actors. Vasse’i und ihr Team stellen die Debatte in einen größeren Kontext und schreiben in der Studie als Empfehlungen: »Watermarks sind nicht ganz wirksam, um das Risiko zu mindern, dass Fake News und Fehlinformationen die Bürger bei Wahlen manipulieren.« Denn während Politik die Systeme bekämpft, die KI-Desinformationen möglich machen, sind es immer noch Menschen, die sie erstellen wollen und verbreiten. Auch digitale Lügen bedingen ja, das jemand lügen möchte – sogenannte »Bad Actors«. Wenn man diese Gedanken weiterdenkt, geht es also um Vertrauen in Informationen sowie Institutionen und eine generelle Haltung gegen politische Polarisierung – und zwar bevor Fake News wie in den USA zu Kavaliersdelikten in einem aufgeheizten Kulturkampf werden.
Die beste Methode gegen KI-Desinformationen könnte also das Stärken demokratischer Strukturen und das Investieren in Demokratie-Projekte sein (und unabhängigen Journalismus, dem Menschen vertrauen). Sie wirken für Zusammenhalt in der Gesellschaft, den Desinformationen letztlich angreifen. Das ist natürlich unbefriedigend und schwammiger als einfach ein Verbot oder Gebot in einem neuen Gesetz – das weiß auch Vasse’i.
Als ersten, konkreten Schritt empfiehlt sie daher, mehr darüber zu reden, was KI-Anwendungen und soziale Medien schon heute in den Händen von politischen Partisanen anrichten. In diesem Sinn endet auch die Mozilla-Studie:
Wir möchten an dieser Stelle betonen, wie wichtig eine Aufklärung der Menschen über synthetische [KI-]Inhalte ist. Viele Nutzenden verstehen die Auswirkungen von KI-generierten Inhalten nicht. […] Bildung ist der Schlüssel zum Aufbau der Widerstandsfähigkeit der Bürger und ergänzt eine wirksame Regulierung, anstatt sie zu ersetzen.
Ich hoffe, mit diesem Text einen kleinen Beitrag zu dieser Transparenz geleistet zu haben. Zur Wahrheit gehört aber auch, dass es keinen einfachen guten Hebel gegen KI-Desinformationen gibt. Das Problem ist komplex und vielschichtig. Das anzuerkennen, kann aber der erste Schritt auf der Suche nach neuen Lösungswegen sein.
Mit Illustrationen von Frauke Berger für Perspective Daily