Stelle dir vor, du bist in einem Porno, ohne es zu wissen
Künstliche Intelligenz hilft Verbrechern, deine Rechte zu verletzen. Dafür reicht schon ein ganz normales Foto. Ein Land hält jetzt dagegen.
Stelle dir vor, du siehst einen Porno und musst stutzen: Du erkennst dein Gesicht und deine Stimme wieder, warst aber nie vor Ort, kennst das Gegenüber nicht und hast noch nie in deinem Leben einen pornografischen Film gedreht.
So erging es der Moderatorin Lola Weipert. Im Zuge einer
Doch wie ist das möglich?
Die Antwort: Deepfakes, also Bilder, Audios und Videos, die mithilfe von Künstlicher Intelligenz (KI) so manipuliert werden, dass sie täuschend echt aussehen und nur schwer als Fälschung zu erkennen sind. So kursieren in den sozialen Medien beispielsweise immer wieder Videos von Politiker:innen, denen falsche Worte in den Mund gelegt werden. Auch pornographische Inhalte können auf diese Weise erstellt werden. Davon sind meist prominente Frauen betroffen – wie Lola Weipert.
Sie wurde Opfer der bekanntesten Variante von Deepfakes, dem
Titelbild: Depositphotos - copyright