Was wir von sexistischen Algorithmen lernen können
Immer mehr Aufgaben überlassen wir heute künstlicher Intelligenz. Doch diese ist genau so voll von Vorurteilen wie wir.
Das Sonnenlicht spiegelt sich in den gläsernen Wolkenkratzern
Diese »Smart City« klingt wie
Überall Algorithmen – was kann angesichts so viel künstlicher Intelligenz schon schiefgehen?
Um den Haken an der Utopie der »Smart City« zu finden, brauchen wir gar nicht in die Zukunft zu schauen: Schon heute nehmen Programme eine große Rolle in unserem Leben ein. Viele verwenden wir freiwillig, auf unseren Computern und Smartphones, andere beeinflussen uns kaum bemerkbar im Hintergrund. Banken, Krankenkassen und Versicherungen, Facebook und Google – alle sind hinter unseren Daten her, um mehr über uns zu erfahren. Und mit unseren Daten füttern sie ihre Algorithmen.
Eines der Probleme dabei ist, dass heute nicht viele Menschen verstehen, was sich dahinter verbirgt. Denn Algorithmen sind alles andere als transparent.
Algorithmen werden häufig als Kochrezepte für den Computer beschrieben – eine Aneinanderreihung von Anweisungen, die der Rechner blind befolgt und damit hoffentlich ein gewünschtes Ergebnis erreicht. Doch dieses Gleichnis ist irreführend, denn während Rezepte gestaltet sind, um möglichst überschaubar zu sein und in einzelnen Schritten einen klaren Weg zum Endergebnis aufzuzeigen, funktionieren heutige Algorithmen deutlich weniger gradlinig.
Statt wie ein Rezept verhalten sie sich eher wie kompliziertes Hin und Her zwischen einer Köchin und einem Restaurantbesucher. Der Restaurantgast kann sagen, was er sich wünscht, und sich beschweren, wenn es nicht schmeckt. Mit diesem Feedback trainiert der Algorithmus ein anderes Programm – eine angehende Köchin –, welches jedoch zuvor noch nie gekocht hat und zunächst lediglich zufällig Zutaten zusammenwürfeln kann. Mit sehr viel Zeit und nach unzähligen gescheiterten Versuchen lernt das Kochprogramm im besten Fall, nach den Wünschen des Gastes zu kochen. Am Ende kommt zwar ein schmackhaftes Gericht heraus – doch was in der Küche zwischen den Algorithmen tatsächlich passiert, kann niemand kontrollieren. Es bleibt eine sogenannte »Black Box«. Weder der Restaurantgast noch die Programmiererin, die sich das ganze Spiel ausgedacht hat, wissen, was die Algorithmen tatsächlich aus dem Feedback lernen. Sie sehen nur, wenn das Endergebnis stimmt – vermeintlich jedenfalls. Denn Geschmäcker und Menschen sind verschieden, und wenn der Gast wechselt – also die Feedback-Quelle für den Algorithmus –, könnte der Nächste ein Problem mit dem Ergebnis haben.
Die Tech-Unternehmen des Silicon Valley erhoffen sich mehr, als nur persönliche Geschmäcker zu entschlüsseln – sie wollen möglichst unseren ganzen Charakter durchleuchten. Denn mit diesem Wissen lassen sich Algorithmen trainieren, die dann intelligent und vorausschauend entscheiden, welche Werbung sie uns zeigen, ob sie uns Geld leihen sollten oder ob wir eine Gefahr für die Öffentlichkeit darstellen.
Sollten wir wirklich so wichtige Entscheidungen ganz in die Hände von Algorithmen legen? Zumindest sollten wir skeptisch gegenüber Tech-Unternehmen sein, die dies als beste Zukunft anpreisen. Denn sie selbst haben natürlich ein finanzielles Interesse daran, was sie programmieren und womit sie Umsatz machen. Ihr bestes Verkaufsargument aber, nämlich dass Algorithmen besser und fairer entscheiden könnten als jeder Mensch, ist ein Trugschluss. Denn genau die Daten, die einen Algorithmus füttern, können die Suppe ganz schön versalzen.
So fehlbar sind angeblich intelligente Algorithmen wirklich
Algorithmen versuchen anhand von Millionen von Beispielen, Muster zu erkennen und Regeln abzuleiten, die das gewünschte Ergebnis liefern. Doch dabei können sie Fehler machen, auch wenn manche Milliardäre im Silicon Valley das anders kommunizieren. Folgende Fehler können auftreten:
- Lernfehler: Das Naheliegendste, was schiefgehen kann, ist, dass der Algorithmus Fehler macht, die nicht entdeckt werden, weil das Ergebnis scheinbar stimmt. So kann ein lernendes Programm mit ausreichend Beispielbildern etwa lernen, Wölfe von Hunden zu unterscheiden. Aber wenn diese nicht sorgfältig ausgewählt werden, kann der Computer auch Regeln lernen, die wir nicht vorhergesehen haben. Ein Algorithmus des Tech-Unternehmens VEON etwa fand heraus, dass Hunde und Wölfe am einfachsten dadurch unterschieden werden können, dass Hunde eher auf Gras und
- Faule Daten: Selbst wenn Algorithmen fehlerfrei das tun, was sie sollen, können sie Regeln lernen, die bei wichtigen Entscheidungen gefährlich werden könnten. Denn menschliche Daten sind nicht makellos. Zum einen finden sich in ihnen menschliche Vorurteile wieder. Zum anderen bilden sie Statistiken ab, die zwar »gewünschte Ergebnisse« liefern, jedoch in eben diesen Vorurteilen wurzeln. So erhalten Frauen über Soziale Netzwerke schon heute Vorschläge für geringer bezahlte Jobs – weil die Algorithmen den sexistischen Gender-Pay-Gap gelernt haben. Vorurteile und Ungleichheiten werden so in
- Unbeabsichtigte Feedback-Schleifen: Wenn wir nun aber das perfekte Programm und vorurteilsfreie Daten haben, dann sollten wir doch auf der sicheren Seite sein, oder? Nicht unbedingt. Wenn Algorithmen nicht nur zum Einsatz kommen, um etwas zu beschreiben, sondern aktiv in die Welt eingreifen, dann können Rückkopplungen mit gravierenden Konsequenzen entstehen. Ein Beispiel ist das sogenannte »Predictive Policing«,
Ist das »neutral« und »fair«? Wohl kaum. Gern gibt man sich der Vorstellung hin, dass solche Schreckensszenarien – wenn überhaupt – in ferner Zukunft liegen. Doch je verbreiteter Algorithmen sind, desto stärker können sich diese Fehlerquellen schon bald auf das ganz normale Leben aller auswirken. Und schon heute tauchen weltweit immer mehr Beispiele auf, in denen Computer menschliche Vorurteile annehmen, diskriminieren –
Zum Glück können wir noch gegensteuern. Und von den Fehlern in den Algorithmen etwas über uns Menschen lernen. Denn Algorithmen sind nur so fehlerfrei wie die Menschen, die sie programmieren.
Wenn wir lernen, Algorithmen gerechter zu machen, können wir auch unseren eigenen Vorurteilen begegnen
Fehlerhafte Algorithmen sind eine Chance auf eine echte Utopie. Denn sie ermöglichen uns, etwas über systematische Benachteiligung und menschliche Vorurteile zu lernen und dem entgegenzuwirken. Schließlich haben Computer ihre Macken von uns Menschen gelernt und Forscher können sie aufschlüsseln, indem sie die Handlungen der Computer minutiös unter die Lupe nehmen. Anders gesagt: Wo ein Algorithmus diskriminierend ist, zeigt uns, wo wir diskriminierend sind.
»Die Suche nach künstlicher Intelligenz ist auch eine Suche nach menschlichen Werten.« – Weizenbaum-Institut, Forschungsgruppe Kritikalität KI-basierter Systeme
So analysierte etwa eine Arbeitsgruppe der Universität Princeton Googles Sprachverarbeitungs-Software Translate auf der Suche nach menschlichen Vorurteilen im alltäglichen Sprachgebrauch. Anhand der vorgeschlagenen Übersetzungen in Translate konnten sie zeigen, dass afro-amerikanische Namen eher mit unangenehmen Attributen verbunden werden, dass Männer häufiger mit Karriereattributen wie »Gehalt« und »professionell« assoziiert werden
Gegen Algorithmen-Vorurteile arbeitet auch das
Dass es nicht bei der reinen Analyse bleiben muss, ist die Idee hinter dem in den letzten 2 Jahren neu gegründeten Forschungsfeld des
Doch während die Wissenschaft erst beginnt, Vorurteile in Algorithmen zu verstehen, liefert sich das Silicon Valley längst ein Wettrennen darum, die gewinnbringendsten Algorithmen zu produzieren, ohne dabei Rücksicht auf die Schäden zu nehmen, die sie damit anrichten können. Und das zudem ganz ohne Kontrollmechanismus, der ihren Algorithmen auf die Finger schaut.
Die große Frage: Brauchen wir einen Algorithmus-TÜV?
Beim Ringen um faire Algorithmen ist die Politik gefragt. Ein erster Ansatz dafür ist die europäische Datenschutzgrundverordnung
Deshalb werden Forderungen aus der Wissenschaft laut, die mehr erwarten. Etwa dass neue Algorithmen vor ihrem Einsatz gezielter von offizieller Stelle
»Öffentliche Stellen sollten zu einem transparenten, verantwortungsvollen Einsatz von Algorithmen und KI-Verfahren verpflichtet werden.« – Positionspapier der Landesdatenschutzbeauftragten, 2018
Und die Idee scheint hierzulande sogar näher als die Vision einer »Smart City«: Bereits 2018 forderten Landesdatenschutzbeauftragte sowie der damalige Bundesbeauftragte für den Datenschutz den »Algorithmen-TÜV« in einem
Zeit wäre es. Denn erst wenn die Politik die Chancen und Risiken der Algorithmen, die zunehmend unser Leben kontrollieren, in den Fokus rückt, kann sie den programmierten Tatsachen aus dem Silicon Valley die Stirn bieten. Und wenn Algorithmen gerecht statt diskriminierend werden, haben wir vielleicht doch noch die Chance auf eine echte technische Utopie.
Mit Illustrationen von Mirella Kahnert für Perspective Daily