7 wichtige Gründe, warum künstliche Intelligenz keine Gefahr für die Menschheit ist
Und warum sie alle Unfug sind.
»Es tut mir leid, Dave, das kann ich nicht tun«, sagt die monotone Lautsprecherstimme. Der Astronaut David Bowman schaut verärgert in die Kamera seines Weltraumshuttles. Der hoch entwickelte Supercomputer »HAL 9000« verweigert gerade den einfachen Befehl, die Luftschleuse zu öffnen. Der Mensch bleibt draußen, der Computer bricht die Funkverbindung ab – denn er weiß, dass das Forscherteam ihn für fehlerhaft hält und abschalten will. Er verspürt Angst und trifft eine für ihn absolut logische und zwingende Schlussfolgerung: die Menschen umzubringen, um sich selbst zu schützen.
Diese Szene aus »2001 – Odyssee im Weltraum« von Stanley Kubrick aus dem Jahr 1968 ist eine der berühmtesten der Filmgeschichte. Und es ist wohl eine der eindrücklichsten Zukunftsvisionen, die uns davor warnt, Computer zu intelligent zu machen und ihnen zu viel Macht zu geben.
Heute, 2020, ist die Kommunikation mit Maschinen längst Normalität geworden. So verlassen sich Menschen auf Assistenzprogramme wie Siri oder Alexa und die dahinterstehenden neuronalen Netzwerke der künstlichen Intelligenz. Und im Silicon Valley arbeiten Scharen von Computerwissenschaftler:innen an genau einem Ziel: diese Systeme immer intelligenter zu machen.
Doch es mehren sich auch – ganz im Geist von Kubricks Filmklassiker – Stimmen, die diese Entwicklung mit Sorge betrachten. Einer davon ist
Hier ist eine kurze Übersicht darüber, warum sie alle Unsinn sind.
1. »Generelle künstliche Intelligenz (AGI) ist unerreichbar«
Wenn die technische Entwicklung der Menschheit eines zeigt, dann dass vieles, was als unerreichbar gilt, mit genug Forschung und Erfindungsgeist eher früher als später doch möglich wird: von bemannter Raumfahrt über Nuklearenergie bis zur Sofortkommunikation rund um den Erdball. Nur weil etwas aktuell nach Science-Fiction aussieht, sagt das noch nichts über die tatsächliche Machbarkeit aus.
2. »Es ist zu früh, sich darüber Sorgen zu machen«
Die Entwicklung von AGI ist kein Gedankenspiel, sondern das
3. »Wir haben die volle Kontrolle, weil wir die Erschaffer sind«
Künstliche Intelligenz ist kein simples Programm, sondern lernt selbstständig anhand von Daten. Und bereits existierende KI zeigt, dass sie aus diesen Daten Vorurteile gelernt hat, etwa gegenüber Minderheiten oder Frauen,
Dazu ist es nur logisch, argumentiert etwa Stuart Russell, dass KI die Bedeutung von Selbsterhalt von selbst erlernt, einfach weil dies die Wahrscheinlichkeit erhöht, jede Aufgabe zu meistern (»wenn ich gelöscht bin, kann ich die Aufgabe nicht beenden, die ich bekommen habe«). Doch schon darin könnten sich die Ziele der KI von denen der Menschen unterscheiden, wie Kubricks Beispiel an »HAL 9000« zeigt.
»Die Entwicklung starker künstlicher Intelligenz könnte das größte Ereignis der Menschheitsgeschichte sein.« – Stuart Russell, TED-Talk
4. »Wir könnten künstliche Intelligenz nur das lernen lassen, was wir wollen, dass sie lernt«
Die vollständige Überwachung von künstlicher Intelligenz ist nicht möglich, denn es ist die Eigenschaft von neuronalen Netzen, dass sie wie eine Blackbox funktionieren. Das einzige, was man überprüfen kann, ist das, woraus die AI lernt, und das, was die KI daraus macht. Wie falsch manche Lektionen sein können, zeigt ein Experiment aus dem Jahr 2016: Eine KI sollte anhand von Bildern lernen, Hunde von Wölfen zu unterscheiden. Das gelang mit einer hohen Erfolgsrate. Bei einer Überprüfung stellten die Forscher aber fest, dass die KI vor allem gelernt hatte,
5. »Wir können der Forschung sowieso nicht vorschreiben, was sie erforschen«
In der Praxis richtet sich Forschung längst schon nach ethischen Gesichtspunkten, etwa beim Klonen oder der Veränderung des menschlichen Genoms. Hier hat sich die Wissenschaft darauf geeinigt, bestimmte Bereiche nicht weiterzuverfolgen.
6. »Bedenken haben nur Leute, die KI nicht verstehen und Angst vor Fortschritt haben«
Man kann davon ausgehen, dass sich KI-Forscher Stuart Russell recht gut mit künstlicher Intelligenz auskennt. Und er ist bei Weitem nicht der einzige, der sich Sorgen um die Zukunft von Supercomputern macht: Auf einem
7. »Wir können eine gefährliche KI immer noch ausschalten und löschen, wenn sie Probleme macht«
Das ist der empfindlichste Streitpunkt. Eine generelle künstliche Intelligenz (AGI) wird natürlich Vorsichtsmaßnahmen gegen ihre eigene Abschaltung treffen – so wie Menschen auch Maßnahmen für ihr Überleben treffen. Einen eingebauten »Ausschalter« könnte sie daher als eine direkte Gefahr ansehen, was dazu führen könnte, die eigenen Macher als Risiko anzusehen – so wie bei HAL 9000. Das Problem liegt hier in der eigenständigen Weiterentwicklung: Eine selbstlernende KI könnte das eigene Programm in kurzer Zeit so weit verbessern, dass es klüger ist als Menschen und neue Wege findet, menschengemachte Sicherheitsmaßnahmen zu umgehen. Bekannt ist dieses Dilemma in der Forschung als »AI Control Problem« und bisher noch ohne schlüssige Lösung.
Alles, was Stuart Russell und andere KI-Sicherheitskritiker wollen, ist, dass die Forschungsteams bei IBM, Google und Co. nicht nur die Leistungsfähigkeit von KI als Ziel ansehen, sondern intensiver über die Beziehung zwischen Mensch und Maschine nachdenken – bevor wir alle auf der falschen Seite der Luftschleuse sitzen.
Der Schlüssel dazu scheint zu sein, argumentiert auch Russell, die Ziele der künstlichen Intelligenz so zu gestalten, dass sie mit denen der Menschen kompatibel sind. Und dass wir sicher sind, was unsere eigenen Ziele und Bedürfnisse überhaupt sind.
Hier findest du das andere aktuelle Daily:
Mit Illustrationen von Doğu Kaya für Perspective Daily