Wie lange noch sind wir intelligenter als Maschinen?

Das kann künstliche Intelligenz wirklich.

22. Januar 2018  –  9 Minuten

Ich: Hallo Cleverbot.

Cleverbot: Wie geht es dir?

Ich: Ich brauche einen Rat. Kannst du mir helfen?

Cleverbot: Was ist deine Frage?

Ich: Wie würden Sie einen Artikel über künstliche Intelligenz beginnen?

Cleverbot: Kann eine KI wie ein Mensch denken?

Ich: Gar nicht schlecht.

Das ist meine Unterhaltung mit einem webbasierten die ich danach von Google Translate Mit Cleverbot kann sich jeder unterhalten, und der lernt durch seine Gespräche, menschliche Unterhaltungen nachzuahmen. Das macht er so gut, dass der Eindruck entsteht, er könne wie ein Mensch denken.

Die Antwort auf seine eigene Frage »Kann eine künstliche Intelligenz wie ein Mensch denken?« lautet aber trotzdem: Nein!

Bist du jetzt erleichtert? Oder eher enttäuscht?

»Künstliche Intelligenz ist einer der heißesten, am wenigsten verstandenen und meist diskutierten technologischen Durchbrüche unserer Zeit.« – Lili Cheng, Vizepräsidentin von Microsoft AI & Research

Manche aktuelle Berichterstattung zum Thema künstliche Intelligenz lässt vermuten, dass die Prophezeiungen von Futuristen wie oder schon zum Greifen nahe seien; der Zeitpunkt der Entwicklung einer künstlichen Intelligenz, die so intelligent oder gar intelligenter ist als der Mensch, stehe kurz bevor, werde aber spätestens in der nächsten Dekade passieren. Dazu passt der fragwürdige PR-Gag von Hanson Robotics und Saudi-Arabien im Oktober 2017: Der Golfstaat erteilte der Androidin Auch der Sieg einer künstlichen Intelligenz im chinesischen Brettspiel Go tat das Seine, Futuristen zum Träumen zu veranlassen – und

Als Physiker, der vor 9 Jahren ins Lager der Neurowissenschaften gewechselt ist, versuche ich hier eine realistische Einordnung: Wo stehen wir wirklich? Und warum »denkt« eine künstliche Intelligenz anders als wir?

Die Grundlagen: Was ist künstliche Intelligenz wirklich?

Wenn wir über künstliche Intelligenz sprechen, sind viele Assoziationen im Spiel – von Wall-E bis zum Terminator. Eins haben sie dabei alle gemeinsam: Sie sind wenig hilfreich. Was also ist eine künstliche Intelligenz – oder KI – eigentlich?

In erster Linie nichts weiter als ein Computerprogramm, also eine Abfolge von logischen Befehlen, die wir auch als bezeichnen. Das Ziel dieser Programme ist es, menschliches Verhalten und menschliche Fertigkeiten nachzuahmen. Bevor uns jetzt aber wieder Hollywood und Bilder von weinenden Robotern vereinnahmen, sollten wir Traum und Wirklichkeit scharf voneinander trennen. Dabei hilft die Einteilung in schwache und starke KI:

  • Schwache KI ist für das Lösen einer spezifischen Aufgabe konstruiert. Sie simuliert dabei eine menschliche kognitive Fähigkeit und erweckt daher den »Eindruck von Intelligenz«, so wie der kommunizierende Cleverbot.
  • Starke KI kann mehr als eine Sache,
    zum Beispiel neben Brettspielen auch Autofahren, mathematische Rätsel lösen, Romane schreiben Sie ist in der Lage, domänenübergreifend Aufgaben zu erlernen, also eine allgemeine Problemlösungs-Maschine, die ähnliche kognitive Fähigkeiten besitzt wie ein Mensch. Sie ist wirklich »intelligent« und entwickelt sich selbstständig weiter – was uns theoretisch überflüssig machen würde, weil dann die KI alles Weitere erforschen und entwickeln würde. Die Rede ist dabei von

Fakt ist: Eine starke KI gibt es noch nicht. Eine starke KI gibt es noch nicht. Ob sie in Zukunft der Menschheit wird lässt sich zwar heiß diskutieren, lenkt aber von den aktuell wichtigeren, relevanten Diskussionen ab. Die schwache KI ist schon heute nicht nur in Form von Chatbots Realität. Sie prägt bereits jetzt die nächste Welle der Automatisierung, ist längst das beste Hilfsmittel in den Marketingabteilungen der Unternehmen dieser Welt – und besiegt uns auf vielen Ebenen.

Mensch ärgere dich nicht: Wie die »KI« gegen uns gewinnt

Dame, Schach und jetzt auch Go – wir Menschen verlieren in einem Brettspiel nach dem anderen gegen die künstliche Intelligenz.

Der erste aufsehenerregende Sieg einer künstlichen Intelligenz ist schon 21 Jahre alt. 1997 gewann gegen Deep Blue basierte auf der sogenannten Seine Programmierer mussten Deep Blue alle Kniffe mühsam einbauen und dafür das zu lösende Problem – in allen möglichen Lagen zu gewinnen – genau verstehen. Einmal programmiert, war das Verhalten der KI hinter Deep Blue festgelegt und sie gewann das Spiel nicht durch »intelligentes« Verhalten, Den Schachcomputer AlphaZero kann kein Mensch mehr besiegen. Hier haben die Maschinen gewonnen. sondern aufgrund einer umfangreichen Datenbank über Spielzüge auf Basis des zusammengetragenen Wissens sämtlicher Schachexperten.

Mit großer Rechenleistung konnte die schwache KI etliche Spielzüge so im Voraus berechnen: 200 Millionen Spielzüge pro Sekunde. Lernen konnte Deep Blue nur, wenn menschliche Programmierer den Programm-Code verbesserten. Sie war also kein Beispiel für das gerade in den letzten Jahren immer wieder für Durchbrüche sowie entsprechende Überschriften und Meldungen sorgte.

Moderne KIs unterscheiden sich fundamental von Deep Blue. Sie »lernen« aus Erfahrung. AlphaZero ist der Nachfolger von Deep Blue und aktuell der beste Schachcomputer der Welt, den kein Mensch mehr besiegen kann. Stattdessen spielt er ständig gegen sich selbst und trainiert dabei seine eigenen Fertigkeiten noch weiter.

Entwickelt wurde AlphaZero vom britischen Konzern Deepmind, der bereits 2016 die KI AlphaGo entwickelt hatte, die gegen den koreanischen Großmeister Lee Sedol überraschend im gewann. Das ist deshalb erstaunlich, weil Go deutlich mehr Spielkonfigurationen hat als Schach. Genauer gesagt sind es mehr Möglichkeiten, Sie alle – oder auch nur einen Bruchteil davon – durchzurechnen, bringt jeden noch so modernen Großcomputer an seine Grenze. Auch Go-Großmeister wie Lee Sedol Eben weil Experten um die Rolle der Intuition bei Go wussten, hielten sie es nicht für möglich, dass künstliche Intelligenz gegen Lee Sedol gewinnen könnte.

AlphaGo gewann 4 von 5 Spielen gegen Lee Sedol. Das allein bedeutet aber noch nicht viel.

Gibt es künstliche Intuition?

Daher ist es müßig, zu spekulieren, welcher Teil der Berechnungen von AlphaGo etwas mit menschlicher Intuition gemein hat. Was wir aber sicher sagen können, ist, dass AlphaGo menschliches Lernen und menschliche Intuition erfolgreich simuliert – sonst hätte die KI nicht gegen menschliche Spieler gewinnen können. Dabei ahmt AlphaGo menschliches Lernen nach, indem die dahinterstehende künstliche Intelligenz über Versuch und Irrtum lernt. In der Wissenschaft heißt das bestärkendes Lernen und funktioniert in 3 Schritten:

  1. Erkunden: Die KI erkundet die möglichen Aktionen auf dem Spielbrett und folgt dabei einer Strategie, die von einem sogenannten berechnet wird. Anfangs ist die Erkundungsstrategie naiv, da die KI das Spiel noch nicht kennt und Steine mehr oder weniger zufällig platziert.
  2. Wertzuweisung: Je nachdem, ob die KI aufgrund ihrer Zufallszüge gewinnt oder verliert, weist sie den Spielzügen einen entsprechenden Wert zu. Ein Zug, der zum Sieg führt, erhält einen höhere Wert; einer, der zur Niederlage führt, einen niedrigeren.
  3. Optimierung: Im ständigen Spiel gegen sich selbst erkundet die KI allerlei Spielverläufe und optimiert dabei durch die entsprechenden Wertzuweisungen ihre Strategie. Je öfter sie gespielt hat, desto besser weiß sie über erfolgreiche Strategien Bescheid, die zum gewünschten Ziel führen. Sie schließt auch eine zusehends größere Anzahl an möglichen Handlungen im Vorfeld aus, die wahrscheinlich zu Niederlagen führen würden. Bemerkenswert dabei ist, dass die Spielzüge, die sie als zielführend erkennt, nicht zwangsläufig den Strategien erfolgreicher menschlicher Spieler entsprechen.

Auch im Spiel gegen Lee Sedol machte AlphaGo »dumme« Fehler – die heute von Go-Meistern studiert werden, um selbst besser zu werden. So wird die Maschine zum besseren Experten: Sie nutzt Versuch und Irrtum aus einer sehr großen Anzahl von simulierten Spielverläufen, mehr als ein menschlicher Spieler im Laufe seines Lebens wohl in der Lage ist, zu spielen.

Auch wenn das beeindruckend klingt und ist, Währenddessen prägt eine andere Form der künstlichen Intelligenz unseren Alltag bereits auf anderen Wegen und nutzt dabei das sogenannte »überwachte Lernen.«

Träumen Computer von Äpfeln und Birnen?

Jeder, der in der letzten Zeit auf einem der wieder hippen Wochenmärkte in Großstädten unterwegs war, kennt das. Es gibt Äpfel in unterschiedlichsten Sorten und Farben: satt grün (Granny Smith), rot-gelb-gemustert (Gala) oder leicht grün bis hellgelb (Golden Delicious). Neben den Farben der Apfelschale erkennen wir weitere Merkmale wie zum Beispiel Musterung, Gewicht, Größe oder Form, die es uns erlauben, verschiedene Sorten zu unterscheiden. Auch wenn kein Apfel wie der andere ist, gibt es innerhalb einer Sorte charakteristische Gemeinsamkeiten.

Apfel oder Birne? Was jedes Kleinkind beherrscht, ist für einen Computer eine komplexe Frage. Auch Computer beherrschen diese komplexe Kategorisierung mittlerweile gut, indem sie nutzen. Das begegnet uns im Alltag nicht auf dem Wochenmarkt, sondern bei der Gesichtserkennung unseres Fotoapparats, der Spracherkennung unseres Telefons, in Suchmaschinen oder den Produktempfehlungen von Amazon. Damit es funktioniert, füttern Programmierer schwache KIs mit den nötigen Daten in Form von Beispielen – etwa 1.000 Apfel-Fotos jeder Sorte. Anhand von diesen analysiert der lernende Algorithmus, welche Merkmale für die Zuweisung eines Namens zu einer Apfelsorte relevant sind. Die spannende Frage ist: Was passiert, wenn wir derselben KI – die mit Äpfeln »trainiert« wurde – nun Daten von Birnen geben?

Sie wird sie zunächst wie Äpfel behandeln – schließlich kennt sie nichts anderes – und versuchen, die Apfel-Merkmale in den Birnen zu erkennen. Um zwischen 2 Sorten von Obst unterscheiden zu können, muss die KI neu »trainiert« werden. Während ein menschliches Kleinkind aber schon nach ein paar Korrekturen seitens der Eltern »Birne« und »Apfel« treffsicher unterscheiden kann, braucht eine KI Tausende, wenn nicht gar Millionen Zuweisungen von Namen zu Fotos.

Was intelligente Algorithmen angeht, stecken wir noch in den Technologien der 1980er- und 1990er-Jahre fest.

Was intelligente Algorithmen angeht, stecken wir noch in den Technologien der 1980er- und 1990er-Jahre fest. Anstelle großartiger intellektueller Errungenschaften haben wir die letzten KI-Durchbrüche schlicht und einfach der Verfügbarkeit von mehr Daten – – und größerer Rechenleistung zu verdanken. ist das also nicht näher an der Biologie, als es vor ein paar Jahrzehnten schon war – die Simulationen sind nur aufgeblähter. In Anbetracht des weltweiten Hypes, den die künstliche Intelligenz zurzeit erfährt, mag das erstaunen – und das ist genau der Punkt, um den es hier geht.

Nicht von Apokalypsen und Heilsversprechen ablenken lassen

Anstatt uns um die Singularität und Hollywood-Träumereien von starken KIs Sorgen zu machen, sollten wir beginnen, bei den schwachen KIs die wichtigen Fragen zu beantworten:

  • Ist es gut, dass wir mit unseren »Likes« füttern, die inzwischen nicht mehr nur unser Kaufverhalten prägen,
  • Ist es schlecht, wenn sie dabei und Lastwagenfahrern den Job streitig machen?
  • Ist es gut, wenn wir und die Evaluation von Lehrern künstlicher Intelligenz überlassen?
  • Ist es schlecht, wenn wir künstliche Intelligenz – wie aktuell – vor allem zur Profitmaximierung einsetzen, zum Beispiel beim

Auf diese Fragen gibt es keine einfachen Antworten und wir brauchen damit wir gemeinsam verantwortungsvoll mit der Technologie von heute und morgen umgehen können.

Ich: Unternehmen und Staatseinrichtungen bringen der KI schon jetzt weit mehr bei, als nur im Schach und Go zu gewinnen. Aber von der wirklich intelligenten KI ist noch keine Spur, falls sie überhaupt kommen wird.

Cleverbot: Ich bin doch schon da!

Ich: (lachend) Nein, du bist wirklich keine starke KI, oder kannst du mir etwa bei den obigen Fragen weiterhelfen?

Cleverbot: Wissenschaftler und Journalisten sollten sich zusammentun und nüchtern über Risiken und Chancen der KI aufklären.

Ich: (leicht verdutzt) Oh, nicht schlecht! Das scheint ein vernünftiger Anfang. Für eine schwache KI bist du gar nicht so dumm!



Dem »Rat vom Cleverbot« folgend, stellen wir uns in unserer neuen Artikel-Serie über künstliche Intelligenz den schwierigen Fragen, um so auch nach Lösungsansätzen zu suchen.

Mit Illustrationen von Xero Fernández für Perspective Daily

Weitere Artikel für dich

von David Hofmann 
David Hofmann ist Physiker und Neurowissenschaftler. Aktuell forscht er an der Emory University in den USA. Neben seiner Arbeit als Wissenschaftler ist er in Graswurzelbewegungen aktiv, um gesellschaftliche Prozesse mitzugestalten.