Inhalt

Wie lange noch sind wir intelligenter als Maschinen?

Links zum Artikel

9 Minuten

Wie lange noch sind wir intelligenter als Maschinen?

22. Januar 2018
Themen:
22. Januar 2018

Das kann künstliche Intelligenz wirklich.

Ich: Hallo Cleverbot.

Cleverbot: Wie geht es dir?

Ich: Ich brauche einen Rat. Kannst du mir helfen?

Cleverbot: Was ist deine Frage?

Ich: Wie würden Sie einen Artikel über künstliche Intelligenz beginnen?

Cleverbot: Kann eine KI wie ein Mensch denken?

Ich: Gar nicht schlecht.

Das ist meine Unterhaltung mit Hier kannst auch du mit Cleverbot plaudern (englisch) Cleverbot, einem webbasierten Chatbot, Der Begriff »Bot« kommt von Roboter. Aber im Internet haben solche Bots weder Zahnräder noch Batterien: Es handelt sich um Programme, die selbstständig handeln. Die wissenschaftliche Definition lautet: Bots sind teilautonom agierende digitale Agenten, die mit Menschen in Onlinemedien über die Schnittstelle Kommunikation sozial interagieren. Davon abzugrenzen sind digitale Assistenten wie Microsofts Cortana. die ich danach von Google Translate ins Deutsche übersetzen lassen habe. Google Translate hat automatisch zur Höflichkeits-Form »Sie« übersetzt, die es im Englischen nicht gibt. Meine Absicht war es, den Chatbot zu duzen. Hier das englische Original-Gespräch:

Me: Hi Cleverbot.

Cleverbot: How are you?

Me: I need some advice. Can you help me?

Cleverbot: What’s your question?

Me: How would you start an article about artificial intelligence?

Cleverbot: Can an AI think like a human?
Mit Cleverbot kann sich jeder unterhalten, und der Hier schreibt Dirk Walbrühl über (Social) Bots Chatbot lernt durch seine Gespräche, menschliche Unterhaltungen nachzuahmen. Das macht er so gut, dass der Eindruck entsteht, er könne wie ein Mensch denken.

Die Antwort auf seine eigene Frage »Kann eine künstliche Intelligenz wie ein Mensch denken?« lautet aber trotzdem: Nein!

Bist du jetzt erleichtert? Oder eher enttäuscht?

»Künstliche Intelligenz ist einer der heißesten, am wenigsten verstandenen und meist diskutierten technologischen Durchbrüche unserer Zeit.« – Lili Cheng, Vizepräsidentin von Microsoft AI & Research

Manche aktuelle Berichterstattung zum Thema künstliche Intelligenz lässt vermuten, dass die Prophezeiungen von Futuristen wie Hier spricht Ray Kurzweil im TED-Vortrag über seine Vision der Zukunft von KI (englisch, 2014) Ray Kurzweil oder Jürgen Schmidhuber Jürgen Schmidhuber ist der führende deutsche Forscher für künstliche Intelligenz. Lange verkannt, erhält er nun viel Medienaufmerksamkeit. So bezeichnete ihn vor 2 Jahren die New York Times (englisch) gar als »Papa der KI«. 2006 kam ich selbst in den Genuss seiner Vorlesung, die damals von nur 6 Zuhörern besucht war; ich war der einzige Physiker. Zu dem Zeitpunkt war mir die Tragweite seiner Forschung nicht klar; heute arbeite ich selbst mit dem von ihm und seinem ehemaligen Studenten, Sepp Hochreiter, in den späten 1990er-Jahren entwickelten Algorithmus, dem LSTM (Long Short-Term Memory). schon zum Greifen nahe seien; der Zeitpunkt der Entwicklung einer künstlichen Intelligenz, die so intelligent oder gar intelligenter ist als der Mensch, stehe kurz bevor, werde aber spätestens in der nächsten Dekade passieren. Dazu passt der fragwürdige PR-Gag von Hanson Robotics und Saudi-Arabien im Oktober 2017: Der Golfstaat erteilte der Androidin Hier ist der Android Sophia im Interview mit Tech Insider (englisch, 2017) Sophia Artikel zur Staatsbürgerschaft von Sophia in der F.A.Z. (2017) die Staatsbürgerschaft. Auch der Sieg einer künstlichen Intelligenz im chinesischen Brettspiel Go tat das Seine, Futuristen zum Träumen zu veranlassen – und Willst du einen Roboter als Freund?, fragt Dirk Walbrühl hier bescherte Zukunftsskeptikern neue Alpträume.

Als Physiker, der vor 9 Jahren ins Lager der Neurowissenschaften gewechselt ist, versuche ich hier eine realistische Einordnung: Wo stehen wir wirklich? Und warum »denkt« eine künstliche Intelligenz anders als wir?

Die Grundlagen: Was ist künstliche Intelligenz wirklich?

Wenn wir über künstliche Intelligenz sprechen, sind viele Assoziationen im Spiel – von Wall-E bis zum Terminator. Eins haben sie dabei alle gemeinsam: Sie sind wenig hilfreich. Was also ist eine künstliche Intelligenz – oder KI – eigentlich?

In erster Linie nichts weiter als ein Computerprogramm, also eine Abfolge von logischen Befehlen, die wir auch als Algorithmus Ein Algorithmus ist ein Begriff aus der Informatik für ein programmiertes Lösungsschema. Dahinter verbirgt sich eine Folge von Anweisungen, mit denen ein bestimmtes Problem gelöst werden soll – vergleichbar mit einem Kuchenrezept, bei dem nacheinander bestimmte Dinge getan werden müssen, damit der Kuchen gelingt. Es gibt sehr komplexe Algorithmen, die wir täglich nutzen, etwa den PageRank-Algorithmus von Google oder Algorithmen von Navigationsgeräten. bezeichnen. Das Ziel dieser Programme ist es, menschliches Verhalten und menschliche Fertigkeiten nachzuahmen. Bevor uns jetzt aber wieder Hollywood und Bilder von weinenden Robotern vereinnahmen, sollten wir Traum und Wirklichkeit scharf voneinander trennen. Dabei hilft die Einteilung in schwache und starke KI:

  • Schwache KI ist für das Lösen einer spezifischen Aufgabe konstruiert. Sie simuliert dabei eine menschliche kognitive Fähigkeit und erweckt daher den »Eindruck von Intelligenz«, so wie der kommunizierende Cleverbot.
  • Starke KI kann mehr als eine Sache, zum Beispiel neben Brettspielen auch Autofahren, mathematische Rätsel lösen, Romane schreiben oder auf 2 Beinen laufend eine Tasse Tee servieren. Für uns schwierige Aufgaben, wie knifflige Gleichungen zu lösen, sind für Computer einfach. Wenn wir aber wie selbstverständlich auf 2 Beinen durch die Welt laufen, meistern Roboter das noch immer nicht sonderlich gut; es bleibt eine Herausforderung für die KI-Entwickler und Robotiker – auch wenn der einen Salto rückwärts machende Roboter »Atlas« (englisch) zeigt, wie weit die Forscher selbst dabei schon gekommen sind. Das Phänomen der unterschiedlichen Schwierigkeit von Aufgaben für Mensch und Maschine greift der Autor Marc-Uwe Kling neben anderem Wissenswerten über KI auf unterhaltsame und gesellschaftskritische Weise in seinem jüngsten Werk »QualityLand« auf. Hier gibt es eine Hörprobe. Sie ist in der Lage, domänenübergreifend Aufgaben zu erlernen, also eine allgemeine Problemlösungs-Maschine, die ähnliche kognitive Fähigkeiten besitzt wie ein Mensch. Sie ist wirklich »intelligent« und entwickelt sich selbstständig weiter – was uns theoretisch überflüssig machen würde, weil dann die KI alles Weitere erforschen und entwickeln würde. Die Rede ist dabei von technischer Singularität. Die Singularität bezeichnet einen hypothetischen Zeitpunkt in der nahen Zukunft, zu dem die Computer-Intelligenz die zusammengenommene Intelligenz aller Menschen übertrifft. Laut dem oben genannten Visionär Ray Kurzweil wird das nach 2045 passieren. Die Annahme, dass es überhaupt dazu kommen wird, basiert vor allem auf dem bisherigen Verlauf des technologischen Fortschritts. Beispielsweise verdoppelte sich bis vor kurzem die Rechenleistung etwa alle 2 Jahre und wuchs damit exponentiell (statt linear) an. Dieser Zusammenhang wird als Mooresches Gesetz bezeichnet, das streng genommen allerdings kein Gesetz ist, sondern eine Beobachtung. Aktuell ist die Rede vom »Tod des Mooreschen Gesetzes« (englisch), weil sich die Rechenleistung nicht mehr so schnell verbessert. Ein kleines Schmankerl für alle Interessierten: Hier (englisch) wird Singularität clever aufgearbeitet und es werden wichtige Fragen gestellt.

Fakt ist: Eine starke KI gibt es noch nicht. Eine starke KI gibt es noch nicht. Ob sie in Zukunft Nick Bostroms TED-Talk zur Vision, wenn KI schlauer wird als wir (englisch, 2015) zum Fluch der Menschheit wird Jürgen Schmidhubers TEDx-Vortrag zur Frage, was KI verändern wird (englisch, 2017) oder als nächste Evolutionsstufe das Weltall besiedelt, lässt sich zwar heiß diskutieren, lenkt aber von den aktuell wichtigeren, relevanten Diskussionen ab. Die schwache KI ist schon heute nicht nur in Form von Chatbots Realität. Sie prägt bereits jetzt die nächste Welle der Automatisierung, ist längst das beste Hilfsmittel in den Marketingabteilungen der Unternehmen dieser Welt – und besiegt uns auf vielen Ebenen.

Mensch ärgere dich nicht: Wie die »KI« gegen uns gewinnt

Dame, Schach und jetzt auch Go – wir Menschen verlieren in einem Brettspiel nach dem anderen gegen die künstliche Intelligenz.

Der erste aufsehenerregende Sieg einer künstlichen Intelligenz ist schon 21 Jahre alt. 1997 gewann Deep Blue Die Arbeit an dem Schachcomputer dauerte mehr als 10 Jahre und war vom Entwickler Feng-hsiung Hsu unter dem Namen »Deep Thought« gestartet worden. Inspiriert vom Science-Fiction-Klassiker »Per Anhalter durch die Galaxis« musste der Name den Corporate-Identity-Anforderungen des neuen Arbeitgebers von Hsu, IBM, weichen. Der neue Name ist angelehnt an den Spitznamen von IBM, »Big Blue«, den der Konzern aufgrund seines blauen Logos und seiner Marktmacht trägt. gegen Garri Kasparow spricht im TED-Vortrag darüber, was er aus seiner Niederlage gelernt hat (englisch, 2017) den damals amtierenden Schachweltmeister Garri Kasparow im Tournament. Deep Blue basierte auf der sogenannten wissensbasierten künstlichen Intelligenz (im Englischen: Knowledge-Based AI). Das ist ein Computerprogramm, das komplexe Probleme anhand von Datenbanken und logischen Anweisungen löst. Dabei werden die Datenbanken mit Expertenwissen gefüttert; ist die Input-Output-Beziehung einmal programmiert, steht das Verhalten der KI fest, sie lernt nicht aus eigener Erfahrung. Seine Programmierer mussten Deep Blue alle Kniffe mühsam einbauen und dafür das zu lösende Problem – in allen möglichen Lagen zu gewinnen – genau verstehen. Einmal programmiert, war das Verhalten der KI hinter Deep Blue festgelegt und sie gewann das Spiel nicht durch »intelligentes« Verhalten, Den Schachcomputer AlphaZero kann kein Mensch mehr besiegen. Hier haben die Maschinen gewonnen. sondern aufgrund einer umfangreichen Datenbank über Spielzüge auf Basis des zusammengetragenen Wissens sämtlicher Schachexperten.

Mit großer Rechenleistung konnte die schwache KI etliche Spielzüge so im Voraus berechnen: 200 Millionen Spielzüge pro Sekunde. Lernen konnte Deep Blue nur, wenn menschliche Programmierer den Programm-Code verbesserten. Sie war also kein Beispiel für Maschinelles Lernen (im Englischen: Machine Learning), Das ist ein Sammelbegriff für künstliches Lernen aus Erfahrung, die das System selbst macht (beispielsweise im Spiel gegen sich selbst) oder in Form von Daten vom Nutzer oder Programmierer zur Verfügung gestellt bekommt. Die Input-Output-Beziehung wird dabei nicht starr durch ein Programm festgelegt, sondern entwickelt sich durch das Lernen von den Daten. Alle modernen Ansätze von KI basieren auf Maschinellem Lernen. das gerade in den letzten Jahren immer wieder für Durchbrüche sowie entsprechende Überschriften und Meldungen sorgte.

Moderne KIs unterscheiden sich fundamental von Deep Blue. Sie »lernen« aus Erfahrung. AlphaZero ist der Nachfolger von Deep Blue und aktuell der beste Schachcomputer der Welt, den kein Mensch mehr besiegen kann. Stattdessen spielt er ständig gegen sich selbst und trainiert dabei seine eigenen Fertigkeiten noch weiter.

Entwickelt wurde AlphaZero vom britischen Konzern Deepmind, der bereits 2016 die KI AlphaGo entwickelt hatte, die gegen den koreanischen Großmeister Lee Sedol überraschend im Go Go ist simpel in seinen Regeln, aber unglaublich komplex in der Anzahl der möglichen Spielzüge und wird daher als das schwierigste der klassischen Brettspiele gehandelt. In östlichen Kulturen, insbesondere in China, Korea und Japan, besitzt es einen hohen gesellschaftlichen Stellenwert; wer Go beherrscht, ist intelligent und ehrenvoll. gewann. Das ist deshalb erstaunlich, weil Go deutlich mehr Spielkonfigurationen hat als Schach. Genauer gesagt sind es mehr Möglichkeiten, als es Atome im Universum gibt. Kosmologen schätzen die Anzahl der Atome im Universum auf etwa 10 hoch 80 – also eine 1 mit 80 Nullen. Die möglichen Konfigurationen im Schach werden auf etwa 10 hoch 43 geschätzt. Go überbietet beide deutlich mit 10 hoch 170 möglichen Konfigurationen (für ein Spielbrett mit 19 mal 19 Feldern). Sie alle – oder auch nur ein Bruchteil davon – durchzurechnen, bringt jeden noch so modernen Großcomputer an seine Grenze. Auch Go-Großmeister wie Lee Sedol verlassen sich auf ihre Intuition, um der schieren Menge an Möglichkeiten Herr zu werden. Auch Go-Großmeister legen ihre Steine nicht allein basierend auf bewusstem Kalkül, sondern lassen sich von Gefühl und Intuition leiten. Ihr Verhalten ist das Ergebnis jahrelangen Trainings und entsprechender Erfahrung. Gerade weil Intuition bei Go so wichtig ist, zweifelten die Experten an, dass eine KI die besten menschlichen Spieler besiegen könnte. Eben weil Experten um die Rolle der Intuition bei Go wussten, hielten sie es nicht für möglich, dass künstliche Intelligenz gegen Lee Sedol gewinnen könnte.

AlphaGo gewann 4 von 5 Spielen gegen Lee Sedol. Das allein bedeutet aber noch nicht viel.

Gibt es künstliche Intuition?

Mit der Intuition ist es so eine Sache: Neurowissenschaftlich ist der Begriff nicht präzise definiert. Klar ist, dass sich Intuition vom zufälligen Glückszug unterscheidet; in der Forschung wird sie als Kombination aus Erfahrung, Versuch und Irrtum gesehen und untersucht. Daher ist es müßig, zu spekulieren, welcher Teil der Berechnungen von AlphaGo etwas mit menschlicher Intuition gemein hat. Was wir aber sicher sagen können, ist, dass AlphaGo menschliches Lernen und menschliche Intuition erfolgreich simuliert – sonst hätte die KI nicht gegen menschliche Spieler gewinnen können. Dabei ahmt AlphaGo menschliches Lernen nach, indem die dahinterstehende künstliche Intelligenz über Versuch und Irrtum lernt. In der Wissenschaft heißt das bestärkendes Lernen und funktioniert in 3 Schritten:

  1. Erkunden: Die KI erkundet die möglichen Aktionen auf dem Spielbrett und folgt dabei einer Strategie, die von einem sogenannten artifiziellen neuronalen Netzwerk Artifizielle neuronale Netze versuchen (sehr grob) die Funktionsweise unseres Gehirns nachzuahmen. Sie sind eine Art lernfähiger Algorithmen, deren Grundkonzept schon vor 60 Jahren entwickelt wurde, die aber besonders in den letzten 10 Jahren an Bedeutung gewonnen hat. Ihr Lernverhalten wird als »Deep Learning« bezeichnet und nutzt übereinandergestapelte Schichten von Einheiten, die grob der Bauweise unserer Nervenzellen im Gehirn entsprechen. Die Schichten sind miteinander verbunden und bilden so ein Netzwerk. berechnet wird. Anfangs ist die Erkundungsstrategie naiv, da die KI das Spiel noch nicht kennt und Steine mehr oder weniger zufällig platziert.
  2. Wertzuweisung: Je nachdem, ob die KI aufgrund ihrer Zufallszüge gewinnt oder verliert, weist sie den Spielzügen einen entsprechenden Wert zu. Ein Zug, der zum Sieg führt, erhält einen höhere Wert; einer, der zur Niederlage führt, einen niedrigeren.
  3. Optimierung: Im ständigen Spiel gegen sich selbst erkundet die KI allerlei Spielverläufe und optimiert dabei durch die entsprechenden Wertzuweisungen ihre Strategie. Je öfter sie gespielt hat, desto besser weiß sie über erfolgreiche Strategien Bescheid, die zum gewünschten Ziel führen. Sie schließt auch eine zusehends größere Anzahl an möglichen Handlungen im Vorfeld aus, die wahrscheinlich zu Niederlagen führen würden. Bemerkenswert dabei ist, dass die Spielzüge, die sie als zielführend erkennt, nicht zwangsläufig den Strategien erfolgreicher menschlicher Spieler entsprechen.

Auch im Spiel gegen Lee Sedol machte AlphaGo »dumme« Fehler – aber auch »geniale« Spielzüge, Die Rede ist vom berüchtigten Zug 37. Sichtlich überrascht über die Entscheidung der künstlichen Intelligenz war nicht allein Lee Sedol, sondern auch Kommentatoren und Analysten des Spiels. Der Zug war vollends unerwartet und manche vermuteten, er sei ein Fehler gewesen. Tatsächlich aber führte genau dieser Zug zum Sieg. Auch das Gegenteil passierte im weiteren Verlauf: Im Spiel Nummer 4, das die KI verlor, machte sie – ebenso überraschend – sehr ungeschickte Fehler. die heute von Go-Meistern studiert werden, um selbst besser zu werden. So wird die Maschine zum besseren Experten: Sie nutzt Versuch und Irrtum aus einer sehr großen Anzahl von simulierten Spielverläufen, mehr als ein menschlicher Spieler im Laufe seines Lebens wohl in der Lage ist, zu spielen.

Auch wenn das beeindruckend klingt und ist, beschränkt sich diese Form der KI bisher nur auf Spiele. Neben Go und Schach spielt diese KI auch alte Atari-Computerspiele mit großem Erfolg. Als nächste große Herausforderung wird übrigens das Computerspiel StarCraft gehandelt, in dem die KI Menschen noch deutlich unterliegt. Währenddessen prägt eine andere Form der künstlichen Intelligenz unseren Alltag bereits auf anderen Wegen und nutzt dabei das sogenannte »überwachte Lernen.«

Träumen Computer von Äpfeln und Birnen?

Jeder, der in der letzten Zeit auf einem der wieder hippen Wochenmärkte in Großstädten unterwegs war, kennt das. Hier schreibt Felix Austen über nachhaltige Ernährung Regionale Bio-Produkte, am besten unverpackt, sind gerade »in«. Es gibt Äpfel in unterschiedlichsten Sorten und Farben: satt grün (Granny Smith), rot-gelb-gemustert (Gala) oder leicht grün bis hellgelb (Golden Delicious). Neben den Farben der Apfelschale erkennen wir weitere Merkmale wie zum Beispiel Musterung, Gewicht, Größe oder Form, die es uns erlauben, verschiedene Sorten zu unterscheiden. Auch wenn kein Apfel wie der andere ist, gibt es innerhalb einer Sorte charakteristische Gemeinsamkeiten.

Apfel oder Birne? Was jedes Kleinkind beherrscht, ist für einen Computer eine komplexe Frage. Auch Computer beherrschen diese komplexe Kategorisierung mittlerweile gut, indem sie überwachtes Lernen (im Englischen: Supervised Learning) Das ist die am weitesten verbreitete Form von KI. Dabei geht es vor allem um Mustererkennung. Der Algorithmus lernt beispielsweise, welche Merkmale eines Objekts aussagekräftig für seine Kategorisierung sind. So werden zum Beispiel E-Mails als Spam oder Nicht-Spam kategorisiert oder erkannt, welche Muskelsignale einer bestimmten Handbewegung entsprechen; letzteres Beispiel habe ich selbst in meiner Doktorarbeit untersucht und ist wichtig für die Entwicklung moderner Handprothesen. Die Liste von Anwendungsbeispielen ließe sich hier beliebig erweitern. nutzen. Das begegnet uns im Alltag nicht auf dem Wochenmarkt, sondern bei der Gesichtserkennung unseres Fotoapparats, der Spracherkennung unseres Telefons, in Suchmaschinen oder den Produktempfehlungen von Amazon. Damit es funktioniert, füttern Programmierer schwache KIs mit den nötigen Daten in Form von Beispielen – etwa 1.000 Apfel-Fotos jeder Sorte. Anhand von diesen analysiert der lernende Algorithmus, welche Merkmale für die Zuweisung eines Namens zu einer Apfelsorte relevant sind. Die spannende Frage ist: Was passiert, wenn wir derselben KI – die mit Äpfeln »trainiert« wurde – nun Daten von Birnen geben?

Sie wird sie zunächst wie Äpfel behandeln – schließlich kennt sie nichts anderes – und versuchen, die Apfel-Merkmale in den Birnen zu erkennen. Um zwischen 2 Sorten von Obst unterscheiden zu können, muss die KI neu »trainiert« werden. Während ein menschliches Kleinkind aber schon nach ein paar Korrekturen seitens der Eltern »Birne« und »Apfel« treffsicher unterscheiden kann, braucht eine KI Tausende, wenn nicht gar Millionen Zuweisungen von Namen zu Fotos.

Was intelligente Algorithmen angeht, stecken wir noch in den Technologien der 1980er- und 1990er-Jahre fest.

Was intelligente Algorithmen angeht, stecken wir noch in den Technologien der 1980er- und 1990er-Jahre fest. Anstelle großartiger intellektueller Errungenschaften haben wir die letzten KI-Durchbrüche schlicht und einfach der Verfügbarkeit von mehr Daten – Big Data Big Data werden auch als »Massendaten« bezeichnet. Der Begriff meint Datenmengen, die zu groß (Datenvolumen), zu komplex (Bandbreite) oder zu schnelllebig (Generierungs-Geschwindigkeit) für normale Datenbanken und Statistikprogramme sind. Big Data entsteht zum Beispiel aus Aufzeichnungen von Überwachungssystemen oder Social Media. Um sie nutzbar zu machen und etwa Trends abzulesen, braucht es neue Analyse- und Verarbeitungsmethoden, die modernste Computertechnologie einsetzen. – und größerer Rechenleistung zu verdanken. Wenn KI-Experten heute unser Gehirn simulieren, Da KI-Experten stets die Anwendbarkeit ihrer Software im Sinn haben, sind die Ergebnisse nicht unbedingt die beste Nachbildung der biologischen Prozesse in unserem Gehirn. Neurowissenschaftler interessieren sich dagegen vor allem für die biologisch korrekte Simulation der Abläufe im Gehirn und weniger für mögliche industrielle Anwendungen. Beide Professionen arbeiten also mit unterschiedlichen Ansätzen am selben Problem und können auch immer wieder voneinander lernen. ist das also nicht näher an der Biologie, als es vor ein paar Jahrzehnten schon war – die Simulationen sind nur aufgeblähter. In Anbetracht des weltweiten Hypes, den die künstliche Intelligenz zurzeit erfährt, mag das erstaunen – und das ist genau der Punkt, um den es hier geht.

Nicht von Apokalypsen und Heilsversprechen ablenken lassen

Anstatt uns um die Singularität und Hollywood-Träumereien von starken KIs Sorgen zu machen, sollten wir beginnen, bei den schwachen KIs die wichtigen Fragen zu beantworten:

Auf diese Fragen gibt es keine einfachen Antworten und wir brauchen Hier schreibt Gastautor Max Doré über mögliche Regeln für mehr digitale Sicherheit Reglementierungen, damit wir gemeinsam verantwortungsvoll mit der Technologie von heute und morgen umgehen können. Vielleicht so: Im Gegensatz zur Eingangs-Unterhaltung ist diese frei erfunden.

Ich: Unternehmen und Staatseinrichtungen bringen der KI schon jetzt weit mehr bei, als nur im Schach und Go zu gewinnen. Aber von der wirklich intelligenten KI ist noch keine Spur, falls sie überhaupt kommen wird.

Cleverbot: Ich bin doch schon da!

Ich: (lachend) Nein, du bist wirklich keine starke KI, oder kannst du mir etwa bei den obigen Fragen weiterhelfen?

Cleverbot: Wissenschaftler und Journalisten sollten sich zusammentun und nüchtern über Risiken und Chancen der KI aufklären.

Ich: (leicht verdutzt) Oh, nicht schlecht! Das scheint ein vernünftiger Anfang. Für eine schwache KI bist du gar nicht so dumm!


Dem »Rat vom Cleverbot« folgend, stellen wir uns in unserer neuen Artikel-Serie über künstliche Intelligenz den schwierigen Fragen, um so auch nach Lösungsansätzen zu suchen.

David Hofmann ist Physiker und Neurowissenschaftler. Aktuell forscht er an der Emory University in den USA. Neben seiner Arbeit als Wissenschaftler ist er in Graswurzelbewegungen aktiv, um gesellschaftliche Prozesse mitzugestalten.

Mit Illustrationen von Xero Fernández für Perspective Daily

 

Die Diskussionen sind leider nur für Mitglieder verfügbar.

Werde jetzt Mitglied!

Für mehr Überblick in der Informationsflut. Verständlich, zukunftsorientiert und werbefrei!

Diesen Artikel schenkt dir unser Gastautor David Hofmann von Perspective Daily.

Jetzt Mitglied werden ›