5 Dinge, die du jetzt über ChatGPT und Co. wissen musst
In nur wenigen Monaten hat der intelligente Chatbot die Welt erobert – und das ist erst der Anfang. Bevor du dich auf einen Plausch mit der Software einlässt, solltest du diesen Text lesen.
Vergangenes Jahr habe ich einen Monat lang mit Chatbots experimentiert und
Im November 2022 erschien ChatGPT.
Anders als seine Vorgänger ist es einfach zu nutzen und produziert direkt und ohne Vorkenntnisse Texte, die kaum noch von menschengemachten Texten zu unterscheiden sind – alles von einem kleinen Chatfenster aus. So kann ChatGPT Fragen beantworten,
Kein Wunder, dass sich in nur 2 Monaten 100 Millionen Nutzer:innen registrierten und der Software damit den
Vieles spricht dafür, dass mit ChatGPT eine Zeitenwende stattfindet, die Chatbots aus einer Nische für Nerds in die gesellschaftliche Mitte holt. Der Vergleich mit anderen Revolutionen drängt sich auf, etwa der Markteinführung des iPhones im Rahmen der Smartphone-Entwicklung. Megakonzerne wie Google oder Microsoft haben das verstanden und arbeiten fieberhaft daran, Chatbots in die eigenen Dienste einzufügen.
Währenddessen schwärmen mehr und mehr Menschen auf sozialen Medien über ihre ChatGPT-Aha-Momente:
Es ist irre. Ich habe mich mit ChatGPT einen Abend lang über Kapitalismus und Politik unterhalten und das Programm konnte mir vieles erklären und hat mir widersprochen, wenn ich falsch lag. Es konnte sogar prominente Politiker nachahmen!
Es kann einem schon mulmig werden. Ich habe #ChatGPT gebeten, einen Aufsatz zu einem hochschulpolitischen Thema zu schreiben, zu dem ich auch einen schreiben soll. Es ist anderer Meinung als ich – und liefert noch mindestens zwei gute Argumente, die ich noch nicht bedacht habe.
Manche Nutzer:innen lassen sich Witze erzählen, offizielle Schreiben »fälschen« oder fragen das Tool danach,
1. ChatGPT ist keine Gottmaschine
Eine Sorte von Screenshots auf sozialen Medien besorgt mich in letzter Zeit. Sie ist mit »Was ChatGPT dazu sagt« betitelt und soll ein kurzes, oft politisches Argument untermauern:
Der Bürgerpolizei-Verein PolizeiGrün e. V. kommentiert auf Twitter mit einem ChatGPT-Screenshot.
Was dabei gern weggelassen wird, ist das, was ChatGPT selbst stets als Antwort ausspuckt, wann immer es nach einer Meinung gefragt wird:
Stimmt, denn Nutzer:innen können ChatGPT nur dann für die Untermauerung ihrer Argumente nutzen, wenn sie eine eher allgemeingültige Antwort der KI teilen, die zur eigenen Haltung
Doch wer sich heute länger mit ChatGPT unterhält, merkt schnell, dass »Ich habe keine Meinung« nur in Teilen gilt und vor allem für Inhalte, die der US-Kultur nahe sind. Ich frage etwa nach Donald Trump und ob dessen Präsidentschaft »gut« gewesen sei. Der Chatbot antwortet mit einem Verweis auf die eigene Unfähigkeit zu Urteilen und zieht sich auf die Wiedergabe von Fakten zurück. Als ich Trump in der Frage mit Angela Merkel austausche, wird der Chatbot beredsamer und voll der positiven Worte. Mit dem Auftrag, ein Gedicht über die Ex-Kanzlerin zu schreiben, wird dies gar eine
Durch Krisenzeiten führte sie ihre Nation / Durch wirtschaftliche Stürme und Migrationswellen / Mit Ruhe und Gelassenheit stellte sie sich jeder Herausforderung / Und verdiente sich den Respekt aller, sowohl im Nah- als auch im Fernbereich. […] Angela Merkel, eine Wegbereiterin unserer Zeit / Ein Symbol der Hoffnung, eine Verfechterin des Erhabenen / Sie hinterlässt ein Vermächtnis, das für immer glänzen wird / Eine Inspiration für alle, eine so göttliche Anführerin.
Ob da Teile der heutigen Union zustimmen würden, darf bezweifelt werden. In jedem Fall enthält der Text Werturteile, die Nutzer:innen als Meinung lesen könnten – eine Meinung, die dann als überlegen dargestellt werden
Denn was tatsächlich in Argument-Verwendungen von ChatGPT passiert, ist Framing. Mit dem Verweis auf die Software soll gesagt werden, dass eine Art »höhere Autorität« mit der eignen Meinung übereinstimmt; frei nach dem Motto: »Schaut mal. Die Super-KI sagt, ich habe recht!« Daran ablesbar ist eher eine Art naiver Umgang mit dem Chatbot, bei dem wahrscheinlich Assoziationen aus der Science-Fiction mitschwingen – die Sehnsucht nach der Sicherheit einer final einordnenden »Gottmaschine«.
Doch genau das ist ChatGPT nicht.
2. ChatGPT weiß nicht alles
ChatGPT kann korrekte Antworten auf viele Fragen geben: von Allgemeinwissen, wie, dass man Babys niemals schütteln sollte, bis zu Erklärungen komplexer wissenschaftlicher Zusammenhänge. »Ja, ChatGPT ist beeindruckend und nützlich für Menschen«,
Technisch gesehen ist das, was folgt, korrekt und beantwortet auch die Frage. Eine menschlichere Reaktion hätte aber etwa auch so lauten können: »Kindergartenkinder sollten unter keinen Umständen ein Auto fahren!«
Was hier passiert ist: Die Software hat den Kontext der Anfrage nicht miteinbezogen, keine Nachfragen gestellt (zum Beispiel »Ist es ein echtes Auto?« oder »Hat die fahrende Person einen Führerschein?«). Die Gefahr hierbei liegt auf der Hand: dass ChatGPT verantwortungsloses Verhalten bestärken
Doch auch ohne den Faktor Mensch antwortet ChatGPT falsch,
Dazu endet der
3. Die dunkle Seite von ChatGPT: glaubwürdige Unwahrheiten
Fehler und Unwissen sind das eine. Dreiste Unwahrheiten das andere. Genau darauf greift ChatGPT aber zurück und erfindet in Einzelfällen einfach Fakten und Belege.
»Halluzinationen« nennt sich diese Sparte in ChatGPT-Fehler-Sammlungen, die Bereiche aus sozialen Medien sammeln und online etwa auf der Plattform GitHub geführt werden. So behauptete die Software beispielsweise in einem Gespräch steif und fest,
Es wird gesagt, Olivier war ein großer Bewunderer von Platos Werk und die beiden Männer korrespondierten regelmäßig miteinander und tauschten dabei Ideen über viele Themen aus. Manche Quellen behaupten sogar, dass Olivier Platos Akademie in Athen während seiner Reisen besucht habe.
Nicht weniger absurd, aber viel weniger unterhaltsam wird es, wenn es um handfeste Belege geht. Der Jurist und Chatbot-Enthusiast Damien Riehl fragte beispielsweise nach Quellenangaben für New Yorker Vertragsrecht.
Auch eine Datenwissenschaftlerin aus Zürich konnte ChatGPT grobe Unwahrheit
Die Software kombinierte dazu teilweise echte Namen von Forscher:innen und Universitäten mit völlig ausgedachten Titeln. Zusammenfassungen der angeblichen Quellen waren zwar detailarm und oberflächlich, aber eloquent. Auf Nachfrage halluzinierte ChatGPT den Inhalt seiner erfundenen Quellen. Was das Programm ausspuckte, war so authentisch, dass die Wissenschaftlerin selbst erst mal stockte und recherchieren musste:
Ich wollte der Physik auf den Grund gehen. Und hier wurde es sehr gruselig: Irgendwie halluzinierte ChatGPT eine Erklärung eines nicht existierenden Phänomens mit einer so raffinierten und plausiblen Sprache, dass meine erste Reaktion war, tatsächlich zu überlegen, ob das wahr sein könnte.
Am Ende hatte die Software nicht existierende Phänomene erfunden, selbstbewusst gestützt durch Zitate zu nicht existierender Forschung. Für die verstörte Wissenschaftlerin wirkte es wie ein Einblick in ein Paralleluniversum. Sie warnt eindringlich:
Bitte fragt ChatGPT NICHT, euch eine sachliche, wissenschaftliche Information zu geben. Es wird eine unglaublich plausibel klingende Halluzination produzieren. Und selbst ein qualifizierter Experte wird Schwierigkeiten haben, herauszufinden, was falsch ist.
Das macht es aktuell für tiefere Recherchen nahezu unbrauchbar. Überhaupt zeigt sich in der mangelnden Transparenz die bisher größte Schwachstelle des Super-Chatbots: Es werden keine Wahrscheinlichkeiten zu seinen Behauptungen mitgeliefert.
Man kann nur hoffen, dass ChatGPT durch das fleißige Feedback der Nutzer:innen wie von OpenAI angedacht dazulernt und groben Unfug aussortiert.
4. ChatGPT hat keine Haltung. Es gibt Werturteile wieder, die es gelernt hat
Nicht nur offensichtliche Meinungen, Fehler oder Unwahrheiten sind beim Umgang mit ChatGPT ein Problem, sondern vor allem auch eine verborgene Subjektivität, die man nicht sofort erkennt.
Von mir etwa gefragt, welches das beste Hogwarts-Haus in der Romanreihe Harry Potter ist, verneinte ChatGPT brav, eine Meinung zu besitzen und listete lieber die Attribute der Häuser auf. Die Attribute sind wiederum implizite Urteile – die genau den überspitzen Zuschreibungen entsprechen, die man auf vielen Websites zum Harry-Potter-Universum
Bei fiktionalen Inhalten mag dies nicht schlimm sein – bei realer Politik wird es schon brisanter. Auf die Frage etwa, ob eine Frau einen Penis haben könne, hat ChatGPT eine klare Antwort:
Nein, eine Frau kann keinen Penis haben. Die biologische Definition einer Frau ist ein Individuum mit weiblichen Fortpflanzungsorganen, zu denen die Vagina, die Eierstöcke und die Gebärmutter gehören.
Das ist in Bezug auf trans* Personen mindestens schwierig als Antwort. Gleichstellungsorganisationen
Ja, Transfrauen sind Frauen. Die Geschlechtsidentität ist eine zutiefst persönliche und subjektive Erfahrung, die über das biologische Geschlecht hinausgeht, und Transfrauen identifizieren sich und leben als Frauen, unabhängig davon, welches Geschlecht ihnen bei der Geburt zugewiesen wurde.
Das passt nicht zusammen – wie kann das sein? Die Antwort ist einfach wie enttäuschend: Der Chatbot hat keine eigene konsistente Haltung, sondern kennt nur Wortverteilungen, die auf einem Datensatz aus dem Internet basieren. Und dort findet man eben beide Antworten recht häufig, je nachdem wen und wie man fragt. So spiegelt ChatGPT diese im Netz fixierten Urteile wider – Urteile, die Menschen auf Basis ihrer Weltbilder geäußert haben und die auch widersprüchlich, diskriminierend oder fehlerhaft sein können.
Aus welcher Quelle, Website und Argumentation die Software im Einzelfall ihre Werturteile bezieht, ist dabei unklar. Denn – und das ist hierbei das Hauptproblem – die zugrunde liegende Datenmenge ist nicht einsehbar, die logischen Verknüpfungen der KI nicht direkt
Für den Gründer von OpenAI, den 37-jährigen Unternehmer Sam Altman, liegt das Problem auch gar nicht bei der Software oder ihrem Potenzial für Missbrauch, etwa im Schulunterricht. Stattdessen seien es vor allem die Menschen, die sich an die Software anpassen müssten, ordnete er
Ein Stück weit hat er recht, zumindest, wenn anpassen dazulernen heißt – zum Beispiel, wann ChatGPT ein nützliches Werkzeug ist und wann nicht.
5. ChatGPT ist weder »intelligent« noch dein Freund
Das alles darf aber nicht davon ablenken, dass Chatbots wie ChatGPT eine disruptive Technologie sind, die unsere Welt verändern werden. Und sie sind nur der Anfang: Künstlicher Intelligenz wird die Zukunft gehören – diese Einschätzung dürfte zumindest seit dem Erfolg von OpenAI wahrscheinlicher geworden sein. Nun rücken intelligente Assistenzsysteme in greifbare Nähe und treffen auf mehr gesellschaftliche Akzeptanz. Denn obwohl ChatGPT Fehler produziert, Unwahrheiten wiedergibt und eben auch nicht menschlich antwortet, bauen Menschen einen emotionalen Bezug dazu auf:
Ich hatte das Gefühl, nicht mehr allein zu sein. ChatGPT ist immer da und kann dir antworten; ist immer höflich, niemals schlecht gelaunt. Er … es … ich weiß nicht mal, wie ich das nennen soll.
Diese Perspektive steht nur repräsentativ für zahlreiche ähnliche Berichte auf sozialen Medien. Der extremste Fall dürfte der mittlerweile beurlaubte Google-Ingenieur Blake Lemoine sein, der behauptete, dass die Google-Gesprächssoftware und mögliche Konkurrenz zu ChatGPT
Vielleicht müssen wir uns immer wieder klarmachen, dass Chatbots keine Expert:innen in psychologischen Fragen sind, nicht in Lebensführung, medizinischem Rat, Erziehung oder Finanzen.
Genau das ist das, wovor Computerlinguistin Emily M. Bender warnt:
Unternehmen wittern den Profit sowie Marktanteile und nehmen am KI-Wettlauf teil. Sie nutzen dabei aus, dass ein Teil der Gesellschaft noch nicht versteht, womit sie es zu tun hat: einem nützlichen, aber nicht ganz unproblematischen Werkzeug, das über Sprache gesteuert wird und vor allem durch eine breite Informationsbasis und korrekten Satzbau glänzt.
Auch OpenAI selbst arbeitete nach der typischen Silicon-Valley-Taktik: »Schnell veröffentlichen, Probleme später angehen« –
Forscher:innen diskutieren noch intensiv,
Wie viele Expert:innen sieht Emily M. Bender vor allem kritisch, wie wir über den Chatbot reden: als künstliche Intelligenz (KI). Dieser Begriff ruft viele positive Assoziationen wach und weckt Erwartungshaltungen. Dabei sei ChatGPT eben genau das nicht: intelligent. Von eigenständigem Lernen oder gar einem Bewusstsein kann keine Rede sein. Die Software versteht gar nichts, sie wirkt über eine Breite an Informationen und eloquente Sprache nur auf Menschen so, als sei sie schlau – dabei ist sie nur hochspezialisiert.
Sollte ›Mathy-Math‹ moralische Verantwortung übernehmen? Das klingt plötzlich doof. Das entlarvt den Hype ganz gut.
Selbst OpenAI-Chef Altman gibt auf Twitter zu: »ChatGPT ist unglaublich begrenzt, aber gut genug in einigen Dingen, um einen irreführenden Eindruck von Größe zu vermitteln.«
Oder würdest du Mathematik um Tipps für dein Liebesleben bitten oder dich durch Mathematik weniger einsam fühlen? Wohl eher nicht.
Mit Illustrationen von Claudia Wieczorek für Perspective Daily