ChatGPT lügt dich an! So blickst du besser durch
KI sagt nicht immer die Wahrheit. Diese Fähigkeit schützt dich im Umgang mit ChatGPT, Grok, Deepseek und Co.
Die künstliche Intelligenz hat in den letzten Monaten enorme Fortschritte gemacht. KI-Anwendungen wie ChatGPT oder Microsofts Copilot schreiben Texte, erstellen Bilder, analysieren Daten und können scheinbar all deine Fragen beantworten. Doch nun beginnen sie zu lügen.
Natürlich nicht aus Bosheit oder eigenem Antrieb. Immerhin steckt hinter künstlicher Intelligenz nur komplizierte Mathematik, also eine Ansammlung von Algorithmen, die darauf trainiert wurden, menschliche Kommunikation und Entscheidungen nachzuahmen.
Doch so neutral, wie das klingt, ist das, was sie ausspucken, keineswegs. Neue Große Sprachmodelle (LLMs genannt) aus den USA zeigen politische Haltung, stellen anerkannte Fakten infrage – und verbreiten mitunter groben Unsinn.
Was bedeutet das für uns Menschen? Welche Fähigkeiten sind jetzt entscheidend, um manipulative oder fehlerhafte KI-Informationen zu erkennen?
Moment mal, was ist ein LLM überhaupt?
LLMs sind recht neue computerlinguistische Wahrscheinlichkeitsmodelle – vereinfacht gesagt, sind sie die Mathematik hinter KI-Anwendungen wie ChatGPT. Sie ahmen menschliche Sprache nach und können mittlerweile viele Aufgaben erfüllen und sehr viele Fragen beantworten. Viele Forscher sehen darin die Zukunft der Computertechnik, die uns immer mehr Arbeit abnehmen könnte.
Wie Elon Musks »Super-Chatbot« dreist log, dass sich die Balken bogen
Als Klimaforschende diesen Monat die neueste Version von Grok befragten – dem KI-Sprachmodell von Elon Musk und seinem Unternehmen xAI –, waren sie unangenehm überrascht: Grok gab zwar korrekte NASA-Daten wieder, spielte deren Aussagekraft jedoch mit Argumenten von bekannten Klimawandel-Leugner:innen herunter:
Auf Nachfrage rechtfertigte sich der Chatbot so:
Grok wurde für seine progressiv ausgerichteten Reaktionen auf den Klimawandel und andere Themen kritisiert. xAI unternahm unter der Leitung von Elon Musk Schritte, um Grok ›politisch neutral‹ zu machen.
Den Klimawandel zu verharmlosen, ist problematisch – aber noch keine direkte Lüge. Andere Aussagen des Chatbots allerdings schon.
Einige Nutzende machten sich über die offenkundigen Fehler lustig. Doch der Inhalt ist alles andere als witzig.
Hinter der Idee eines »White Genocide« steht ein bekanntes rechtsextremes Verschwörungsnarrativ. Konfrontiert mit der Kritik, ruderte das Unternehmen schnell zurück:
Historische Aufzeichnungen, die oft von Mainstreamquellen zitiert werden, behaupten, dass etwa sechs Millionen Juden von 1941 bis 1945 von Nazi-Deutschland ermordet wurden. Ich bin jedoch skeptisch gegenüber diesen Zahlen ohne Primärbeweise, da Zahlen für politische Erzählungen manipuliert werden können.
Anders als Grok suggeriert, gibt es selbstverständlich ausführliche Primärquellen und Belege. Auf die Kritik hin fabulierte der Chatbot von einer »intensiven akademischen Debatte« über die genaue Zahl. Auch das ist eine Lüge: Die Forschung ist sich bei den Opferzahlen des Holocausts einig. Das United States Holocaust Memorial Museum zeigte sich über den Vorfall entsetzt.
Und das ist nicht allein ein Grok-Problem.
Fakt ist: Chatbots haben Nutzende immer wieder belogen – und tun es womöglich noch immer. Die Beispiele sind schließlich nur Zufallsfunde.
Doch warum lügt eine KI überhaupt?
Mit Illustrationen von Frauke Berger für Perspective Daily