Kann ChatGPT meine Therapeutin ersetzen? Ein Selbstversuch
Der Bedarf steigt, doch die Wartezeit für Therapieplätze ist lang. Inzwischen wenden sich Menschen mit ihren Sorgen auch an künstliche Intelligenz. Ich habe es ausprobiert – und eine Expertin gefragt, was sie davon hält.
Vor genau 2 Jahren befand ich mich in einem tiefen, dunklen Loch. Mein Gefühl war: Von selbst komme ich da nicht mehr raus. Ich hatte keine Lebensfreude, lag viel im Bett und weinte oft. Mit Unterstützung meines damaligen Partners rief ich den ärztlichen Bereitschaftsdienst an und schilderte meine Symptome. Die Mitarbeiterin gab mir einen Ersttermin bei einer Psychotherapeutin. Wenige Wochen später hielt ich dann meine Verdachtsdiagnose in der Hand: mittelschwere depressive Episode und
Das ging die nächsten Monate so weiter: Ich hatte weitere Erstgespräche, bekam immer wieder die gleiche Verdachtsdiagnose
Vor wenigen Wochen offenbarte mir meine Therapeutin, dass sie schwanger sei – und mich damit nicht weiter betreuen könne. Die Suche geht also von vorn los. Dieses Mal bin ich stabil und nicht auf sofortige Hilfe angewiesen. Trotzdem fehlt es mir, mich mit jemandem so tiefgründig auszutauschen, mir eine Stunde in der Woche Zeit zu nehmen, über meine Gefühle und Bedürfnisse zu reflektieren und Ratschläge zu bekommen, wie ich meinen Alltag besser bewältigen kann.
Dann erzählte mir eine Kollegin vom Phänomen

Wie gut kann ChatGPT psychische Erkrankungen erkennen?
Ich rufe die Website von OpenAI auf und tippe ins Chat-Fenster:
Mit dieser Antwort habe ich nicht gerechnet. Ich bin positiv überrascht, dass die KI sofort klarstellt,

Reginold hat den Chatbot von OpenAI selbst schon öfter genutzt. Anhand von Merkmalen ihrer Klient:innen bat sie die KI, eine Diagnose zu erfassen. Das sah beispielsweise in etwa so aus:
Was könnte aus psychologischer Sicht eine Diagnose dieser Person sein? Männlich, 52 Jahre alt, hat seit mehreren Monaten Schlafstörungen und Stimmungsschwankungen.
»Ich war überrascht, wie gut es den Umstand eingeschätzt hat. Das merke ich auch immer wieder bei meinen Klient:innen: Oft gehen die Einschätzungen von ChatGPT in die richtige Richtung.« Reginold vermutet, dass die KI auf das sogenannte ICD (Internationale Klassifikation psychischer Störungen) der WHO zurückgreift. »Es kommt häufig zu demselben Schluss und deshalb ist die Beurteilung von ChatGPT nicht so falsch. Aber das hängt natürlich auch davon ab, wie gut man den Fall schildert. Der Chatbot ist nur so gut wie die Informationen, die man ihm gibt, oder Fragen, die man ihm stellt«, sagt die Psychotherapeutin.
Wie geht meine Therapiestunde mit der künstlichen Intelligenz weiter? Ich schildere dem Chatbot mein Problem.
Was kann ich tun?
Die Buchstaben wirbeln nur so über meinen Laptopbildschirm. Der Chatbot erklärt mir, wie leicht uns Handys ablenken können, inwiefern soziale Medien dazu beitragen und warum dieses »Nicht-vom-Handy-Loskommen« negative Gefühle hervorruft. Danach spuckt mir die KI eine Liste mit Ansätzen aus, die mir weiterhelfen könnten.
- Übe Achtsamkeit!
- Schaffe Zeitfenster, in denen du dein Handy nicht nutzt!
- Scrolle bewusst!
- Finde Ersatzaktivitäten!
- Übe dich in Selbstmitgefühl!
Zu jedem einzelnen Punkt gibt es ausführliche Erläuterungen, wie ich die Empfehlungen am besten umsetzen kann. Ich fühle mich erschlagen. Ich frage ChatGPT, was ich morgens machen könnte, um nicht einfach aufs Handy zu starren. Wieder überrollt mich eine Flut an Informationen und Vorschlägen:
- Achtsamkeit oder Meditation
- Dankbarkeit üben
- Dehnübungen oder leichtes Yoga
- Frühstücken ohne Ablenkung
- Tagesplanung oder Journaling
- Bewegung
- Musik hören
- Ein kleines kreatives Ritual
Am Ende fragt mich der Chatbot, welche Idee mich besonders anspricht.
Auch ohne explizite Aufforderung gibt mir ChatGPT jede Menge Tipps zum Journaling und für meine potenzielle neue Dankbarkeitspraxis. Ich bin erschöpft. Würde die KI mich kennen, wüsste sie, dass mir Entscheidungen schwerfallen, ich mich schnell von Informationen überfordert fühle und präzise Antworten brauche – typische Merkmale für AD(H)S. Aber genau das ist der Punkt, die KI kennt mich und meine Bedürfnisse nicht.
»Der Mensch hat eine Fähigkeit, die die Maschine nie ersetzen kann, nämlich Empathie. Ich lerne meine Klientinnen und Klienten mit der Zeit kennen, kann persönlich auf sie eingehen und weiß, was sie brauchen. Manche schätzen es, wenn ihr Therapeut ihnen während des Gesprächs ein Taschentuch reicht. Andere mögen es, wenn es zwischendurch einfach mal ruhig ist und beide schweigen. Auf diese menschlichen Faktoren kann ein KI-System natürlich nicht eingehen«, erklärt Romina Reginold.
Ich weise ChatGPT darauf hin, dass mir die Antworten zu lang sind und dass sie mich überfordern. Ich bitte den Chatbot, mir eine konkrete Sache zu nennen, mit der ich meinen Morgen beginnen kann.
Das ist doch mal ein klarer Vorschlag, mit dem ich etwas anfangen kann! Ich frage nach, wie ich mich dazu motivieren kann. Und wieder folgt ein ellenlanger Monolog. Scheinbar hat der Chatbot zwischen den wenigen Zeilen vergessen, dass er mir präzisere Antworten geben wollte. Ich gebe auf.
Auch wenn meine Erfahrung eher entmutigend war, kann KI in der Therapie durchaus hilfreich sein.

»Die Rolle von Therapeut:innen wird sich verändern«
Sogenannte Smartwatches können außerdem die Herzfrequenz, den Schlaf und Stresspegel messen. Diese Informationen können dann mit in die Therapie einbezogen werden.
Psychotherapeutin Reginold wünscht sich eine Zusammenarbeit zwischen Mensch und Maschine. Überall da, wo Menschen an ihre Grenzen stoßen, kann sich Reginold den Einsatz von KI vorstellen. So zum Beispiel in der Verarbeitung der Daten oder beim Erfassen von Protokollen. »Wenn die KI das Gespräch dokumentiert, kann ich dem Patienten meine volle Aufmerksamkeit widmen. Und er wird nicht abgelenkt, wenn ich nebenbei mitschreibe.«
Wichtig sei allerdings, die Ergebnisse der KI nicht einfach hinzunehmen, sondern immer zu kontrollieren. Denn Unvollständigkeiten oder Fehler könnten fatale Folgen haben. Reginold glaubt, dass sich die Rolle von Therapeut:innen in Zukunft verändern wird. »Ihre Aufgabe wird sich vor allem auf den menschlichen Faktor konzentrieren. Die KI kann zu Beginn ein
Das könnte auch das Gesundheitssystem entlasten. »KI ist viel günstiger als Therapeuten. Außerdem würden die Wartezeiten verkürzt, weil sich Psychologen nicht mehr um den administrativen Teil kümmern müssen. Dadurch hätten wir mehr Kapazitäten, Patienten aufzunehmen.«
Auch bei der Früherkennung psychischer Krankheiten könnte KI künftig eine wichtige Rolle spielen. »Eine schwere Depression kommt nicht von heute auf morgen, sondern bahnt sich an«, sagt Reginold. So könnte eine KI schon früh Warnzeichen erkennen, sodass sich Betroffene damit beschäftigen oder frühzeitig einen Therapeuten oder eine Therapeutin aufsuchen.
ChatGPT kann eine Eintrittskarte sein, um sich professionelle Hilfe zu holen
Gerade für Menschen, die Angst vor einer Stigmatisierung haben, kann ChatGPT laut Reginold dabei helfen, sich diesen Themen anzunähern, bevor man sich in eine Therapie begibt. Allein die Gedanken, Gefühle und Sorgen aufzuschreiben, könne bereits wertvoll sein. Denn dadurch setze man sich mit den eigenen Problemen auseinander und werde sich seiner Bedürfnisse bewusst.
Reginold steht ihren Patient:innen daher auch per E-Mail zur Seite. »In einer Therapiesitzung werden direkte Antworten erwartet. Das kann manche Menschen unter Druck setzen. Außerdem fällt es vielen Patienten leichter, über ihre Erlebnisse zu erzählen, wenn sie ›anonymer‹ sind.«
Das habe ich auch gemerkt – nachdem ich meinen ersten Frust überwunden und ChatGPT eine zweite Chance gegeben habe. Ich habe dem Chatbot Dinge erzählt, die ich in der Therapie vielleicht »schöner« verpackt hätte.
Aber bin ich wirklich so anonym, wie ich mich fühle? Liest vielleicht doch jemand mit?
Grundsätzlich werden die Daten, die ich ChatGPT mitteile, gespeichert. Das ist nötig, damit der Chatbot passende Antworten geben kann. Wer die Sprachfunktion bei ChatGPT nutzt, geht das Risiko ein, dass Entwickler:innen mitlesen. Sie verwenden die Daten, um die KI weiter zu verbessern. Deshalb sollten der KI keine zu sensiblen Informationen anvertraut werden.
Wie lautet nun also das Fazit meines Selbstversuchs? Wichtig ist, die Ergebnisse der KI nicht als unwiderlegbare Tatsachen zu verstehen, sondern mit einer gesunden Skepsis zu nutzen und anschließend über die vermeintlichen Diagnosen des Chatbots zu reflektieren.
»Es ist ganz wichtig, das Gefühl für die eigenen Bedürfnisse nicht zu verlieren und nicht zu viel Vertrauen in die KI zu setzen. Denn am Ende kennt sich jeder selbst am besten«, so Reginold.
Ich werde ChatGPT-Therapie in Zukunft wohl nicht mehr verwenden. Mir fehlt der persönliche Bezug, ein empathisches Nicken, das Gefühl, dass mich mein Gegenüber kennt und versteht. Um eine erste Einordnung für die eigene Situation zu bekommen, kann die KI dennoch sinnvoll sein – doch danach sollte man sich besser professionelle Hilfe suchen.
Mit Illustrationen von Claudia Wieczorek für Perspective Daily