KI in der Psychotherapie: Unterstützung oder Illusion?
- Katharina Eder
- 26. März
- 4 Min. Lesezeit
Die psychotherapeutische Landschaft verändert sich. War künstliche Intelligenz (KI) vor wenigen Jahren noch reines Science-Fiction-Material, begegnet sie uns heute in immer mehr Lebensbereichen. Auch im sensibelsten Feld überhaupt: unserer seelischen Gesundheit.
Doch was kann KI in der Psychotherapie wirklich leisten? Wo liegen ihre Stärken und wo ihre Grenzen? In diesem Artikel werfe ich einen fundierten, gleichzeitig alltagstauglichen Blick auf aktuelle Studien, ethische Fragen und die Möglichkeiten, wie Menschen KI sinnvoll für sich nutzen können.
Warum KI überhaupt eine Rolle spielt
Die Versorgungslage in der Psychotherapie ist angespannt. In Deutschland warten viele Betroffene monatelang auf einen Therapieplatz, in ländlichen Regionen noch länger. Gleichzeitig gibt es eine wachsende Offenheit für digitale Lösungen. Von Selfcare-Apps bis hin zu Chatbots wie ChatGPT.
KI bietet auf den ersten Blick vieles, was das psychotherapeutische System dringend braucht:
• Rund-um-die-Uhr-Verfügbarkeit
• Niedrigschwelligen Zugang ohne Termin, ohne Wartezeit
• Personalisierbare Begleitung für verschiedene Bedürfnisse
Doch kann eine Maschine wirklich dabei helfen, sich selbst zu verstehen, emotionale Muster zu durchbrechen oder gar zu heilen?
Was die Forschung sagt: Zwischen Potenzial und Vorsicht
In einer aktuellen Studie in PLOS Mental Health (Boman et al., 2024) wurde untersucht, wie Nutzerinnen Gespräche mit ChatGPT wahrnehmen, wenn es als psychologische Gesprächspartnerin eingesetzt wird.
Ergebnis: Viele Teilnehmende beschrieben das KI-Gespräch als hilfreich, unterstützend und angenehm strukturiert. Besonders bei Menschen mit leichten bis mittleren psychischen Belastungen konnte ChatGPT zur emotionalen Entlastung beitragen. Vorausgesetzt, die Nutzer*innen wussten, wie sie die KI sinnvoll steuern können.
Auch Lee et al. (2021) bestätigen in einer Übersichtsarbeit im Fachjournal Biological Psychiatry: Cognitive Neuroscience and Neuroimaging, dass KI bereits in mehreren Bereichen der psychischen Gesundheitsversorgung eingesetzt wird. Etwa zur Diagnostik, Gesprächsführung oder Krisenerkennung. Dabei betonen sie aber auch: KI ist nur so gut wie die Daten, mit denen sie trainiert wurde. Und sie braucht klare ethische Rahmenbedingungen.
Ein weiteres Beispiel liefert die Studie von Basnet & Basnet (2024), die die Reaktionen von ChatGPT auf psychische Beschwerden in verschiedenen Sprachen analysierten.
Die KI reagierte oft konsistent, empathisch und handlungsorientiert. Allerdings gab es kulturelle und sprachliche Unterschiede in der Qualität der Antworten. Das zeigt: KI braucht klare Anleitung und kritisches Bewusstsein auf Nutzer*innenseite.
Grenzen der KI: Warum echte Therapie nicht ersetzt werden kann
So spannend die Möglichkeiten sind, KI hat klare Grenzen, und die betreffen vor allem das, was Therapie wirklich ausmacht:
Keine Beziehung mit echter emotionaler Resonanz
KI kann Mitgefühl simulieren, aber keine echte Bindung aufbauen. Eine Therapeut*in erkennt z. B. Schweigen, Körpersprache, Mikroausdrücke. Dinge, die KI (noch) nicht erfassen kann.
Keine therapeutische Verantwortung
Eine echte Therapeut*in trägt die Verantwortung für die Sicherheit im Gespräch. Sie spürt, wann es zu viel wird. Eine KI tut das nicht. Sie kann Menschen unbeabsichtigt retraumatisieren oder überfordern.
Ethische Risiken und Datenschutzfragen
Psychische Daten sind hochsensibel. Die Frage, wie sicher KI-Systeme sind (v. a. bei kommerziellen Anbietern), ist bisher nicht abschließend geklärt.
Komplexität von Kontext und Biografie
Eine KI kennt keine gelebten Erfahrungen, keine Familiendynamik, keine Zwischentöne aus deinem Leben. Sie kann diese simulieren, aber nie wirklich fühlen oder verstehen.
Wie auch Forschende der Universität Basel betonen: KI kann emotionale Zustände erkennen, aber nicht verstehen oder empathisch integrieren (Universität Basel, 2024).
Wie KI trotzdem helfen kann , wenn du sie bewusst nutzt
Trotz dieser Grenzen kann KI, richtig eingesetzt, eine wertvolle therapiebegleitende oder vorbereitende Unterstützung sein. Besonders dann, wenn du weißt, was du brauchst und wie du die KI steuerst.
Hier ein paar Möglichkeiten:
Zur Reflexion zwischen Therapiesitzungen
Zum Einstieg, wenn du (noch) keine Therapie machst
Zum Schreiben, Nachdenken oder Gedanken ordnen
Zum Erstellen von Ressourcen (z. B. Affirmationen, Imaginationsübungen)
Dabei ist wichtig: Du führst das Gespräch, nicht die KI.
Wenn du eine klare Haltung vorgibst (z. B. „Sei wie eine systemische Therapeutin“ oder „Sprich bitte langsam, ruhig und einfühlsam“), entsteht oft ein sehr achtsamer und hilfreicher Dialog.
Deshalb habe ich einen KI-Therapie-Guide geschrieben
Weil ich diese Lücke gesehen habe und weil ich weiß, wie viele Menschen sich nach einem sicheren Raum sehnen, habe ich einen kostenlosen KI-Therapie-Guide geschrieben. Für alle, die reflektieren, wachsen, sich sortieren oder begleiten lassen wollen. Auch ohne Therapieplatz.
Im Guide findest du:
Eine Übersicht über verschiedene Therapieformen
Anleitung zur Erstellung deiner eigenen „KI-Therapeut*in“
Ganz klare Grenzen und warum echte Therapie unersetzlich bleibt
Hol dir den Guide kostenlos.
Du bekommst den Guide per E-Mail, wenn du dich für meinen Newsletter anmeldest:
Ich wünsche dir, dass du ihn so nutzt, wie es zu dir passt: mit Gefühl, Verantwortung und ganz viel Selbstfürsorge.
Deine
Kathi
Quellen:
Boman, M., Sundberg, H., & Svensson, T. (2024). Human perceptions of GPT-3 responses to mental health prompts: An exploratory study. PLOS Mental Health, 2(2). https://doi.org/10.1371/journal.pmen.0000145
Lee EE, Torous J, De Choudhury M, Depp CA, Graham SA, Kim HC, Paulus MP, Krystal JH, Jeste DV. Artificial Intelligence for Mental Health Care: Clinical Applications, Barriers, Facilitators, and Artificial Wisdom. Biol Psychiatry Cogn Neurosci Neuroimaging. 2021 Sep;6(9):856-864. doi: 10.1016/j.bpsc.2021.02.001. Epub 2021 Feb 8. PMID: 33571718; PMCID: PMC8349367.
Basnet, S., & Basnet, S. (2024). ChatGPT in mental health care: Promise and limitations. Indian Journal of Psychological Medicine, 46(1). https://doi.org/10.1177/02537176241260819
Universität Basel. (2024). KI kann Gefühle lesen – aber nicht fühlen. Universität Basel News. https://www.unibas.ch/de/Aktuell/News/Uni-Research/KI-kann-Gefuehle-lesen.html
Comments