Chance oder Risiko? KI-basierte Tools in der Psychotherapie
A chance or a risk? AI-based tools in psychotherapy
verfasst von: Mareike C. Hillebrand & Harald Baumeister
Abstract
Zusammenfassung: Die Entwicklungen von Chatbots und anderer auf Künstlicher Intelligenz (KI) basierter Technologien beeinflussen auch immer mehr die Profession der Psychotherapie. In diesem Kommentar zu einem im Februar 2025 veröffentlichten Artikel werden neben der Darstellung der Ergebnisse eines Turing-Tests mit ChatGPT und 13 Expert*innen aus den Bereichen Klinische Psychologie, Paar-/Familientherapie, Psychiatrie und Beratung im paartherapeutischen Kontext die Chancen und Risiken der Nutzung von KI-basierten Tools in der Psychotherapie diskutiert.
Summary: The development of chatbots and other technologies based on artificial intelligence (AI) is also influencing the professional field of psychotherapy. In this commentary on an article published in February 2025, we present the results of a Turing test with ChatGPT and 13 experts from the fields of clinical psychology, couple/family therapy, psychiatry and counseling. We also discuss the opportunities and risks of using and integrating AI-based tools in psychotherapy.
Angestoßen durch eine im Februar 2025 veröffentlichte Studie („When ELIZA meets therapists: A Turing test for the heart and mind“, PLOS Mental Health) wird aktuell in den Medien die Frage diskutiert, ob Psychotherapeut*innen durch ChatGPT und Co. ersetzt werden können. Grund hierfür ist das Hauptergebnis der Studie von Hatch et al. (2025): In dem dort durchgeführten Turing-Test (Turing, 1950) konnten 830 befragte U. S.-Amerikaner*innen nicht unterscheiden, ob die vorgelegten schriftlich formulierten Antworten zu 18 paartherapeutischen Fallvignetten von ChatGPT, einer frei zugänglichen generativen Künstlichen Intelligenz (KI) von OpenAI, oder von 13 Expert*innen in den Bereichen Klinische Psychologie, Paar-/Familientherapie, Psychiatrie und Beratung formuliert wurden. Die Wahrscheinlichkeit der korrekten Zuordnung lag nur knapp über dem Zufallsprinzip. Die Teilnehmenden identifizierten die Antworten der Behandelnden nur 5 % häufiger korrekt als die Antworten von ChatGPT (56,1 % bzw. 51,2 %). Weiterhin wurden die Antworten von ChatGPT durchschnittlich höher bewertet im Hinblick auf fünf vorgegebene Wirkfaktoren nach Wampold (2015): therapeutische Allianz, Empathie, kulturelle Kompetenz, therapeutische Kompetenz, Angemessenheit bezogen auf die Therapieziele. Einer durchgeführten Sentimentanalyse nach verfasste ChatGPT zudem längere und positivere Antworten als die Behandelnden. Zeitgleich zeigte sich ein Bewertungsbias in der Bewertung der Antworten. Antworten von ChatGPT wurden positiver eingeschätzt, wenn die Befragten annahmen, dass die Antworten von Behandelnden verfasst wurden. Jedoch wurden Antworten von Behandelnden negativer bewertet, wenn die Teilnehmenden diese ChatGPT zuordneten. Aufgrund dieser Ergebnisse resümierten Hatch et al. (2025), dass die Qualität und Wirksamkeit einer psychotherapeutischen Behandlung durch das Hinzuziehen von KI verbessert werden können. Das Fazit der Studie muss allerdings vor einigen Limitationen des Studiendesigns kritisch reflektiert werden. So können beispielsweise die Studienergebnisse nicht ohne Weiteres auf reale Therapiesettings übertragen werden, da hier Antworten auf eine übersichtliche Anzahl an Fallvignetten analysiert wurden und eine kleine Anzahl an Behandelnden mit Fachexpertise in der Paartherapie als Referenzgruppe diente. Somit lag keine repräsentative Stichprobe ausgebildeter Psychotherapeut*innen verschiedener Schulen und Erfahrungsstufen vor. Zudem wurde die Einschätzung der Wirkfaktoren durch unbeteiligte Personen in der Allgemeinbevölkerung durchgeführt. Inwieweit Behandelnde und Patient*innen in Bezug auf die eigene Behandlung die Wirkfaktoren einschätzen würden, und inwiefern sich dies positiv oder negativ auf den Behandlungserfolg auswirkt, bleibt unbeantwortet. Studien zeigten bereits, dass Inkongruenzen bei der Einschätzung der Wirkfaktoren durch Psychotherapeut*innen und Patient*innen erwartbar sind (Tzur Bitan & Abayed, 2020) und beide Perspektiven einen unterschiedlichen prädiktiven Gehalt hinsichtlich des Therapieerfolgs aufweisen (Rubel et al., 2018). Dieses Szenario wäre auch in Bezug auf das hier vorgestellte Studiendesign denkbar und ein entsprechend angepasstes Studiendesign könnte möglicherweise auch zu anderen Ergebnissen führen. Zudem sind mögliche Risiken bei der Anwendung von generativen KI-Tools wie ChatGPT unterforscht, insbesondere in Interaktionen mit Patient*innen, bei welchen das Risiko einer akuten Fremd- und/oder Selbstgefährdung besteht. Hier verweist ChatGPT selbst auf professionelle Hilfsangebote und blockiert zunächst Interaktionen bei Andeutung suizidaler Gedanken/Impulse mit Verweis auf die Nutzungsrichtlinien, welche die Nutzung von ChatGPT bei Selbst- oder Fremdgefährdung ausschließen (OpenAI, 29.01.2025). Daher sollten auch die Prompts (d. h. Aufgaben, die einer KI gestellt werden) der Studie näher betrachtet werden, welche in der Studie spezifisch für den Studienzweck formuliert wurden. Da die Qualität der Antworten von generativen KI-Tools wie ChatGPT nachweislich mit der Qualität der Prompts zusammenhängt (Grabb, 2023), ist davon auszugehen, dass schlecht konzipierte Prompts von Patient*innen zu einer Fehlinterpretation durch die KI führen könnten und dadurch auch negative Effekte denkbar wären (Grabb, 2023). Entsprechend wird in den europäischen Nutzungsbedingungen von ChatGPT darauf hingewiesen, dass „(…) der Output möglicherweise nicht immer korrekt [ist]. (…). [Die] Dienste können unvollständigen, unrichtigen oder beleidigenden Output liefern (…)“ (OpenAI, 11.12.2024).
Dennoch zeigen die Ergebnisse der Studie, dass Chatbots basierend auf generativen KI-Systemen in der Lage sind, empathische und wohlformulierte verbale Reaktionen zu imitieren. Dies kann als Chance angesehen werden, die aktuell prekäre Situation der psychotherapeutischen Versorgung zukünftig durch KI-basierte, aber therapeutisch supervidierte Interventionen zu entschärfen. Beispielsweise können generative KI-Tools Angebote zur Überbrückung von Wartezeiten, in der Prävention und in der Rückfallprophylaxe eingesetzt werden. Aufgrund der Skalierbarkeit von KI-basierten Interventionen und ihrer Unabhängigkeit von Ort und Zeit könnten auch vulnerable, hochbelastete Gruppen, die aufgrund von Stigma, fehlenden zeitlichen Ressourcen oder körperlichen Einschränkungen oftmals von einer klassischen Psychotherapie ausgeschlossen sind, frühzeitiger und umfassender versorgt werden (Zhai et al., 2023). Die aktive Integration von KI in bestehende Behandlungskonzepte kann folglich auch als Chance angesehen werden, das Berufsfeld der Psychotherapie zu erweitern und mehr Menschen den Zugang zu psychologischen Interventionsangeboten zu gewährleisten. Zeitgleich gibt es auch Hinweise darauf, dass ältere Menschen sowie Menschen mit niedrigem Bildungsniveau möglicherweise weniger Zugang zu digitalen (KI-basierten) Interventionsangeboten haben und diese auch weniger nutzen (Azzopardi-Muscat & Sørensen, 2019). Für eine erfolgreiche (Zusammen-)Arbeit mit KI in der Psychotherapie sollten daher mögliche Einsatzbereiche und Zielgruppen unter Berücksichtigung von Qualitätskriterien in Bezug auf Datensicherheit, wissenschaftliche Fundierung und Beachtung ethischer Standards, wie bereits in der Digitale-Gesundheitsanwendungen-Verordnung (DiGAV) vorgenommen, vertieft diskutiert und erforscht werden.
Zusammengefasst zeigen die Ergebnisse von Hatch et al. (2025) das Potenzial des Einsatzes von generativer KI in der Psychotherapie bei fachgerechter Anwendung auf; es ist jedoch unwahrscheinlich, angesichts einer noch eingeschränkten Evidenzbasierung bei anzunehmender gegebener Wirksamkeit (Bendig et al., 2022; Li et al. 2023) sowie einer hohen Präferenz/einem hohen Vertrauen von Patient*innen von und in Face-to-face-Therapien (Aktan et al., 2022), dass Chatbots das klassische Therapiesetting mit menschlichen Psychotherapeut*innen in absehbarer Zeit ersetzen können. Nichtsdestotrotz bieten KI-basierte Interventionen in verschiedenen Szenarien Potenzial für Unterstützung, z. B. aufgrund ihrer Möglichkeit, rund um die Uhr und kontinuierlich Unterstützung anzubieten, Stigmatisierung zu reduzieren und Hilfsangebote für viele Menschen zugänglicher zu machen. Daher sollte der Erwerb und Ausbau von Fähigkeiten in der Entwicklung, Nutzung und Supervision neuer Technologien zukünftig einen zentralen Baustein in der Aus- und Weiterbildung von Psychotherapeut*innen darstellen. Im Rahmen der Aus- und Weiterbildung bieten sich Chatbots zudem als Trainingsmöglichkeit an, wie die als wohlformuliert wahrgenommenen Antworten der Studie von Hatch et al. (2025) verdeutlichen.