Aufgrund des Mangels an Therapieplätzen und der gleichzeitig hohen Nachfrage warten psychisch erkrankte Menschen in Deutschland in der Regel teilweise vier bis sechs Monate auf einen Therapieplatz. Nicht alle Betroffenen halten diese Wartezeit aus und greifen daher auf Alternativen zurück. Eine dieser Alternativen kann ChatGPT sein – ein KI-basierter Chatbot, der nur auf den zweiten Blick wie ein Therapeut wirkt. Der „Patient“ schildert seine Sorgen und Nöte, der Chatbot antwortet verständnisvoll und strukturiert. Doch wie effektiv ist das wirklich?
Experten und Fachverbände wie die Deutsche Gesellschaft für Psychologie betonen ausdrücklich, dass KI-basierte Systeme lediglich eine Ergänzung, niemals aber ein Ersatz für eine psychotherapeutische Behandlung sein dürfen.
Studien der Ohio State University zeigen, dass Probanden Antworten von ChatGPT teilweise höher bewerteten als die von ausgebildeten Psychotherapeuten. Ein möglicher Grund dafür ist, dass die KI längere, ausführlichere Antworten formuliert, mehr Substantive und Adjektive verwendet und stärker kontextualisiert. Diese sprachliche Ausführlichkeit kann den Eindruck von Tiefe und Verständnis erzeugen, was dazu führte, dass die Antworten subjektiv besser bewertet werden.
Doch genau hier liegt das große Problem.
In einem TikTok-Video sagt eine junge Frau: „Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben verändert.“ Gerade jungen Menschen fällt es oft leichter, sich einem Chatbot zu öffnen als einer realen Person. Die KI wird dabei zunehmend als eine Art Psychotherapeut wahrgenommen. Doch ein Chatbot bleibt ein Chatbot: Er besitzt keine menschlichen Eigenschaften wie echtes kritisches Hinterfragen, emotionale Intuition oder moralische Verantwortung. Während Freunde oder Familie mit Problemen oft überfordert wirken und mit Floskeln wie „Das wird schon wieder!“ reagieren, scheint die künstliche Intelligenz immer verfügbar, geduldig und verständnisvoll.
Seit der Corona-Pandemie ist bekannt, dass junge Menschen deutlich häufiger unter psychischen Erkrankungen leiden als frühere Generationen. Entsprechend groß ist ihr Bedürfnis nach Unterstützung. Doch genau diese Unterstützung bleibt aufgrund des massiven Therapeutenmangels häufig aus. In dieser Lücke gewinnt künstliche Intelligenz an Bedeutung – birgt jedoch zugleich das Risiko, falsche Sicherheit zu vermitteln und professionelle Hilfe zu ersetzen, statt sie zu ergänzen.
In der Verantwortung sehe ich persönlich die Politik und verantwortliche Menschen in Universitäten, die zum Beispiel den NC für das Psychologie Studium abschaffen oder lockern sollen, um zukünftigen Psychologen den Zugang zum Studium zu erleichtern, damit die hohe Nachfrage zukünftig gedeckt werden kann.
Ich selber habe ChatGPT gefragt: Kann eine KI eine Psychotherapie ersetzen?
Antwort: „Eine künstliche Intelligenz kann eine Psychotherapie nicht ersetzen, sondern lediglich ergänzen. Psychotherapie beruht auf einer echten menschlichen Beziehung, in der Empathie, Vertrauen, nonverbale Signale und professionelles Urteilsvermögen entscheidend sind. Therapeutinnen und Therapeuten können Diagnosen stellen, Risiken erkennen und individuell auf Krisen reagieren – Fähigkeiten, die eine KI nicht besitzt.
Zwar wirken KI-Antworten oft verständnisvoll und gut strukturiert, was entlastend sein kann, doch genau darin liegt die Gefahr einer falschen Sicherheit. Betroffene könnten den Eindruck gewinnen, dass ihnen ausreichend geholfen wird, obwohl keine professionelle Behandlung stattfindet.
Als Unterstützung kann KI dennoch sinnvoll sein, etwa zur Selbstreflexion, zur Vermittlung von Informationen oder zur Überbrückung langer Wartezeiten. Psychotherapie jedoch ist mehr als ein gutes Gespräch: Sie bedeutet Verantwortung, Beziehung und fachliche Behandlung – und bleibt damit unersetzbar.
Meine persönliche Meinung ist eindeutig: Psychotherapie ist weit mehr als nur Reden. In vielen Fällen benötigen Patientinnen und Patienten zusätzlich eine medikamentöse Behandlung, die ausschließlich von qualifizierten Fachkräften verordnet werden darf. Ein Chatbot kann nach aktuellem Stand keine Psychotherapie ersetzen, da ihm grundlegende menschliche Eigenschaften wie echte Empathie, Verantwortungsbewusstsein und professionelles Urteilsvermögen fehlen.
Zudem arbeiten Chatbots stark wahrscheinlichkeitsbasiert, was in einer sensiblen therapeutischen Behandlung nicht zielführend ist. Psychotherapie erfordert individuelle Einschätzung, kritisches Hinterfragen und eine verlässliche Einordnung psychischer Zustände. Darüber hinaus sind KI-Systeme nicht fehlerfrei und können falsche oder sogar gefährliche Inhalte erzeugen. So gab es in den USA bereits dokumentierte Fälle, in denen Chatbots problematische oder sogar suizidbezogene Anleitungen gegeben haben.
Fazit: Aus diesen Gründen kann künstliche Intelligenz zwar unterstützend wirken, eine professionelle psychotherapeutische Behandlung jedoch nicht ersetzen.
Text: Justin A.