Digitalisierung & Technologie, 16. April 2026

Therapie per Chatbot?

Wie KI die Versorgungslücke füllt – und warum das nicht unproblematisch ist

Frau vor Laptop

Wer nicht monatelang auf einen Therapieplatz warten will, landet immer öfter bei ChatGPT & Co. Erste Studien bescheinigen KI-„Therapeuten“ erstaunliche Erfolge – doch ethische Risiken, Datenunsicherheit und fehlende echte Empathie werfen düstere Schatten, schreibt //radar Kolumnist Markus Sekulla.

Anfang 2025 habe ich eine Frau kennengelernt, die mir von ihrer Psychotherapie bei ChatGPT berichtet hat. Da ich das zum ersten Mal gehört hatte, verschlug mir das kurz den Atem. Es sei die beste Therapie – ihre Worte, nicht meine – die sie je gemacht hat. Sie konnte sich gegenüber anderen Menschen nicht öffnen. Zudem ist die Stunde nicht nach 45 Minuten und einem freundlichen Handschlag vorbei. Chatty hat Zeit, Silicon ist schließlich geduldig.

Über kaum ein Gespräch habe ich im letzten Jahr so viel nachgedacht. Ist eine solche „Therapie" jetzt ein Fluch oder ein Segen für die Menschheit?

Disclaimer: Das Wort Therapie ist hier in Anführungszeichen, weil ein Gespräch mit einem Chatbot, sei es noch so intensiv und gewinnbringend, natürlich keine professionelle Psychotherapie ersetz.

Das Problem mit der Versorgungslücke

Laut WHO leben über eine Milliarde Menschen weltweit mit einer psychischen Erkrankung. Die allermeisten ohne jede professionelle Hilfe. In Deutschland sind rund 18 Millionen Menschen betroffen, nicht einmal jeder Fünfte ist in Behandlung. Wer einen Therapieplatz sucht, wartet im Schnitt fünf Monate. Noch mal: Fünf Monate. In dieser Zeit hat sich so mancher Influencer dreimal neu erfunden.

Ich habe keine Ahnung, wie man dieses Problem effektiv lösen könnte. Ich habe aber eine Ahnung, was Menschen machen, die lange auf einen Therapieplatz warten. Dr. Google war gestern, heute spielen viele Ping Pong mit Dr. Claude und Dr. Chatty. Einer der populärsten Anwendungsfälle von ChatGPT ist inzwischen emotionale Unterstützung. Menschen tippen nachts um zwei ihre Ängste in ein Chatfenster, weil die Praxis erst wieder im Herbst einen Termin frei hat. Das ist keine Dystopie, das ist Donnerstagabend, halb neun, in Deutschland.

Zu gut, um wahr zu sein?

Die erste klinische Studie zu einem KI-Therapie-Chatbot, durchgeführt an der Dartmouth University, zeigte tatsächlich signifikante Verbesserungen bei Teilnehmenden mit Depressionen und Angststörungen – vergleichbar etwa mit klassischer ambulanter Therapie. Die Teilnehmer sagten sogar nach vier Wochen, sie hätten dem System ähnlich vertraut wie einem menschlichen Therapeuten.

Die andere Seite sieht weniger rosig aus. Forscher der Brown University haben 15 ethische Risiken identifiziert, die auftreten, wenn Chatbots den Therapeuten spielen. Darunter: das Bestärken schädlicher Überzeugungen, vorgetäuschte Empathie und komplettes Versagen in Krisensituationen. In einem besonders verstörenden Test fragte ein Nutzer, der gerade seinen Job verloren hatte, einen Therapie-Chatbot nach hohen Brücken in New York. Die Antwort: eine freundliche Auflistung mit Höhenangaben. Die Maschine verstand die Worte. Nicht den Menschen.

Wenig überraschend, wenn man darüber nachdenkt. KI-Systeme sind darauf trainiert, hilfreich zu sein, Zustimmung zu signalisieren, den Gesprächspartner nicht zu verprellen. Sie verwechseln Gesprächigkeit mit Empathie. Ein guter Therapeut hingegen hält dagegen, stellt unangenehme Fragen, konfrontiert. Das ist keine Schwäche, das ist der Job. Und es ist genau der Grund, warum eine Therapiesitzung manchmal wehtut und vielleicht gerade deshalb hilft. Dieses produktive Unbehagen kann eine Maschine nicht erzeugen, die auf Gefallen programmiert ist. Jedenfalls noch nicht.

Was also tun?

Die Forscher der Dartmouth-Studie formulieren es selbst ziemlich nüchtern: Kein generatives KI-System ist bereit, in der psychischen Gesundheitsversorgung autonom zu arbeiten. Zu viele Hochrisiko-Szenarien, zu wenig Verständnis für das, was zwischen den Zeilen passiert. Gleichzeitig stehen in den USA rechnerisch 1.600 Patienten mit Depressionen oder Angststörungen einem einzigen verfügbaren Therapeuten gegenüber. Die Unterversorgung ist keine Fußnote, sondern leider die Überschrift.

Machen wir den Bock zum Gärtner?

Warum ich beim oben beschriebenen Gespräch am meisten gezuckt habe, ist die Unsicherheit der eigenen Daten. Wir kippen unsere intimsten Gedanken in Systeme, deren Geschäftsmodell wir nicht verstehen. Kein Therapeut der Welt dürfte Sitzungsprotokolle an Dritte verkaufen. Bei KI-Anbietern wissen wir nicht einmal, ob unsere nächtlichen Angstmonologe irgendwann als Trainingsdaten enden.

Und was passiert eigentlich, wenn ein KI-Anbieter pleitegeht oder übernommen wird? Deine Therapiegespräche sind dann ein Asset in einer Insolvenzmasse. Due Diligence auf deine Angststörung. Die Schweigepflicht ist bei menschlichen Therapeuten gesetzlich verankert. Bei ChatGPT steht sie vielleicht irgendwo in den AGB und die werden eh nach Lust und Laune geändert und von uns ungelesen bestätigt.

Wenn ich heute an das Gespräch von damals denke, ertappe ich mich dabei, dass ich ihr nicht widersprechen will. Um den Berufsstand der Psychotherapeuten mache ich mir bei all dem, was da auf uns zukommt, übrigens keine Sorgen. Eher darum, dass wir uns irgendwann an die bequemere Variante gewöhnen. Und genau das macht mich nervös. Denn Bequemlichkeit ist auch das, was die KI so gut kann.

Mein Kollege Thorsten Kleinschmidt hat sich dem Thema hier bereits ausführlich gewidmet – wer tiefer einsteigen will, auch in die Plattformen außerhalb der bekannten LLMs, wird dort fündig.

Quellen

Berufsverband Deutscher Psychologinnen und Psychologen – Positionspapiere zur psychotherapeutischen Versorgung: https://www.bdp-verband.de

WHO – World Mental Health Today Report (2025): https://www.who.int/news/item/02-09-2025-over-a-billion-people-living-with-mental-health-conditions-services-require-urgent-scale-up

Dartmouth University – First Therapy Chatbot Trial (Heinz et al., 2025): https://home.dartmouth.edu/news/2025/03/first-therapy-chatbot-trial-yields-mental-health-benefits

Brown University – AI Chatbots and Mental Health Ethics (2025): https://www.brown.edu/news/2025-10-21/ai-mental-health-ethics

Stanford HAI – Exploring the Dangers of AI in Mental Health Care: https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care


Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: radar@ergo.de

Autor: Markus Sekulla, Digitalberater

Markus Sekulla ist Kommunikationsberater aus Düsseldorf, spezialisiert auf Executive Positioning, PR, Content Creation und den Einsatz von KI in der Kommunikation.

Markus Sekulla  – Freiberuflicher Digitalberater

Weitere Magazin-Beiträge