Was kommt als Nächstes?
Die Geschichte der KI bei der Therapie psychischer Erkrankungen hat gerade erst begonnen - weitere Anwendungsfelder sind in Sicht. KI-Modelle können zum Beispiel auch Therapeuten bei der Planung und Evaluation von Therapien unterstützen. So analysiert etwa Künstliche Intelligenz in einem Projekt der Universität Basel Videositzungen und kalkuliert die Wahrscheinlichkeit eines Therapieabbruchs.
Ein spektakulärer Fortschritt könnte die Verbindung von KI mit virtueller oder erweiterter Realität sein. KI könnte für Patienten z. B. eine auf sie zugeschnittene, interaktive virtuelle Trainingsumgebung schaffen, in denen sie üben könnten, Alltagssituationen zu bestehen oder Ängsten standzuhalten.
Die Grenzen
Stehen damit also die Kapazitätsprobleme bei der Psychotherapie vor ihrer Lösung? Vorsicht – gerade bei psychischen Erkrankungen darf man die Erwartungen an KI nicht zu hoch schrauben. Sie hat Einschränkungen, die in der Psychotherapie gravierend zu Buche schlagen. KI versteht nicht wirklich, was Menschen sagen, und sie ist auch nicht zu echter Empathie fähig. Sie geht im Grunde statistisch vor: „In den Lerndaten hatten Menschen mit diesen Spracheigentümlichkeiten in 77 % der Fälle eine Depression.” Oder: “Wenn ein Mensch auf den therapeutischen Vorschlag A nicht anspricht, besteht aus seiner Krankengeschichte nach Abgleich mit anderen Krankengeschichten eine hohe Wahrscheinlichkeit, dass er auf Vorschlag B eingeht.“
Psychische Erkrankungen äußern sich aber bei jedem Menschen anders. Sie sind dynamisch, verändern ihr Gesicht, kennen Fortschritte und Rückschläge. Bloße Statistik wird ihnen nicht gerecht. Das empathische Verstehen von Therapeutinnen und Therapeuten muss die KI-Befunde deshalb einordnen und relativieren.
Die Nutzung von Chatbots ohne die Begleitung eines fachlich qualifizierten Menschen ist ein Notbehelf. Der KI-Bot kann den Therapeuten nicht ersetzen - aber er hilft Menschen, die keinen Therapieplatz finden oder die zögern, sich in Behandlung zu begeben.
ChatGPT-4 wurde in einer britischen Studie übrigens beauftragt, auf Grundlage kurzer Texte einzuschätzen, ob der Verfasser suizidgefährdet sei. Parallel wurden auch erfahrene Psychotherapeuten befragt. Die KI kam zu denselben Ergebnissen wie die Menschen. Da eine KI jedoch nicht verrät, wie sie zu ihrer Einschätzung gelangt ist, können menschliche Beobachter nicht beurteilen, wie verlässlich die Qualitäten des Modells tatsächlich sind. So spricht viel dafür, dass KI bei der Therapie psychischer Erkrankungen auch auf längere Sicht über die Rolle des Assistenten nicht hinauskommen wird, der lediglich Entscheidungen von Menschen unterstützt.
Text: Thorsten Kleinschmidt