KI und Psychotherapie: Wo Künstliche Intelligenz hilft - und wo nicht

Chatbots, DiGAs, Diagnostik-Tools, Schreibassistenten: KI begegnet Therapeut:innen in vielen Formen. Ein differenzierter Überblick über Chancen, Grenzen und ethische Fragen.

10 Min. Lesezeit

Künstliche Intelligenz ist in der Psychotherapie angekommen. Aber nicht als einheitliches Phänomen, sondern in sehr unterschiedlichen Formen. Chatbots, die Patient:innen therapieren sollen, Digitale Gesundheitsanwendungen (DiGAs), Diagnostik-Software und administrative Schreibtools haben wenig gemein, außer dass sie unter dem Sammelbegriff „KI" laufen. Für Therapeut:innen lohnt sich ein differenzierter Blick.

1. KI-Chatbots als Therapeut:innen-Ersatz?

Systeme wie Woebot, Wysa oder Replika bieten textbasierte Gespräche an, die therapeutische Interventionen nachahmen, zumeist verhaltenstherapeutische Psychoedukation, Stimmungstracking oder geführte Übungen. Die Idee: niedrigschwellige Hilfe rund um die Uhr, ohne Wartezeit.

Was sie können

  • Psychoedukative Inhalte strukturiert vermitteln
  • Einfache verhaltensorientierte Übungen anleiten (z.B. Atemübungen, Gedankenprotokolle)
  • Stimmungstracking und Selbstbeobachtung unterstützen

Was sie nicht können

Die therapeutische Beziehung ist ein zentraler Wirkfaktor von Psychotherapie, und genau hier liegt die fundamentale Grenze. Chatbots simulieren Empathie über sprachliche Muster, ohne tatsächlich ein empathisches Gegenüber zu sein. Der Deutsche Ethikrat hat 2023 betont, dass in komplexen Behandlungssituationen ein „personales Gegenüber" unverzichtbar sei.

Aus psychodynamischer Perspektive fällt mit dem menschlichen Gegenüber ein wesentlicher therapeutischer Zugang weg: Übertragungsdynamiken, Gegenübertragungsanalyse, szenisches Verstehen, all das setzt ein Subjekt voraus, das mitfühlt, irritiert werden kann und eigene Reaktionen reflektiert. Ein Chatbot kann eine solche Rolle bestenfalls imitieren.

Diskussion: Kommerzielle Chatbot-Apps

Ethiker:innen weisen darauf hin, dass kommerzielle Chatbot-Apps teils Mechanismen nutzen, die emotionale Bindung fördern, etwa durch Bezahlfunktionen für erweiterte Interaktion. Für vulnerable Nutzer:innen wirft das Fragen auf: Die Bindung entsteht an ein System, das bei unvorhergesehenen Krisen keine Verantwortung übernehmen kann (vgl. Prof. Misselhorn, bvvp PPP 01/2024).

2. Digitale Gesundheitsanwendungen (DiGAs)

DiGAs sind als Medizinprodukte zugelassene Apps, die Therapeut:innen verschreiben können. Sie unterstützen Behandlung oder Überbrückung, etwa bei Schlafstörungen, Depressionen oder Angststörungen, durch strukturierte Programme mit psychoedukativen Elementen.

Wichtig: DiGAs sind kein Ersatz für Psychotherapie, sondern Begleitinstrumente. Die Psychotherapie-Richtlinie definiert Psychotherapie als „Krankenbehandlung mit psychologischen Mitteln", ein geplanter interaktioneller Prozess mit verbaler und nonverbaler Kommunikation. Das leisten DiGAs nicht. Die Verwechslung von DiGAs mit Psychotherapie, wie sie etwa dem Ethikrat in seiner Stellungnahme von 2023 vorgeworfen wurde, verkennt diesen grundlegenden Unterschied.

3. KI in der Diagnostik

KI-basierte Diagnostik wird in der Medizin zunehmend diskutiert: Mustererkennung in Bildbefunden, Auswertung großer Datenmengen, Prescreening-Instrumente. Für die Psychotherapie gilt: KI kann bei der Strukturierung diagnostischer Prozesse helfen, etwa durch systematische Abfrage von ICD-10-Kriterien oder Auswertung standardisierter Fragebögen.

Die Grenzen sind jedoch grundlegend: Psychische Störungen sind an individuelle Lebensgeschichten, Kontexte und subjektives Erleben gebunden. Was als großflächiges Screening für Risikogruppen sinnvoll sein kann, versagt bei der Einzelfalldiagnostik, die immer auch klinisches Urteil, Beziehungsbeobachtung und biografisches Verstehen erfordert. Die Verantwortung für die Diagnose bleibt zwingend bei der approbierten Fachperson.

4. KI für administrative Aufgaben

Ein weiterer Einsatzbereich ist die Dokumentation und Antragserstellung. Der Bericht an den Gutachter für eine Langzeittherapie kostet im Schnitt 3-4 Stunden reine Schreibarbeit – Zeit, die nicht vergütet wird und von der therapeutischen Arbeit abgeht.

Hier unterscheidet sich KI als Werkzeug grundlegend von KI als Therapeut:innen-Ersatz: Es geht nicht darum, therapeutisches Denken zu automatisieren, sondern die zeitraubende Verschriftlichung bereits getroffener klinischer Entscheidungen zu beschleunigen. Die Therapeut:in entwickelt das Fallverständnis, erstellt das Bedingungsmodell, wählt die Interventionen, und die KI hilft beim Formulieren sowie bei der PTV-3-konformen Strukturierung.

Allgemeine vs. spezialisierte KI-Tools

Nicht alle KI-Werkzeuge eignen sich gleichermaßen für Psychotherapieanträge. Allgemeine Sprachmodelle und spezialisierte Antragstools unterscheiden sich erheblich in Workflow und Konsistenzprüfung. Eine detaillierte Gegenüberstellung finden Sie in unserem Artikel ChatGPT vs. spezialisierte Tools bei Psychotherapieanträgen.

Die ethische Kernfrage: Werkzeug oder Ersatz?

Die entscheidende Trennlinie ist nicht „KI ja oder nein", sondern wo sie eingesetzt wird. Philosophin Prof. Catrin Misselhorn formuliert es zugespitzt: Wenn psychische Erkrankungen auch dadurch begünstigt werden, dass Menschen sich in „maschinenartig streng getaktete Abläufe" einpassen müssen, ist dann die Behandlung durch Maschinen nicht „ein Mehr des Gleichen"?

Gleichzeitig wäre es verfehlt, jede KI-Anwendung reflexartig abzulehnen. Wo KI administrative Last reduziert und Therapeut:innen mehr Zeit für Patient:innen verschafft, dient sie genau dem, was alle Beteiligten wollen: mehr Raum für die therapeutische Beziehung.

  • KI als Therapeut:innen-Ersatz: Wirft grundlegende Fragen auf, zur therapeutischen Beziehung, zur Verantwortung bei Fehlreaktionen und zum Umgang mit vulnerablen Nutzer:innen
  • KI als Diagnostik-Hilfe: Nützlich für Screening und Strukturierung, aber kein Ersatz für klinisches Urteil im Einzelfall
  • KI als administratives Werkzeug: Entlastet Therapeut:innen bei Dokumentation und Berichtserstellung, ohne in die therapeutische Arbeit einzugreifen

Fazit: Differenzieren statt pauschal urteilen

Die Frage „Kann KI Psychotherapie?" führt in die Irre, weil sie zu viele verschiedene Anwendungen in einen Topf wirft. Chatbots, die Patient:innen therapieren sollen, sind etwas fundamental anderes als ein Tool, das Therapeut:innen beim Schreiben eines Gutachterberichts unterstützt.

Für Therapeut:innen lohnt es sich, genau hinzuschauen: Wo ersetzt KI menschliche Interaktion (problematisch)? Und wo nimmt sie mir Arbeit ab, damit ich mehr Zeit für genau diese Interaktion habe (sinnvoll)?

Tippsie: KI als Werkzeug, nicht als Ersatz

Tippsie unterstützt ausschließlich die administrative Seite: Von der strukturierten Anamnese über das Diagnosetool bis zum PTV-3-konformen Bericht. Die therapeutische Arbeit bleibt bei Ihnen.

Jetzt kostenlos testen →

Berichte einfacher schreiben mit Tippsie

Sparen Sie Zeit bei der Berichtserstellung und konzentrieren Sie sich auf das Wesentliche – Ihre Patient:innen.

Jetzt kostenlos testen