"Es ist erschreckend offensichtlich geworden, dass unsere Technologie unsere Menschlichkeit übertroffen hat."
– Albert Einstein
KI wird uns Psychotherapeut*innen nie ersetzen können
Diesen Satz höre ich oft, wenn ich das Thema KI anschneide. Oder: Als Psychotherapeutin mit einer eigenen Praxis muss ich mich nicht auch noch mit KI beschäftigen. Vielleicht werden noch DiGAs erwähnt (Digitale Gesundheitsanwendungen, die manchmal eingesetzt werden) – ansonsten scheint die künstliche Intelligenz so gar nichts mit unserer täglichen Arbeit zu tun zu haben. Schließlich kann ChatGPT keine Therapie ersetzen.
Oder??
Ehrlich gesagt glaube ich, dass das so nicht stimmt.
Und ich möchte hier gerne ein wenig ausloten und Diskussionen darüber anregen, was die zunehmende Rolle der KI für uns als Psychotherapeut*innen bedeutet oder künftig bedeuten kann.
Übrigens gab es schon 1966 den ersten Chatbot (mit Namen ELIZA). ELIZA sollte tatsächlich Psychotherapiesitzungen simulieren, in der Art der Gesprächspsychotherapie nach Rogers. Der Entwickler von ELIZA (ein Joseph Weizenbaum) schrieb in seiner Auswertung „Some subjects have been very hard to convince that ELIZA ... is not human“. Und das war ein SEHR schlichter Chatbot mit SEHR wenigen Möglichkeiten.
Es gibt ja inzwischen auch einige literarische oder filmische Auseinandersetzungen mit dem Thema KI, z.B. den deutsche Spielfilm von 2021 “Ich bin dein Mensch”. Und klar, es ist ein Film mit allen Tricks und Kniffen der Filmbranche - und vielleicht bin ich auch leicht zu beeindrucken. Aber es fiel mir nicht schwer, die emotionale Bindung der Hauptperson mit “ihrer” KI nachzuempfinden.
Was kann die grundsätzliche Fähigkeit und zunehmende “Geschicklichkeit” der KI für uns als Psychotherapeut*innen bedeuten?
Empathievermögen versus KI Analyse
Man kann sich ja leicht vorstellen, dass eine heutige ELIZA so aussieht und klingt, wie eine menschliche Therapeut*in, vor allem wenn sie sich im virtuellen Raum befindet (also zB als Chat zur Verfügung steht oder per Zoom).
Vielleicht sieht sie genauso aus und klingt auch so, wie der/die entsprechende Patient*in sich ein*e Therapeut*in wünscht, womöglich mit ein paar Klicks vor der Sitzung definiert.
Natürlich hat eine solche ELIZA 3.0 alles gelesen, absorbiert, prozessiert, was jemals über Psychotherapie geschrieben und geforscht wurde. Und kann auch alle Therapieverfahren anwenden. Und genau weiß, welche Methode und welche Strategie jetzt richtig ist.
Vielleicht auf der Basis eines gut validierten Fragebogens in Kombination mit einer guten Diagnostik. Und dass ELIZA 3.0 dann entsprechend im Chat oder im Gespräch agiert und reagiert. Eine perfekt zugeschnittene, immer perfekt durchgeführte Therapie, die sich sehr persönlich anfühlt.
Alles keine Science Fiction mehr. Ich habe zB kürzlich ein kleines Experiment gemacht und mit der Smartphone-App von ChatGPT “gesprochen”. Die App um einen Rat gebeten. Die Antwort kam in sonorer, ermutigender Stimme und inhaltlich passend - man könnte sagen, es hat mir echt geholfen. Faszinierend. Und erschreckend.
Es ist ja noch dazu so, dass derzeit weltweit in vielen Projekten intensiv daran gearbeitet wird, die bestimmt trotzdem noch bestehende Kluft zwischen Technologie und menschlicher Reaktion/Empathie/Empfindung zu schließen.
Spannende Frage: Wird das gelingen? Können Maschinen wirklich die menschliche Empathie und das Verständnis ersetzen? Was heisst das für uns als Psychotherapeut*innen? Jetzt? In ein paar Jahren?
Emotionales Verständnis
Das Gefühl, verstanden und einfühlsam behandelt zu werden, ist aber natürlich zentral für jede erfolgreiche Therapie. Und Algorithmen können die feinen Nuancen menschlicher Emotionen nicht nachempfinden.
ABER: Ist es wirklich so, dass Algorithmen das nicht können? Und dass das “Gefühl, verstanden und einfühlsam behandelt zu werden” unbedingt an ein menschliches Gegenüber geknüpft ist? Kann nicht auch eine entsprechend “erzogene” KI dieses Gefühl erzeugen? Wenn ich zB einen Spielfilm oder eine Serie nehme: Wenn die gut gemacht sind, habe ich durchaus manchmal das Gefühl, die Personen persönlich zu kennen, dass sie “echt” sind. Das in Kombination mit einer persönlichen Ansprache durch eine psychotherapeutisch agierende KI - also ehrlich gesagt, ich glaube, das kann funktionieren.
Therapeutische Beziehung
Es gibt natürlich massenweise Literatur dazu, wie wichtig die therapeutische Beziehung ist und dass sie sich im Laufe der Therapie entwickelt. Und zwar - gerade bei schweren Störungsbildern - oft nur schrittweise und allmählich, und sich dann daraus die Möglichkeiten für wirksame Interventionen ergeben.
Dass das stimmt, davon bin ich felsenfest überzeugt. Und es ist auch wissenschaftlich unumstritten. Auch dass jede*r Patient*in einzigartig ist und unterschiedlich auf therapeutische Ansätze reagiert und es viel therapeutisches Feingefühl, Wissen und Erfahrung braucht, damit es in möglichst vielen Fällen gelingt, eine gute therapeutische Beziehung herzustellen: Kein Thema.
ABER: Das kann die KI auch leisten. Nach meiner Einschätzung im Prinzip schon heute. Und das meine ich nicht, weil ich ein KI-Fan bin und das gut finde. Und auch überhaupt nicht provokativ. Ich glaube einfach, dass es so ist.
KI als neutrale Unterstützung
Man hört ja schnell den Begriff Ethik, wenn es um KI geht, im Sinne von “man muss aufpassen, dass die Ethik nicht den Bach runter geht, wenn wir KI einsetzen”. Und natürlich ist auch das Thema Datenschutz und KI so eine Sache. Aber auch hier ist nicht alles schwarz-weiß.
Ich nehme als Beispiel mal ein medizinisches, weil das vielleicht noch einleuchtender ist:
In Deutschland sterben jährlich über 40.000 Menschen an Herzinfarkten, davon 40% Frauen. Ein Problem dabei ist unter anderem, dass die Forschung sich über viele Jahre vor allem mit männlichen Patienten beschäftigt hat und viele "typische" Symptome bei Frauen anders sind als bei Männern. Was noch immer dazu führt, dass betroffene Frauen oft zu spät und/oder nicht richtig behandelt werden.
Solche Fehleinschätzungen gibt es auch in der Psychotherapie, so werden Borderline-Störungen bei Männern zB häufig übersehen. Manche Störungen werden auch bei Menschen zB mit migrantischem Hintergrund häufiger diagnostiziert bzw übersehen.
Eine gut eingesetzte KI kann kosteneffizient und ganz neutral (was zB Gender, Herkunft etc angeht) in rasender Geschwindigkeit alle Parameter abprüfen und die richtige Diagnose finden und entsprechend die richtige Behandlung einleiten. Also ethischer handeln als ein durchschnittlicher Mensch mit all seinen/ihren Prägungen und - im schlimmsten Fall - Vorurteilen.
Einsatzmöglichkeiten der KI
- Wir alle kennen die oben schon erwähnten DIGAs - und wenn Ihre Erfahrungen damit ähnlich sind wie meine, dann sehen Sie sie mit gemischten Gefühlen. Die derzeit zugelassenen DIGAs sind allerdings nicht unbedingt KI gesteuert (wobei es das gibt, siehe weiter unten).
- Diagnostik
- Prävention: Erkennung von Frühwarnzeichen
- Verringerung von Fehldiagnosen: Einerseits hat die KI (idealerweise) alles Wissen verfügbar, aber womöglich sind auch zB die Schamgrenzen einer KI gegenüber geringer, so dass womöglich offener auch von sozial unerwünschten Aspekten gesprochen wird.
- Unterstützung des therapeutischen Prozesses (zB könnten Hausaufgaben oder Psychoedukation durch eine KI gesteuert werden, die den Therapiefortschritt im Blick hat)
- Hilfreich könnten auch “Matching-Algorithmen” sein, die den aktuellen Bedarf prüfen und eine intelligente Zuordnung der Nutzer/-innen zu Therapie-Inhalten (oder Therapeut*innen) vornehmen.
Bedenken zur KI in der Therapie
Aber was ist zB mit folgenden Themen? Die sind m.E. noch völlig ungeklärt - was ja aber nicht bedeutet, dass deshalb die Entwicklungsgeschwindigkeit abnimmt:
- Datensicherheit: Patient*innendaten sind extrem sensibel. Wie stellen wir sicher, dass diese Daten bei der Nutzung von KI-Systemen geschützt sind? Die Risiken eines Datenlecks oder Missbrauchs sind hoch. Oder dass eine KI speziell entwickelt wird, um zB einem autoritären Regime intime Informationen von bestimmten Menschen zu übermitteln (übertrieben? Vielleicht).
- Verantwortung: Wer trägt die Verantwortung, wenn eine KI-basierte Diagnose oder Therapie fehlschlägt? Der*die Therapeut*in? Der*die Programmierer*in? Diese Fragen müssten dringend geklärt werden, bevor wir uns auf KI verlassen können.
- Langfristige Auswirkungen auf unseren Beruf: Wie wird sich der Beruf der Therapeut*innen verändern? Werden wir zu reinen Datenanalyst*innen? Entwickler*innen von Therapie-KIs? Oder überhaupt abgeschafft, weil eine KI bessere Erfolgsquoten hat und billiger ist?
So wird KI schon jetzt in Deutschland genutzt
- DiGAs (Digitale Gesundheitsanwendungen)
Manche der in Deutschland zugelassene DiGAs wie Deprexis und Selfapy bieten KI-gestützte Unterstützung bei psychischen Erkrankungen. Diese Anwendungen können an Stelle von oder als Ergänzung zur Therapie genutzt werden und bieten interaktive Übungen und personalisierte Therapieansätze. Wir werden ja sehr ermutigt, DIGAs zu verschreiben - wahrscheinlich eine preisgünstige Art, bedürftige Patient*innen irgendwie zu versorgen. Die Forschungslage sagt ja auch, dass die Ergebnisse ganz gut sind - wenn die Betroffenen dabei bleiben (das scheint mir dir Crux zu sein) - Sprachanalyse-Tools
KI-gestützte Sprachanalyse-Tools wie Ellipsis Health können emotionale Zustände anhand der Sprachmuster von Patient*innen analysieren. Diese Tools können Therapeuten dabei helfen, Veränderungen im emotionalen Zustand ihrer Patient*innen besser zu verstehen und zu überwachen. Meines Wissens werden solche Tools aber bisher nur in der Forschung verwendet und sind nicht für Behandlungen zugelassen. - Mobile Apps zur Selbsthilfe
Apps wie "Moodpath" bieten eine KI-gestützte Überwachung der psychischen Gesundheit. Sie können Stimmungsverläufe analysieren, Symptome dokumentieren und personalisierte Empfehlungen geben (zB ob eine Psychotherapie sinnvoll wäre oder wie der Verlauf ist). Diese Apps können sowohl in der Selbsthilfe als auch begleitend zur Therapie genutzt werden. Ich habe gelesen, dass die Schön-Kliniken die App aufgekauft haben und sie damit vermutlich auch regelmäßig anwenden. - Telemedizin und Online-Therapieplattformen
Plattformen wie "MindDoc" oder "Kry" nutzen KI, um Patient*innen mit passenden Therapeut*innen zu verbinden und bieten darüber hinaus Tools zur Überwachung des Therapieverlaufs. Diese Plattformen ermöglichen es, Therapiegespräche online durchzuführen und ergänzende digitale Therapiewerkzeuge zu nutzen. So wie ich es verstehe, werden hier tatsächlich "reale" Online-Therapien vermittelt und angeboten.
5 Beispiele für KI-Psychotherapie
Das hier sind ein paar Beispiele für KI-Psychotherapie-Angebote , die ich beim Recherchieren gefunden habe (keines davon wird meines Wissens in Deutschland eingesetzt). Ehrlich gesagt, war ich beim Recherchieren ganz schön perplex, wie weit die KI Psychotherapie schon geht:
- Woebot
Woebot ist ein KI-gestützter Chatbot, der kognitive Verhaltenstherapie (CBT) anbietet. Nutzer können sich mit dem Bot unterhalten, um Unterstützung bei psychischen Problemen wie Angst und Depression zu erhalten. - Tess by X2AI
Tess ist ein psychologischer KI-Chatbot, der emotionale Unterstützung und psychotherapeutische Interventionen bietet. Er kann in Echtzeit auf Nachrichten reagieren und nutzt bewährte psychotherapeutische Methoden. - Replika
Replika ist ein KI-basierter Chatbot, der als Gesprächspartner und Freund fungiert. Er hilft Nutzern, sich auszudrücken und emotionale Unterstützung zu finden, indem er empathische Gespräche führt. - Wysa
Wysa ist ein KI-gestützter Chatbot, der emotionale Unterstützung bietet und Techniken der kognitiven Verhaltenstherapie (CBT) sowie andere psychotherapeutische Methoden anwendet. Er unterstützt Nutzer bei der Bewältigung von Stress, Angst und Depression. - Ellie by SimSensei
Ellie ist ein virtueller therapeutischer Assistent, der von der University of Southern California entwickelt wurde. Sie nutzt Gesichtserkennung und Stimmanalyse, um emotionale Zustände zu bewerten und psychotherapeutische Gespräche zu führen.
Und was machen wir jetzt damit?
Ich glaube, dass wir Psychotherapeut*innen uns bisher wenig klargemacht haben, dass die rasende Entwicklung der KI ziemlich schnell auch unser Arbeitsfeld komplett verändern kann. Ich meine das überhaupt nicht als Schwarzmalerei.
Und ich will mit diesem Post auch nicht sagen, dass ich diese Entwicklung begrüße und mich freudig darauf vorbereite. Beides nicht.
Ich möchte gerne in einer Welt leben, in der Empathie, persönliche Verbindung und tiefes Verständnis für die individuelle menschliche Erfahrung durch Menschen vorherrschen.
Gleichzeitig will ich nicht ausblenden, was in großer Geschwindigkeit Realität wird. Und die angemessene Versorgung psychisch kranker Menschen ist mir zudem ein zentrales Anliegen.
Und ich frage mich, wie wir als Psychotherapeut*innen uns, unser psychologisches und unser psychotherapeutisches Wissen so gestalten und anbieten können, dass wir möglichst die Chancen der KI für unsere Patient*innen nutzen, ohne die Essenz dessen, was uns als Menschen und als Therapeut*innen ausmacht, zu verlieren. Und wie wir unsere Psychotherapien so gestalten können, dass wir nicht in wenigen Jahren überflüssig sind.
Es würde mich sehr freuen, wenn Sie dieser Post anregt, sich zum Thema KI und Psychotherapie ein paar Gedanken zu machen. Schreiben Sie mir gerne, am besten über das Kontaktformular auf dieser Seite.