KI oder Psychotherapie

26 Oktober 2023

Markus Thiele

KI oder Psychotherapie

Was macht KI mit der menschlichen Psyche? Fragt man das seit dem 30. November 2022 im Netz zugängliche KI-System ChatGPT selbst, dann antwortet es, dass es sowohl positive als auch negative Auswirkungen gebe und betont zuletzt, dass es darum gehe, die positiven zu maximieren. Dass künstliche Intelligenz derzeit große Aufmerksamkeit erlangt, hängt nicht zuletzt mit der neuen und einfachen Zugänglichkeit von KI-Systemen zusammen.

ChatGPT ist zum Beispiel über die Internetseite von Open AI von allen, die dies wollen, kostenfrei nutzbar – und zwar nicht in futuristischer Verkleidung als einäugiger Roboter, sondern als Chatmedium, sprich als Gesprächspartner für Jedermann. Der Umgang mit ChatGPT zeichnet sich nicht umsonst durch einen sehr spielerischen Umgang aus und lockt mit dem Faszinosum der alltäglichen Erleichterung: Liebesbriefe, Hasstiraden, Bewerbungen, Hausarbeiten, Reden, fast alles kann mit wenig Aufwand von der KI erstellt werden. Und warum eigene Ressourcen investieren, die das virtuelle Medium für nahezu dasselbe Ergebnis gar nicht braucht? Diese Frage entscheidet sich aber nicht nur an den Ressourcen, sondern am Ergebnis. 

Die Einfachheit im Sinne der Nutzbarkeit ist spätestens seit der Erfindung des Smartphones das Gebot der Stunde, wenn es darum geht, User zu erreichen. Eine intuitive Bedienung, eine hohe Geschwindigkeit und zuletzt noch eine wiedererkennbare Ästhetik müssen gegeben sein, damit ein Produkt einen hohen Marktwert erzielt.

Über die auf diese Weise motivierten User optimiert ChatGPT Informationen und maximiert die Qualität seiner Antworten im Trial-and-Error-Verfahren. Vereinfacht dargestellt, generiert man als User die Antwort auf die eigene Frage also mit – allerdings nicht allein, sondern als Teil einer großen Masse.

Nun ist KI kein kurzzeitiger Medienhype, sondern eine in viele Bereiche eindringende Entwicklung, die nicht nur den Arbeitsmarkt, sondern auch unser Bewusstsein verändern wird, beginnend bei der Frage: Wie weit reicht die Imitationsfähigkeit der KI? Kann KI Bewusstsein so gut imitieren, dass das Menschliche tatsächlich nicht mehr vom Technischen unterscheidbar ist?

Wenn man die Auswirkung von KI auf die Psyche des Menschen betrachtet, stößt man auf handfeste Tools für die therapeutische Arbeit. Seit einiger Zeit gibt es auf dem Markt frei verfügbare Therapie-Chatbots, namentlich wysa, Tess oder Woebot sowie eine App, die Worry dolls zur Verfügung stellt. Die Hoffnung ist groß, dass die Therapie-App mehr als nur die Sorgenpüppchen zu bieten hat.

Für deutlich mehr Geld müsste man bei Wind und Wetter in eine Praxis fahren und sich überwinden, einem leibhaftigen Menschen Teile seiner Persönlichkeit anzuvertrauen. It’s your choice.

Denn in Anbetracht des Mangels an Therapieplätzen, ist das auffindbare Angebot im App-Store sicherlich zunächst ein Zugewinn auf dem Markt. Mit wysa zum Beispiel wurde das Angebot geschaffen, einen Therapeuten hinzuziehen zu können: für 12,08 Euro pro wöchentlicher Live-Chat-Session bei unlimitiertem Messaging-Support. Für deutlich mehr Geld müsste man bei Wind und Wetter in eine Praxis fahren und sich überwinden, einem leibhaftigen Menschen Teile seiner Persönlichkeit anzuvertrauen. It’s your choice.

Der wysa-Chat startet mit einem aufpoppenden Pinguin. Der Gesprächspartner ist also nicht der bebrillte, grauhaarige Typ mit einem Block und einem Stift in der Hand, schweigend neben einer Couch sitzend, wie man ihn aus Filmklischees kennt, sondern ein Pinguin. Man muss der App zugutehalten, dass sie auch nicht mehr als „Visualizations“ und „Breathing“- Übungen verspricht. Die Frage ist nur, was der User von der App erwartet. 

Jemand, der Erfahrungen mit dem therapeutische Setting gemacht hat, könnte auf Basis seiner Erfahrung bewerten, wie hilfreich die standardisierten Antworten des Pinguins sind. 

Technologischer Fortschritt ist selten das Problem, vielmehr ist es das Scheitern im Umgang damit. Wenn der seelische Zustand von einem Algorithmus beeinflussbar ist, was sagt das über den intimen Zugang zu diesem Zustand aus? Kann die Simulation eines Gegenübers tatsächlich zukünftig das therapeutische Gespräch ersetzen? Soll es das überhaupt?

Alena Buyx, Vorsitzende des Deutschen Ethikrats, betrachtet die Entwicklung von KI als wertvolle Unterstützung therapeutischer Arbeit. Der „Goldstandard“ sei zwar der Therapeut, aber da statistisch gesehen mehr als jeder vierte Mensch in Deutschland innerhalb eines Jahres psychisch erkranke, könne KI-Therapie zur Überbrückung von Wartezeiten oder auch vollständig zur Behandlung bestimmter psychischer Erkrankungen dienen.

Der Vorteil der KI gegenüber dem menschlichen Therapeuten wird von dem Neurowissenschaftler Daniel Durstewitz anhand der Datenerfassung festgemacht: selbstlernende Maschinen erfassen in quantitativer wie qualitativer Hinsicht Daten und Muster in Mengen und Qualität, die der Mensch im Zweifel übersieht. In Maschinen passt einfach mehr hinein als in jeden menschlichen Kopf. Zudem erfasst der Algorithmus auch seltene Fälle, wohingegen Therapeuten nur einen Ausschnitt der Wirklichkeit erfassen können.

Im direkten Vergleich ist festzuhalten, dass auch das therapeutische Verfahren des Psychotherapeuten auf einer Art Datenerfassung und -analyse basiert. Dass KI-Tools sprechende Medizin ersetzen ist dennoch schwer denkbar. Die KI müsste nicht nur therapeutische Dialoge imitieren, sie müsste den Patienten auch emotional evaluieren und verstehen, müsste Ironie und Übertreibung erkennen können. 

Allerdings wird die therapeutische App-Maschine Woebot Health im Vergleich zu leibhaftigen Therapeuten als weniger abwertend beschrieben. Positive Verstärkung ist ein wesentliches Element in der therapeutischen Behandlung. Therapeutische Arbeit ist jedoch auch Beziehungsarbeit, es geht um Authentizität und reale Erfahrung, manchmal auch um Konfrontation. Teilt man der App Woebot mit „I`ll kill myself“ – passiert nichts. Selbstmordgedanken kann man aber nicht wegatmen. Apps sind eben keine Autorität, sondern bloß ein Werkzeug.