ChatGPT als geeigneter Therapeut?
Experten sehen Künstliche Intelligenz nicht als Ersatz - "Simulierte Empathie erscheint seltsam und ohne Sinn"

Von Joseph Boyle
Paris. Ist ChatGPT eine gute Psychologin? Diese Idee wurde kürzlich von einer Managerin des kalifornischen Unternehmens OpenAI verbreitet, das dieses Instrument der Künstlichen Intelligenz (KI) entwickelt hat. Kritiker wenden jedoch ein, mit solchen Vorstößen würden die Herausforderungen im Umgang mit seelischen Krankheiten verharmlost. Eine KI könne einen menschlichen Therapeuten nicht ersetzen.
>>>Mehr Artikel zum Thema Psychische Gesundheit finden Sie hier<<<
"Ich hatte gerade eine ziemlich bewegende persönliche Unterhaltung mit ChatGPT über Stress und die Balance zwischen Arbeit und Privatleben", schrieb Lilian Weng, die bei Open AI für die Sicherheit der KI zuständig ist, auf der Plattform X. "Interessanterweise fühlte ich mich verstanden und getröstet. Ich hatte vorher noch keine Therapie gemacht, aber es wäre wahrscheinlich in etwa so", spekulierte Weng.
Ziel der Psychologie sei es, "die seelische Gesundheit zu verbessern und das ist eine schwierige Aufgabe", hält dem die US-Software-Entwicklerin Cher Scarlett entgegen. Es sei ja "gut und schön", sich bei einer KI positive Bestärkung zu holen. Eine Therapie sei dies aber nicht. Eine Studie hat versucht, zu ergründen, ob Wengs Vorstellung von psychologischer Hilfe durch eine KI realistisch ist.
Auch interessant
Wissenschaftler des Massachusetts Institute of Technology (MIT) und der Arizona State University hatten dazu 300 Probanden in drei Gruppen aufgeteilt. Den Probanden der ersten Gruppe wurde gesagt, ihre virtuelle Gesprächspartnerin habe Empathie. Der zweiten Gruppe wurde vermittelt, das Programm sei manipulierend, und der dritten Gruppe wurde ihr künstliches Gegenüber als neutral präsentiert.
Heraus kam, dass die Probanden, die von einer wohlwollenden KI-Therapeutin ausgingen, viel eher geneigt waren, ihre Erfahrungen mit der KI positiv zu bewerten. Für die Forscher ist dies ein klarer Fall von Placebo-Effekt. "Wir stellen fest, dass die Vorurteile der Nutzer bestimmen, wie die KI wahrgenommen wird", sagte Pat Pataranutaporn, Ko-Autor der Studie.
Schon in den 60er Jahren wurde die erste künstliche Gesprächspartnerin, ein Chatbot entwickelt, um eine Art Psychotherapie zu simulieren. Und bereits vor Chat-GPT kamen zahlreiche Apps auf den Markt, wie zum Beispiel Replika. Bei dieser App klagten Nutzer aber wiederholt, dass das Programm auf Sex fixiert sei und sie manipuliere.
Die gemeinnützige US-Organisation Koko hat im Februar ein Experiment mit 4000 Patienten gemacht, denen mithilfe der KI GPT-3 Ratschläge gegeben wurden. Es zeigte sich, dass sich automatisierte Antworten nicht als Therapie eigneten. "Simulierte Empathie erscheint seltsam und ohne Sinn", schrieb der Mitgründer von Koko, Rob Morris, auf X.
Zu ähnlichen Ergebnissen kam auch die Studie von MIT und Arizona State, bei der manche Teilnehmer sich fühlten, als redeten sie "gegen eine Wand". Den Medizin-Ethiker David Shaw von der Universität Basel überraschen diese Ergebnisse nicht. "Anscheinend sind die Studienteilnehmer nicht darüber informiert worden, dass alle Chatbots dummes Zeug reden", sagt er. Aus Sicht der Studienautoren ist es "wünschenswert, den Nutzern deutlich klar zu machen, dass sie ihre Erwartungen zurückschrauben oder sogar eher negative Erwartungen haben müssten".