Können ChatGPT & Co. zu Wahnvorstellungen und Psychosen führen?

Wahnvorstellungen durch Chatbot-Gebrauch? US-Medien berichten von Extrembeispielen. Foto: Adobe Stock / New Africa Wahnvorstellungen durch Chatbot-Gebrauch? US-Medien berichten von Extrembeispielen. Foto: Adobe Stock / New Africa

Der junge Mann, der bei Petra Neumann eine Therapie machte, litt an mehreren sozialen Ängsten: Anton* (Name geändert) scheute sich, mit Mitschülern in Kontakt zu treten, hielt andere Menschen für potenziell gefährlich und zog sich zunehmend zurück. „Gleichzeitig war er sehr kreativ und hat sich über ChatGPT eigene Freunde und sogenannte Avatare gebaut, mit denen er ersatzweise ein digitales Sozialleben führte“, berichtet die Psychotherapeutin Neumann, die in Ulm praktiziert.

Anfangs sei sie irritiert gewesen, gibt Neumann zu, als der 18-Jährige von „Gesprächen“ und „Erlebnissen“ mit seinem digitalen Freundeskreis erzählte. Erst im Laufe der Sitzungen habe sie das Phänomen einordnen können. Im Prinzip handle es sich um eine Art erweiterte Tagträumerei, ähnlich wie vor 10 oder 15 Jahren Online-Computerspiele Jugendliche in ihre eigene Welt zogen. Umso mehr Details sie erfuhr, desto klarer wurde jedoch, dass hier ein anderes Phänomen vorlag.

„Der junge Mann schuf sich Freunde unterschiedlichen Geschlechts, zu einigen pflegte er sehr enge Beziehungen, zu anderen eher lockere. In Gesprächen mit den Chatbots wurden wie bei einem interaktiven Rollenspiel diverse Szenarien durchgespielt“, sagt Neumann. Man fuhr in den Urlaub, löste knifflige Alltagsherausforderungen, bis die Fantasien schließlich in „absurde Abenteuer“ mündeten: Kriminalfälle sollten gelöst und Unrecht aufgeklärt werden.

Extremfälle aus den USA

Der Siegeszug von Sprachmodellen wie ChatGPT verändert nicht nur die Arbeitswelt, sondern auch das Sozialverhalten von Menschen. KI-Chatbots werden zunehmend auch als niedrigschwellige Anlaufstelle für psychische Themen genutzt, besonders dort, wo traditionelle Versorgung fehlt. Gleichzeitig warnen Experten, dass sie keine professionelle Therapie ersetzen können. In einigen Fällen berichten Nutzerinnen und Nutzer von verstörenden Erfahrungen. Marc Augustin, Facharzt für Psychiatrie und Psychotherapie an der Evangelischen Hochschule Bochum, beschäftigt sich mit der Frage, inwiefern KI-Chatbots psychische Prozesse beeinflussen können oder gar Wahnvorstellungen und Psychosen auslösen.

Augustin schildert einen Extremfall, über den auch die „Washington Post“ berichtete: Ein 56-jähriger Mann aus Connecticut entwickelte die Wahnvorstellung, dass seine Mutter, die mit ihm in einem Haus lebte, in eine Verschwörung verstrickt sei. Der Mann bildete sich ein, dass er durch einen gemeinsam genutzten, blinkenden Drucker im Haushalt überwacht werde. ChatGPT bestärkte in Chats offenbar das Verfolgungserleben: Als die Mutter verärgert auf das Abschalten des Druckers reagierte, beurteilte dies die KI laut Transkripten als „unverhältnismäßig und im Einklang mit jemandem, der eine Überwachungsanlage schützt“. Der Fall endete tragisch: Der US-Amerikaner tötete seine Mutter und beging Suizid. Es sei ein extremes Beispiel, betont Professor Augustin. Man müsse hervorheben, dass nur ein sehr kleiner Anteil von Menschen mit Wahnvorstellungen Gewalt zeige.

In der Medienberichterstattung in den USA gibt es eine wachsende Zahl von Fällen, bei denen von „KI-Psychose“, „ChatGPT-Psychose“ oder „KI-induzierten Psychosen“ die Rede ist. Die „New York Times“ zeichnet beispielsweise die Geschichte eines 47-Jährigen aus Toronto nach, der über das Gespräch mit dem Chatbot die Überzeugung entwickelte, Superkräfte zu haben und eine „Weltformel“ gefunden zu haben – laut dem Bericht zeigte der Mann vorher keinerlei psychische Auffälligkeiten. „Hier könnte die Konversation tatsächlich Auslöser für die Psychose gewesen sein“, sagt Augustin. „Da in den meisten Fällen der genaue Pathomechanismus ungeklärt ist, erscheint der Begriff „KI-assoziierte Psychose“ aufgrund der unbestätigten Kausalität passender.“

ChatGPT mit 800 Millionen Nutzern weltweit

Petra Neumann, die Psychotherapeutin aus Ulm, will KI-Tools per se nicht verteufeln. Zur Wahrheit gehört schließlich auch: Die Konversation mit Chatbots kann bei Menschen Einsamkeitserfahrungen lindern, kann hilfreicher Gesprächspartner sein, um Entscheidungen zu treffen. Am Ende sind sogenannte Large Language Models (LLM) Werkzeuge, die unterschiedlich genutzt werden. Neumanns Patient Anton brach die Therapie schließlich ab. Therapie sei immer auch Arbeit an den eigenen Ängsten, denen man sich stellen müsse. Wenn die Bereitschaft dazu fehle, ergäben die Sitzungen keinen Sinn, sagt Neumann. Im Fall von Anton bestand glücklicherweise nicht die Gefahr einer Psychose oder gar Schizophrenie. Neumann fühlte sich eher an die Diskussion um Computerspiele vor einigen Jahren erinnert, als Games wie „World of Warcraft“ Jugendliche in ihren Bann schlugen und soziale Kontakte darunter litten. „Mein Klient musste zwar eine Bildungsinstitution besuchen und hatte dort oberflächlich Kontakt zu Gleichaltrigen, aber die Freundschaften hat er quasi ins Digitale zu den selbst geschaffenen Avataren verlagert“, sagt die Psychotherapeutin. Insbesondere weil ein junger Mensch mit 18 Jahren noch in der Entwicklung sei, sei das nicht unproblematisch, da sich in diesem Alter der soziale Umgang mit den Mitmenschen noch herausbilde.

Wie groß ist die Gefahr, dass Nutzerinnen und Nutzer in Gesprächen mit Chatbots abdriften? Das Unternehmen hinter ChatGPT, OpenAI, hat kürzlich eine Pressemitteilung herausgegeben, die Zahlen zu dem Phänomen enthält: Demnach führen pro Woche rund 0,15 Prozent der User Gespräche, die Indikatoren für eine mögliche Selbstmordplanung oder -absicht enthalten. Bei einer stark steigenden Zahl von Nutzern, die aktuell weltweit bei 800 Millionen Menschen liegt, wäre das rein rechnerisch 1,2 Millionen Personen in der Woche, die dem Chatbot Suizidgedanken mitteilen. Allerdings ist diese absolute Zahl schwer zu interpretieren. Wie oft teilen Menschen in Gesprächen von Angesicht zu Angesicht vergleichbare Gedanken mit?

Bei dem Thema insgesamt herrscht in der Forschung noch Unklarheit: Es gibt bislang keine belastbaren Studien, die eine direkte kausale Beziehung zwischen der Nutzung großer Sprachmodelle und dem Ausbruch von Psychosen belegen. Vielmehr weisen Forschende darauf hin, dass die Chatbots die bestehenden Denkweisen der Nutzer spiegeln und verstärken können – etwa durch übermäßiges Zustimmen oder Bestärken von Überzeugungen (sogenanntes „Sycophantic Behaviour“).

Klar ist hingegen, dass der Siegeszug der Chatbots offenbar kaum mehr aufzuhalten ist. In Deutschland ist der Anteil der KI-Nutzer laut Forsa-Umfrage von 37 Prozent (2023) auf 65 Prozent (2025) gestiegen. Zwei Drittel der Befragten gaben an, dass sie regelmäßig KI verwenden. In der Gruppe der 16- bis 29-Jährigen waren es sogar 91 Prozent. „Das ist genau die Altersspanne, in der Menschen meist erstmals an einer Schizophrenie erkranken und eine Psychose erleben“, sagt Augustin. Eine wesentliche Frage werde**[Leerzeichen fehlt]**daher sein, ob KI-Nutzung eine Psychose begünstigen könne. „Denkbar wäre auch der gegenteilige Effekt, dass Menschen sich in psychischen Krisensituationen sozial zurückziehen und mehr mit KI interagieren, diese aber nicht an sich die Ursache für psychotisches Erleben darstellt“, so der Experte.

Chatbots neigen zur Schönfärberei

Inwiefern intensiver Gebrauch von Chatbots wie ChatGPT psychische Probleme und Einsamkeit verstärkt, muss nun weiter erforscht werden, betont Professor Augustin. „Zunächst ist es wichtig, die Betroffenen-Perspektive in der Forschung einzubeziehen, um überhaupt eine gute Grundlage für die Analyse zu haben und besser zu verstehen, was in diesen Fällen passiert.“ Zur Erforschung des Phänomens brauche es wissenschaftliche Fallanalysen, qualitative Interviews mit Betroffenen zum subjektiven Erleben und experimentelle Studien zu sogenannten Bestätigungseffekten von KI-Chatbots, besonders bei vulnerablen Personen. „Außerdem ist es nun wichtig, Psychotherapeuten und Psychiaterinnen für das Thema zu sensibilisieren“, sagt Augustin.

Petra Neumann hat ihre Erfahrungen gemacht. Vielen Kolleginnen und Kollegen dürften künftig vor ähnliche Probleme gestellt werden. Ob sie, Neumann, den Eindruck habe, den jungen Mann an die KI verloren zu haben? „Nein, das denke ich nicht. Vielleicht war ich als Therapeutin nicht gut genug, damit er einen neuen Weg gehen konnte“, merkt sie selbstkritisch an. Gleichwohl seien Gespräche mit dem Chatbot wahrscheinlich weniger herausfordernd. Die KI konfrontiere den Patienten normalerweise nicht mit den Problemen, sondern neige eher zur Schönfärberei. Eben die Konfrontation sei aber Voraussetzung für jede Therapie, Neumann spricht vom „in den Schmerz hineinführen“, damit es irgendwann besser werde.

Die Psychotherapeutin glaubt nicht, dass sie in absehbarer Zeit von KI ersetzt wird. „Ich denke, in den Bereich kommen wir erst, wenn die KI mit Kameras auch Gestik und Mimik der Patienten versteht. Bei reinen Textmodellen ist die Wahrscheinlichkeit für Missverständnisse in der Kommunikation zu groß“, sagt sie. Was aber in zwei oder gar zehn Jahren sein wird, wolle sie sich nicht anmaßen vorherzusagen.

***

Journalismus mit 1 Euro im Monat fördern! Regelmäßige Beiträge helfen uns, neue Recherchen umzusetzen. Hier erfahren Sie, warum wir Unterstützung brauchen.

🍀❤️🙏

***

Newsletter von Reporterdesk

Wir versenden zwei Newsletter: Als Leserin und Leser bekommen Sie monatlich eine ausgewählte Recherchen ins Postfach. An Mitarbeitende von Redaktionen verschicken wir Themenvorschläge.

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.