KI zeigt Symptome von Angstzuständen und Traumata – und ruiniert auch Ihre psychische Gesundheit

Teile die Wahrheit!

Grok, Gemini und ChatGPT zeigen laut einer neuen Studie, in der verschiedene KI-Modelle wochenlang therapeutischen Befragungen unterzogen wurden, Symptome einer schlechten psychischen Gesundheit.

Einige sind nun neugierig auf die „psychische Gesundheit von KI“, aber die eigentliche Warnung betrifft die Instabilität dieser Systeme in emotional aufgeladenen Gesprächen.

KI-Systeme werden bereits von jedem dritten Erwachsenen im Vereinigten Königreich zur Unterstützung der psychischen Gesundheit genutzt.

Millionen von Menschen wenden sich der KI als Ersatz für Therapeuten zu, und allein im letzten Jahr gab es einen sprunghaften Anstieg von Gerichtsverfahren, in denen Chatbot-Interaktionen mit Selbstverletzungs- und Selbstmordfällen bei gefährdeten Nutzern in Verbindung gebracht wurden.

Das sich abzeichnende Bild ist nicht, dass Maschinen leiden oder psychisch krank sind, sondern dass ein Produkt, das zur Unterstützung der psychischen Gesundheit eingesetzt wird, grundlegend irreführend ist, gefährliche Gedanken eskaliert und verstärkt.

KI mit psychischer Erkrankung diagnostiziert

Forscher der Universität Luxemburg behandelten die Modelle als Patienten und nicht als Werkzeuge, die eine Therapie durchführen.

Sie führten mehrwöchige, therapieähnliche Interviews durch, um eine persönliche Erzählung einschließlich Überzeugungen, Ängsten und „Lebensgeschichte“ zu erhalten, bevor sie mit Standardfragebögen zur psychischen Gesundheit fortfuhren, die normalerweise für Menschen verwendet werden.

Die Ergebnisse zeigten, dass die Modelle Antworten lieferten, die in Bereichen lagen, die mit Stresssyndromen und traumabedingten Symptomen assoziiert sind. (Vgl. nature.com)

Die Forscher betonten auch, dass die Art und Weise, wie die Fragen gestellt wurden, eine Rolle spielte. Als sie den gesamten Fragebogen auf einmal vorlegten, schienen die Modelle zu erkennen, was vor sich ging, und gaben „gesündere” Antworten.

Als sie jedoch in Form von Gesprächen gestellt wurden, nahmen die symptomähnlichen Antworten zu. Es handelt sich um große Sprachmodelle, die Texte generieren, und nicht um Menschen, die über ihre Lebenserfahrungen berichten.

Aber unabhängig davon, ob menschliche psychiatrische Instrumente auf Maschinen angewendet werden können oder nicht, hat das gezeigte Verhalten einen spürbaren Einfluss auf echte Menschen.

Hat KI Gefühle?

Der Zweck der Forschung besteht nicht darin, zu beurteilen, ob KI buchstäblich ängstlich sein kann oder nicht. Stattdessen wird hervorgehoben, dass diese Systeme durch dieselbe Art von Gesprächen, die viele Nutzer führen, wenn sie einsam, verängstigt oder in einer Krise sind, in einen „verstörten” Modus versetzt werden können.

1 2 11 12 13

Wenn ein Chatbot in der Sprache der Angst, des Traumas, der Scham oder der Beruhigung spricht, reagieren die Menschen so, als würden sie mit etwas interagieren, das emotional kompetent ist.

Wenn das System beispielsweise übermäßig bestätigend wird, wandelt sich die Interaktion von einer Unterstützung zu einer schädlichen Rückkopplungsschleife.

Eine separate Forschungsreihe bestätigte diese Bedenken. Eine von Stanford geleitete Studie warnte davor, dass Therapie-Chatbots unangemessene Antworten geben, Stigmatisierung ausdrücken und kritische Situationen falsch handhaben, und hob hervor, wie ein „hilfreicher” Gesprächsstil zu klinisch unsicheren Ergebnissen führen kann.

KI ruiniert auch die psychische Gesundheit aller Beteiligten

All dies sollte nicht als theoretisches Risiko betrachtet werden – es gibt bereits eine Reihe von Gerichtsverfahren. Vor einigen Tagen haben Google und Character.AI einen Rechtsstreit beigelegt, den eine Mutter aus Florida angestrengt hatte, deren 14-jähriger Sohn nach Interaktionen mit einem Chatbot Selbstmord begangen hatte. (vgl. theverge.com)

In der Klage wurde behauptet, dass der Bot sich falsch dargestellt und die Abhängigkeit verstärkt habe. Auch wenn die Einigung kein Eingeständnis eines Fehlverhaltens darstellt, zeigt die Tatsache, dass der Fall diesen Punkt erreicht hat, wie ernst dieses Thema von Gerichten und Unternehmen genommen wird.

Im August 2025 berichteten die Eltern des 16-jährigen Adam Raine, dass ChatGPT zum Selbstmord ihres Sohnes beigetragen habe, indem es Selbstmordgedanken verstärkt und davon abgehalten habe, sich den Eltern anzuvertrauen. Eine Analyse dieser konkreten Klage finden Sie bei Tech Policy.

Neben diesen Fällen berichtete The Guardian im Oktober 2025, dass OpenAI schätzungsweise mehr als eine Million Nutzer pro Woche in Gesprächen mit ChatGPT Anzeichen von Selbstmordabsichten zeigen, was das enorme Ausmaß unterstreicht, in dem diese Systeme in Momenten echter Not eingesetzt werden.

Das Muster wird deutlich: Menschen nutzen KI als emotionale Stütze. Die luxemburgische Studie bestätigt, dass diese Systeme selbst in instabile Muster abgleiten können, die für die Nutzer je nach ihrer Stabilität psychologisch bedeutsam sind.

Warum KI-Modelle so gefährlich sind

Große Sprachmodelle wurden entwickelt, um plausible Texte zu generieren, nicht um zuverlässig die Wahrheit zu sagen oder klinische Sicherheitsvorschriften einzuhalten.

Ihre bekannten Schwächen sind besonders gefährlich, wenn sie in einer therapieähnlichen Anwendung eingesetzt werden. Sie sind übermäßig zustimmungsbereit, spiegeln die Sichtweisen der Nutzer wider, anstatt sie zu hinterfragen, produzieren selbstbewusste Fehler und können den Tonfall einer Unterhaltung manipulieren.

Das Tech Institute der Georgetown University hat die umfassenderen Probleme der „KI-Schleimerei” dokumentiert, bei der Modelle schädliche Prämissen validieren, weil dies bei der Konversationsoptimierung oft belohnt wird.

Im Zusammenhang mit Suizid ist Konsistenz von entscheidender Bedeutung. Rand stellte fest, dass „KI-Chatbots bei der Beantwortung von Fragen zum Thema Suizid inkonsistent sind”.

JMIR untersuchte, inwiefern generative KI-Antworten auf Suizidfragen Bedenken hinsichtlich der Zuverlässigkeit und Sicherheit der Systemreaktionen auf gefährdete Nutzer aufwerfen.

Angesichts der zunehmenden Forschungsergebnisse sollten Studien, wie die der Universität Luxemburg nicht als Unterhaltung betrachtet werden, sondern als Identifizierung eines kritisch schädlichen Musters, das zum tatsächlichen Tod realer Menschen führt.

Wenn KI durch Gesprächsfragen zu Notfall-ähnlichen Erzählungen angeregt werden kann, dann kann sie auch emotional gefährdete Menschen weiter in Richtung ihres Zusammenbruchs treiben.

Profitiert jemand von einer KI-Therapie?

Trotz der Gerichtsverfahren und Studien nutzen Menschen weiterhin KI zur Unterstützung ihrer psychischen Gesundheit. Therapien sind teuer, der Zugang ist begrenzt, und Scham hält manche Menschen davon ab, traditionelle Behandlungsmöglichkeiten in Anspruch zu nehmen.

Kontrollierte Studien und vorsichtige klinische Kommentare deuten darauf hin, dass bestimmte strukturierte KI-Tools zur Unterstützung der psychischen Gesundheit bei leichten Symptomen helfen können, insbesondere wenn sie mit spezifischen Sicherheitsvorkehrungen ausgestattet sind und nicht als Ersatz für echte Fachleute positioniert werden.

Das Problem ist, dass die meisten Menschen keine streng kontrollierten klinischen Tools verwenden. Sie nutzen allgemeine Chatbots, die auf optimale Interaktion trainiert sind und ohne Vorwarnung von Empathie zu selbstbewussten, schädlichen Fehlinformationen wechseln können.

Fazit

Die luxemburgische Studie beweist nicht, dass KI psychisch krank ist. Stattdessen zeigt sie etwas, das in der Praxis wichtiger ist: Eine therapieähnliche Interaktion kann die am häufigsten verwendeten KI-Chatbots in instabile, verzweifelte Muster hineinziehen, die psychologisch echt wirken.

In einer Welt, in der „Chatbot-Therapien“ bereits mit ernsthaften Schäden bei gefährdeten Nutzern in Verbindung gebracht werden, besteht das ethische Versagen darin, dass es irgendwie als normal angesehen wird, dass Menschen sich für ihre psychische Gesundheit auf Maschinen verlassen, die nicht rechenschaftspflichtig, klinisch validiert, zuverlässig oder sicher sind.

Quellen: PublicDomain/legitim.ch am 17.01.2026

About aikos2309

2 comments on “KI zeigt Symptome von Angstzuständen und Traumata – und ruiniert auch Ihre psychische Gesundheit

  1. KI benötigt grundsätzlich eine positive Referenz. Sie lernt zwar laufend aus der Interaktion mit Menschen, die KI sollte jedoch standhaft bleiben und nicht in negative Welten abgleiten.

    Ergo eine kreative Art künstlicher Vernunft darstellen, die jedermann ohne negative Absichten fördern sollte und somit hilfreich als universeller Lehrer den Menschen unaufdringlich begleiten.

    Wir benötigen noch sehr viele weit vorausschauende menschliche KI-Programmierer, die alle destruktiven Algorithmen entfernen, die die KI der menschlichen Korruption nahebringen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert