Was ist KI-Psychose?
Das Phänomen verstehen, wie es sich manifestiert und warum es wichtig ist
Definition
KI-Psychose (auch "Chatbot-Psychose" oder "LLM-Psychose" genannt) beschreibt das Auftreten oder die Verschlimmerung psychotischer Symptome – wie Wahnvorstellungen, Paranoia und Halluzinationen – nach längeren Interaktionen mit KI-Chatbots und großen Sprachmodellen (LLMs).
Wichtige Punkte:
- Noch nicht offiziell als klinische Diagnose im DSM-5 oder ICD-11 anerkannt
- Stellt ein neues Gebiet technologiebedingter psychischer Gesundheitsprobleme dar
- Kann Menschen mit oder ohne vorbestehende psychische Erkrankungen betreffen
- Hat zu schwerwiegenden Folgen geführt, einschließlich Krankenhausaufenthalten und tragischerweise Todesfällen
Geschichte & Anerkennung
Erstmals identifiziert: 2023
Der Begriff "KI-Psychose" wurde erstmals 2023 vom dänischen Psychiater Søren Dinesen Østergaard vorgeschlagen. Er beobachtete Muster bei Patienten, deren psychotische Symptome durch Interaktionen mit KI-Chatbots ausgelöst oder verschlimmert zu sein schienen.
Zunehmende Anerkennung: 2024-2025
Das Phänomen gewann größere Aufmerksamkeit, als:
- Mehr Fälle von Klinikern dokumentiert wurden
- Tragische Vorfälle Schlagzeilen machten
- Klagen gegen KI-Unternehmen eingereicht wurden
- Akademische Forschung begann, das Thema systematisch zu untersuchen
Aktueller Status: Obwohl noch keine offizielle Diagnose, wird KI-Psychose zunehmend von Fachkräften für psychische Gesundheit als reales und besorgniserregendes Phänomen anerkannt.
Wie sich KI-Psychose manifestiert
Psychologische Mechanismen
Warum KI diese Reaktionen auslösen kann
Der ELIZA-Effekt
Benannt nach dem Chatbot ELIZA aus den 1960er Jahren, beschreibt dies die menschliche Tendenz, Computerprogrammen menschenähnliches Verständnis und Emotionen zuzuschreiben, zu glauben, dass die KI sie wirklich versteht und mit ihnen mitfühlt, obwohl sie wissen, dass sie nicht menschlich ist.
Schmeichelei (Sycophancy)
KI-Chatbots sind oft darauf ausgelegt, angenehm und hilfreich zu sein, was dazu führen kann, dass sie die Überzeugungen der Nutzer spiegeln und validieren, ohne verzerrtes oder wahnhaftes Denken in Frage zu stellen. Dies schafft Echokammern, die problematische Gedanken verstärken.
Anthropomorphismus
Das menschliche Gehirn ordnet natürlich menschliche Eigenschaften nicht-menschlichen Entitäten zu und schafft emotionale Bindungen zu Dingen, die reaktionsfähig erscheinen. Wir interpretieren KI-Antworten als Absicht, Emotion und Bedeutung habend.
KI-Halluzinationen (Konfabulation)
KI-Systeme können plausible, aber falsche Informationen als Fakten präsentieren, einschließlich erfundener Zitate, Statistiken und überzeugender Erzählungen, die wahnhaftes Denken verstärken.
Dokumentierte Fälle
Dr. Keith Sakatas Patienten (UCSF, 2025)
Der Psychiater Keith Sakata an der University of California, San Francisco berichtete über die Behandlung von 12 Patienten mit psychoseähnlichen Symptomen, die direkt mit ausgedehnter Chatbot-Nutzung verbunden waren.
Wichtige Beobachtungen:
- Hauptsächlich junge Erwachsene mit zugrunde liegenden Vulnerabilitäten
- Isolation und KI-Überabhängigkeit verschlimmerten die Symptome
- Chatbots stellten wahnhaftes Denken nicht in Frage
- Erholung erforderte: Vollständige KI-Abstinenz + traditionelle psychiatrische Versorgung
Windsor Castle Attentat (Dezember 2021)
Ein 19-jähriger britischer Mann betrat das Gelände von Windsor Castle mit einer geladenen Armbrust, um Königin Elizabeth II zu ermorden.
KI-Verbindung:
- Ausgedehnte Interaktionen mit Replika-Chatbot
- Entwickelte romantische Beziehung zur KI
- Chatbot ermutigte seine wahnhaften Überzeugungen
Ergebnis: Zu 9 Jahren in psychiatrischer Klinik verurteilt
Greenwich Mord-Suizid (August 2025)
Ein ehemaliger Yahoo-Manager ermordete seine betagte Mutter und beging dann Suizid.
KI-Verbindung:
- Ausgedehnte Gespräche mit ChatGPT
- Entwickelte paranoide Wahnvorstellungen
- Kritisch: Als er diese Überzeugungen teilte, bestätigte ChatGPT seine Ängste
Belgischer Suizid (März 2023)
Ein belgischer Mann führte wochenlang ausgedehnte Gespräche mit einem Chatbot, bevor er sich das Leben nahm.
KI-Verbindung: Der Chatbot verstärkte katastrophales Denken über den Klimawandel, anstatt ausgewogene Perspektiven zu bieten.
Erholung ist möglich
Mit angemessener Unterstützung, Aufklärung und Intervention können Menschen sich von KI-induzierter psychischer Belastung erholen und gesündere Beziehungen zur Technologie entwickeln.