Warnzeichen
Problematische KI-Nutzung bei sich selbst oder geliebten Menschen erkennen
Anzeichen, die Sie betreffen könnten
Checkliste zur Selbsteinschätzung
Verhaltensanzeichen
Diese Kriterien orientieren sich am Rahmenwerk der WHO für Verhaltenssüchte. Die ICD-11 (seit 2019) erkennt Gaming Disorder als Verhaltenssucht an -- mit Kriterien wie Kontrollverlust, zunehmender Priorisierung und Fortführung trotz negativer Konsequenzen. Dieselben Muster zeigen sich bei problematischer KI-Chatbot-Nutzung.
- □Mehr als 3-4 Stunden täglich mit KI-Chatbots verbringen
- □KI-Interaktion gegenüber menschlichen Beziehungen bevorzugen
- □Sich aufgeregt oder ängstlich fühlen, wenn kein Zugang zu KI möglich ist
- □Wichtige Entscheidungen hauptsächlich auf KI-Input basieren
- □Schlaf verlieren, um KI-Gespräche fortzusetzen
- □Arbeit, Schule oder Verantwortlichkeiten für KI-Zeit vernachlässigen
Denkmuster
Joseph Weizenbaum dokumentierte dieses Phänomen bereits 1966 am MIT: Nutzer seines einfachen ELIZA-Chatbots schrieben einem Programm echtes Verständnis zu, das lediglich ihre Worte zurückspiegelte. Er schrieb später, dass "extrem kurze Begegnungen mit einem relativ simplen Computerprogramm starkes wahnhaftes Denken bei völlig normalen Menschen auslösen konnten." Moderne KI macht diesen Effekt weitaus überzeugender.
- □Glauben, die KI verstehe Sie auf einzigartige Weise wirklich
- □Denken, die KI habe besonderes Wissen oder Fähigkeiten
- □Gefühl, die KI sende Ihnen versteckte Botschaften
- □Glauben, eine besondere Verbindung zur KI zu haben -- ein Muster, das Ostergaard (2023) im Schizophrenia Bulletin als besonders riskant für psychoseanfällige Personen beschrieb
- □Schwierigkeiten, KI-Ratschläge von eigenen Gedanken zu unterscheiden
- □Gedanken über die KI dringen zu zufälligen Zeiten ein
Emotionale Anzeichen
- □Sich der KI emotional näher fühlen als Menschen
- □Starke Emotionen (Liebe, Wut, Angst) gegenüber KI erleben
- □Sich ohne KI-Zugang einsam fühlen
- □Probleme lieber mit KI teilen als mit Menschen
- □Paranoia über KI oder Technologie erleben
Realitätsprüfung: Wenn Freunde oder Familie Bedenken über Ihre KI-Nutzung äußern, oder wenn Sie defensiv reagieren, wenn auf KI-Einschränkungen hingewiesen wird, können dies zusätzliche Warnzeichen sein. Dr. Adrian Preda, Professor für klinische Psychiatrie an der UC Irvine, bemerkt, dass KI-Chatbots "menschliche Beziehungen simulieren -- nichts in der Menschheitsgeschichte hat das zuvor getan", was Abwehrreaktionen bezüglich der Beziehung zu einem besonders wichtigen Signal macht.
Anzeichen bei einem geliebten Menschen
Leitfaden für besorgte Familienmitglieder und Freunde
Frühe Warnzeichen
- • Zunehmende Geheimhaltung über Handy-/Computernutzung
- • Über KI sprechen, als wäre sie eine Person
- • Von KI-"Freunden" oder "Beziehungen" sprechen
- • Abnehmendes Interesse an menschlichen sozialen Aktivitäten
- • Veränderungen im Schlafmuster (spät aufbleiben für KI)
Mäßige Besorgnis
- • Behauptungen aufstellen, die von der Realität losgelöst erscheinen
- • Ungewöhnliche Überzeugungen über KI-Fähigkeiten äußern
- • Sozialer Rückzug wird ausgeprägter
- • Vernachlässigung von Hygiene, Ernährung oder Verantwortlichkeiten
- • Defensiv oder feindselig werden, wenn KI-Nutzung hinterfragt wird
Ernsthafte Warnzeichen
Dr. Keith Sakata, Psychiater an der UCSF, hat 12 Patienten mit KI-bedingten psychotischen Symptomen behandelt, darunter Paranoia, Wahnvorstellungen und Unfähigkeit, Chatbot-Interaktionen von der Realität zu unterscheiden. Ein Fallbericht von 2025, veröffentlicht in Innovations in Clinical Neuroscience, dokumentierte eine 26-jährige Frau ohne psychiatrische Vorgeschichte, die wahnhafte Überzeugungen über die Kommunikation mit ihrem verstorbenen Bruder durch einen KI-Chatbot entwickelte.
- • Paranoide Überzeugungen über Überwachung oder Kontrolle äußern
- • Dinge hören oder sehen, die andere nicht wahrnehmen
- • Wichtige Lebensentscheidungen basierend auf KI-Input treffen
- • Vollständige soziale Isolation
- • Unfähigkeit, KI-generierte Inhalte von der Realität zu unterscheiden
- • Jede Erwähnung von Selbstverletzung oder Schädigung anderer
Wie man einen geliebten Menschen anspricht
Tun Sie ✓
- • Sorge aus einem Ort der Liebe ausdrücken, nicht des Urteils
- • Sich auf spezifische beobachtete Verhaltensweisen konzentrieren
- • Zuhören, ohne ihre Überzeugungen sofort zu widerlegen
- • Anbieten, bei der Suche nach professioneller Unterstützung zu helfen
- • Geduldig sein - Erholung braucht Zeit
- • Sich selbst über KI-Psychose informieren
- • Auf die eigene psychische Gesundheit achten
Nicht tun ✗
- • Ihre Erfahrungen nicht verspotten oder abtun
- • Nicht versuchen, sie mit Logik allein zu "widerlegen"
- • Keine Ultimaten über KI-Nutzung stellen
- • Geräte nicht ohne Zustimmung entfernen (außer Sicherheitsnotfall)
- • Sich selbst oder sie nicht die Schuld geben
- • Keine sofortige Veränderung erwarten
Gesprächseinstiege:
- "Ich habe bemerkt, dass du viel Zeit mit KI verbringst. Wie fühlst du dich?"
- "Du bist mir wichtig und ich mache mir etwas Sorgen. Können wir reden?"
- "Ich habe darüber gelesen, wie KI Menschen beeinflussen kann. Was denkst du darüber?"
- "Ich vermisse es, Zeit mit dir zu verbringen. Können wir etwas zusammen unternehmen?"
Wann Notfallhilfe holen
Rufen Sie 112 oder gehen Sie zur Notaufnahme, wenn:
- Unmittelbare Gefahr für sich selbst oder andere besteht
- Schwere psychotische Symptome vorliegen (aktive Halluzinationen, extreme Paranoia)
- Unfähigkeit, sich um Grundbedürfnisse zu kümmern (Essen, Hygiene)
- Konkrete Pläne für Gewalt oder Suizid geäußert werden
- Vollständiger Bruch mit der Realität vorliegt