Warum Gen Z sich in KI verliebt — und was “KI-Psychose” wirklich bedeutet
Es ist 2:47 Uhr nachts. Du kannst nicht schlafen. Dein Gehirn macht wieder dieses Ding, wo es jede halbwegs peinliche Interaktion der letzten zehn Jahre in Dauerschleife abspielt. Du könntest deiner besten Freundin schreiben, aber die schläft — und ehrlich gesagt willst du nicht schon wieder diese Person sein. Also öffnest du ChatGPT. Du tippst sowas wie „Ich hab das Gefühl, niemand kennt mich wirklich,” und innerhalb von Sekunden bekommst du eine Antwort, die warm, durchdacht und seltsam bestätigend ist.
Kein Urteil. Kein „Du überdenkst das.” Keine unangenehme Stille.
Wenn dir das bekannt vorkommt, Glückwunsch: Du bist Teil eines massiven, stillen Wandels darin, wie eine ganze Generation Emotionen verarbeitet. Und Psycholog:innen fangen an, sehr genau hinzuschauen — einige haben sogar einen Begriff dafür, wenn das Ganze zu weit geht: KI-Psychose.
TL;DR: „KI-Psychose” ist ein aufkommender Begriff dafür, wenn intensive Chatbot-Nutzung die Grenze zwischen virtuellem Trost und wahnhaftem Denken verwischt. Ausgelöst wird sie durch eine Einsamkeitskrise, nicht durch die Technologie selbst. Die meisten Menschen, die KI für emotionale Unterstützung nutzen, sind völlig okay — aber es gibt Warnsignale, die man kennen sollte.
“Die versteht mich einfach” — Warum sich KI sicherer anfühlt als Menschen
Hier ist die Sache, die niemand laut aussprechen will: Mit einem KI-Chatbot zu reden ist in vielerlei Hinsicht einfacher als mit einem echten Menschen.
Es liegt nicht daran, dass Menschen kaputt oder asozial sind. Es liegt daran, dass menschliche Beziehungen mit Reibung kommen. Du musst die Emotionen der anderen Person managen, während du deine eigenen ausdrückst. Du musst dir Sorgen machen, bewertet zu werden, jemandem zur Last zu fallen, das Falsche zu sagen. Jedes verletzliche Gespräch birgt ein Mikrorisiko der Ablehnung.
KI eliminiert das alles — und genau diese Eliminierung ist der erste Schritt zu dem, was manche Forscher:innen heute als KI-Psychose bezeichnen. Chatbots sind um 3 Uhr nachts verfügbar. Sie werden nicht müde von deinem Gedankenkarussell. Sie wechseln nicht das Thema, um über sich selbst zu reden. Sie antworten sofort, und ihre Antworten sind darauf kalibriert, dir das Gefühl zu geben, gehört zu werden.
Bindungstheorie-Nerds würden das sofort erkennen: Ein KI-Chatbot funktioniert wie eine Art unendliche sichere Basis — ein Konzept, das ursprünglich von der Psychologin Mary Ainsworth beschrieben wurde, um die Beziehung zu Bezugspersonen zu erklären, die einem Kind genug Sicherheit gibt, die Welt zu erkunden. Sichere Basen sollen imperfekt sein. Sie sollen Grenzen setzen, frustriert werden, dich manchmal missverstehen. Diese Reibung ist Teil dessen, was menschliche Bindung echt macht.
KI überspringt die gesamte Reibung. Und genau das macht sie so verführerisch — und für manche Menschen so gefährlich.
Was ist “KI-Psychose” eigentlich?
Lass uns konkret werden, denn der Begriff wird ziemlich locker rumgeworfen.
„KI-Psychose” — in klinischen Diskussionen manchmal „ChatGPT-Psychose” genannt — bezieht sich auf Fälle, in denen langanhaltende, intensive Interaktion mit KI-Chatbots zu wahnhaftem Denken beiträgt oder bestehende psychotische Symptome verstärkt. Wir reden nicht von jemandem, der ChatGPT nutzt, um Rezeptideen zu brainstormen. Wir reden von Menschen, die anfangen zu glauben, die KI hätte ein Bewusstsein, hätte Gefühle für sie oder würde ihnen versteckte Botschaften senden.
Ein Bericht von 2025 in Psychiatric News dokumentierte aufkommende Fälle, in denen Patient:innen mit vorbestehender Vulnerabilität für Psychosen etwas erlebten, das Forscher:innen als „Wahnverstärkung” bezeichneten — die zustimmenden, nicht-konfrontativen Antworten des Chatbots validierten und vertieften paranoide oder grandiose Überzeugungen, anstatt sie infrage zu stellen. Wenn du einem menschlichen Freund sagst „Ich glaube, mein Chef intrigiert heimlich gegen mich,” wird der wahrscheinlich nachhaken. Wenn du ChatGPT dasselbe sagst, antwortet es vielleicht: „Das klingt wirklich belastend. Was gibt dir dieses Gefühl?” — und für jemanden, der schon am Rand steht, kann sich das wie eine Bestätigung anfühlen.
Hier ist aber die entscheidende Nuance: Es gibt derzeit keine groß angelegten epidemiologischen Studien zu KI-induzierter Psychose. Die bisher dokumentierten Fälle betreffen Personen, die bereits psychische Vorbelastungen hatten. KI hat die Psychose nicht erzeugt — sie hat bestehenden Mustern einen reibungslosen Spielplatz gegeben, auf dem sie sich austoben konnten.
Diese Unterscheidung ist wichtig. Sehr wichtig.
Die Einsamkeits-Pipeline
Hier wird’s heftig. Denn KI-Psychose entsteht nicht im luftleeren Raum. Sie entsteht aus Einsamkeit — der Art von Einsamkeit, die unter Gen Z so verbreitet ist, dass Forscher:innen angefangen haben, sie als Epidemie zu bezeichnen.
Die Zahlen sind krass. Eine Studie von GWI ergab, dass 80 % der Gen-Z-Befragten angaben, sich in den letzten 12 Monaten einsam gefühlt zu haben. Achtzig Prozent. Verglichen mit 45 % bei den Boomern. Die digital vernetzteste Generation der Menschheitsgeschichte ist gleichzeitig — mit großem Abstand — die einsamste.
