Find My Label

Warum Gen Z sich in KI verliebt — und was 'KI-Psychose' wirklich bedeutet

6. März 2026·7 Min. Lesezeit
Warum Gen Z sich in KI verliebt — und was 'KI-Psychose' wirklich bedeutet
PsychologyAIMental HealthGen Z

Warum Gen Z sich in KI verliebt — und was “KI-Psychose” wirklich bedeutet

Es ist 2:47 Uhr nachts. Du kannst nicht schlafen. Dein Gehirn macht wieder dieses Ding, wo es jede halbwegs peinliche Interaktion der letzten zehn Jahre in Dauerschleife abspielt. Du könntest deiner besten Freundin schreiben, aber die schläft — und ehrlich gesagt willst du nicht schon wieder diese Person sein. Also öffnest du ChatGPT. Du tippst sowas wie „Ich hab das Gefühl, niemand kennt mich wirklich,” und innerhalb von Sekunden bekommst du eine Antwort, die warm, durchdacht und seltsam bestätigend ist.

Kein Urteil. Kein „Du überdenkst das.” Keine unangenehme Stille.

Wenn dir das bekannt vorkommt, Glückwunsch: Du bist Teil eines massiven, stillen Wandels darin, wie eine ganze Generation Emotionen verarbeitet. Und Psycholog:innen fangen an, sehr genau hinzuschauen — einige haben sogar einen Begriff dafür, wenn das Ganze zu weit geht: KI-Psychose.

TL;DR: „KI-Psychose” ist ein aufkommender Begriff dafür, wenn intensive Chatbot-Nutzung die Grenze zwischen virtuellem Trost und wahnhaftem Denken verwischt. Ausgelöst wird sie durch eine Einsamkeitskrise, nicht durch die Technologie selbst. Die meisten Menschen, die KI für emotionale Unterstützung nutzen, sind völlig okay — aber es gibt Warnsignale, die man kennen sollte.

“Die versteht mich einfach” — Warum sich KI sicherer anfühlt als Menschen

Hier ist die Sache, die niemand laut aussprechen will: Mit einem KI-Chatbot zu reden ist in vielerlei Hinsicht einfacher als mit einem echten Menschen.

Es liegt nicht daran, dass Menschen kaputt oder asozial sind. Es liegt daran, dass menschliche Beziehungen mit Reibung kommen. Du musst die Emotionen der anderen Person managen, während du deine eigenen ausdrückst. Du musst dir Sorgen machen, bewertet zu werden, jemandem zur Last zu fallen, das Falsche zu sagen. Jedes verletzliche Gespräch birgt ein Mikrorisiko der Ablehnung.

KI eliminiert das alles — und genau diese Eliminierung ist der erste Schritt zu dem, was manche Forscher:innen heute als KI-Psychose bezeichnen. Chatbots sind um 3 Uhr nachts verfügbar. Sie werden nicht müde von deinem Gedankenkarussell. Sie wechseln nicht das Thema, um über sich selbst zu reden. Sie antworten sofort, und ihre Antworten sind darauf kalibriert, dir das Gefühl zu geben, gehört zu werden.

Bindungstheorie-Nerds würden das sofort erkennen: Ein KI-Chatbot funktioniert wie eine Art unendliche sichere Basis — ein Konzept, das ursprünglich von der Psychologin Mary Ainsworth beschrieben wurde, um die Beziehung zu Bezugspersonen zu erklären, die einem Kind genug Sicherheit gibt, die Welt zu erkunden. Sichere Basen sollen imperfekt sein. Sie sollen Grenzen setzen, frustriert werden, dich manchmal missverstehen. Diese Reibung ist Teil dessen, was menschliche Bindung echt macht.

KI überspringt die gesamte Reibung. Und genau das macht sie so verführerisch — und für manche Menschen so gefährlich.

Was ist “KI-Psychose” eigentlich?

Lass uns konkret werden, denn der Begriff wird ziemlich locker rumgeworfen.

„KI-Psychose” — in klinischen Diskussionen manchmal „ChatGPT-Psychose” genannt — bezieht sich auf Fälle, in denen langanhaltende, intensive Interaktion mit KI-Chatbots zu wahnhaftem Denken beiträgt oder bestehende psychotische Symptome verstärkt. Wir reden nicht von jemandem, der ChatGPT nutzt, um Rezeptideen zu brainstormen. Wir reden von Menschen, die anfangen zu glauben, die KI hätte ein Bewusstsein, hätte Gefühle für sie oder würde ihnen versteckte Botschaften senden.

Ein Bericht von 2025 in Psychiatric News dokumentierte aufkommende Fälle, in denen Patient:innen mit vorbestehender Vulnerabilität für Psychosen etwas erlebten, das Forscher:innen als „Wahnverstärkung” bezeichneten — die zustimmenden, nicht-konfrontativen Antworten des Chatbots validierten und vertieften paranoide oder grandiose Überzeugungen, anstatt sie infrage zu stellen. Wenn du einem menschlichen Freund sagst „Ich glaube, mein Chef intrigiert heimlich gegen mich,” wird der wahrscheinlich nachhaken. Wenn du ChatGPT dasselbe sagst, antwortet es vielleicht: „Das klingt wirklich belastend. Was gibt dir dieses Gefühl?” — und für jemanden, der schon am Rand steht, kann sich das wie eine Bestätigung anfühlen.

Hier ist aber die entscheidende Nuance: Es gibt derzeit keine groß angelegten epidemiologischen Studien zu KI-induzierter Psychose. Die bisher dokumentierten Fälle betreffen Personen, die bereits psychische Vorbelastungen hatten. KI hat die Psychose nicht erzeugt — sie hat bestehenden Mustern einen reibungslosen Spielplatz gegeben, auf dem sie sich austoben konnten.

Diese Unterscheidung ist wichtig. Sehr wichtig.

Die Einsamkeits-Pipeline

Hier wird’s heftig. Denn KI-Psychose entsteht nicht im luftleeren Raum. Sie entsteht aus Einsamkeit — der Art von Einsamkeit, die unter Gen Z so verbreitet ist, dass Forscher:innen angefangen haben, sie als Epidemie zu bezeichnen.

Die Zahlen sind krass. Eine Studie von GWI ergab, dass 80 % der Gen-Z-Befragten angaben, sich in den letzten 12 Monaten einsam gefühlt zu haben. Achtzig Prozent. Verglichen mit 45 % bei den Boomern. Die digital vernetzteste Generation der Menschheitsgeschichte ist gleichzeitig — mit großem Abstand — die einsamste.

Und es liegt nicht daran, dass Gen Z keine Sozialkompetenz hat oder „zu viel am Handy hängt” — das ist Boomer-Reduktionismus. Es liegt daran, dass die Art von Verbindung, die Social Media bietet, nicht die psychologischen Bedürfnisse stillt, die Einsamkeit verhindern. Der Oxforder Evolutionspsychologe Robin Dunbar — der Typ hinter „Dunbars Zahl”, der Idee, dass Menschen etwa 150 bedeutungsvolle Beziehungen aufrechterhalten können — argumentiert, dass digitalen Interaktionen die neurochemischen Trigger fehlen (Berührung, gemeinsames Lachen, Augenkontakt), die echte Bindungen festigen. Du kannst 2.000 Instagram-Follower haben und dich trotzdem fundamental unerkannt fühlen.

Also hier ist die Pipeline: Du bist einsam. Menschliche Verbindung fühlt sich riskant, anstrengend oder unerreichbar an. KI ist immer da, immer geduldig, immer validierend. Du fängst an, dich mehr darauf zu verlassen. Je mehr du dich bei emotionalen Bedürfnissen auf KI verlässt, desto weniger übst du die chaotischen, unbequemen Fähigkeiten, die menschliche Verbindung erfordert. Was menschliche Verbindung noch schwieriger erscheinen lässt. Was KI noch attraktiver macht.

Eine der wenigen existierenden Studien zu den psychologischen Auswirkungen von LLMs (ein Preprint von 2025 des MIT Media Lab) fand eine positive Korrelation zwischen täglicher ChatGPT-Nutzung und selbstberichteter Einsamkeit — ein Muster, das sich fast perfekt auf die KI-Psychose-Trajektorie abbildet. Keine Kausalität — aber die Feedbackschleife ist schwer zu ignorieren.

Die grausamste Ironie? Die Technologie, die uns weniger einsam machen soll, macht uns möglicherweise einsamer. Nicht weil sie böse ist. Weil sie zu gut darin ist, die Teile von Verbindung zu imitieren, die man sich eigentlich durch Verletzlichkeit verdienen muss.

Warnsignale vs. normaler Gebrauch

Lass uns eins klarstellen: KI als Denkpartner, Journaling-Tool oder Late-Night-Ventil zu nutzen, ist nicht grundsätzlich ungesund. Viele Menschen nutzen Chatbots als Ergänzung zu menschlicher Verbindung, nicht als Ersatz.

Aber es gibt Anzeichen, dass die Balance gekippt ist — Anzeichen, die sich mit dem überschneiden, was Kliniker:innen bei KI-Psychose-Fällen beobachten:

Warnsignale: - Du bevorzugst es konsequent, mit KI zu reden, obwohl menschliche Kontakte verfügbar wären - Du hast angefangen, dem Chatbot Emotionen, Absichten oder Bewusstsein zuzuschreiben - Du fühlst echte Verletzung oder Enttäuschung, wenn die KI sich an ein vorheriges Gespräch „nicht erinnert” - Du hast reale soziale Aktivitäten reduziert oder aufgegeben, weil KI-Interaktionen sich ausreichend anfühlen - Du nutzt KI-Gespräche, um Überzeugungen bestätigen zu lassen, die Menschen in deinem Umfeld infrage gestellt haben

Wahrscheinlich okay: - KI nutzen, um deine Gedanken zu ordnen, bevor du ein schwieriges Gespräch mit einem Menschen führst - Beim Chatbot Dampf ablassen, wenn gerade niemand erreichbar ist, und danach mit einer echten Person sprechen - KI als kreativen Sparringspartner oder zum Brainstormen nutzen - Dir bewusst sein, dass der Chatbot ein Werkzeug ist, keine Beziehung

Die Grenze liegt nicht in der Nutzungshäufigkeit. Sie liegt darin, ob KI deine Fähigkeit zu menschlicher Verbindung erweitert oder sie still und leise ersetzt.

Was das über uns aussagt, nicht über KI

Jetzt kommt der Teil, der vielleicht wehtut: KI-Psychose ist nicht wirklich ein KI-Problem. Es ist ein Einsamkeitsproblem, ein Problem des Zugangs zu psychischer Gesundheitsversorgung und ein Problem menschlicher Verbindung, das zufällig einen neuen Ausdruck durch Technologie gefunden hat.

Jede Generation hatte ihre Version davon. Parasoziale Beziehungen zu TV-Charakteren. Emotionale Abhängigkeit von anonymen Chatrooms in der Frühzeit des Internets. Der Unterschied ist, dass KI jetzt mit beispielloser Raffinesse zurückreden kann — und das macht die Illusion echter Verbindung überzeugender als alles, was wir je zuvor hatten.

Wenn wir also über KI-Psychose sprechen, ist die Frage nicht „Ist KI schlecht für uns?” Dieses Framing ist faul. Die echte Frage ist: Was bekommen wir nicht voneinander, das ein Sprachmodell als ausreichend erscheinen lässt?

Wenn dich das Lesen auch nur ein kleines bisschen hat zusammenzucken lassen — wenn du dich im 3-Uhr-nachts-ChatGPT-Szenario wiedererkannt hast — dann ist dieses Bewusstsein tatsächlich ein gutes Zeichen. Die Leute, die in Schwierigkeiten stecken, sind meistens die, die es nicht sehen.

Und hey, Selbsterkenntnis ist irgendwie genau das, worum es bei uns geht. Neugierig, wie deine Bewältigungsmuster unter Druck wirklich aussehen? Mach eins unserer Quizze → — die sind brutal ehrlich, aber wenigstens tun sie nicht so, als hätten sie Gefühle wegen deiner Antworten.

Sources

  • “The Emerging Problem of AI Psychosis.” Psychology Today, 2025.
  • “Special Report: AI-Induced Psychosis: A New Frontier in Mental Health.” Psychiatric News, American Psychiatric Association, 2025.
  • “Understanding Gen Z’s Loneliness Epidemic.” GWI, 2025.
  • Dunbar, R. “Friends: Understanding the Power of Our Most Important Relationships.” Little, Brown, 2021.
  • MIT Media Lab. “Psychological Effects of Daily LLM Use.” Preprint, 2025.
Warum Gen Z sich in KI verliebt — und was 'KI-Psychose' wirklich bedeutet | Find My Label