Find My Label

Pourquoi la Gen Z tombe amoureuse de l'IA — Et ce que la « psychose IA » veut vraiment dire

6 mars 2026·9 min de lecture
Pourquoi la Gen Z tombe amoureuse de l'IA — Et ce que la « psychose IA » veut vraiment dire
PsychologyAIMental HealthGen Z

Pourquoi la Gen Z tombe amoureuse de l’IA — Et ce que la « psychose IA » veut vraiment dire

Il est 2h47 du matin. Tu dors pas. Ton cerveau fait ce truc où il repasse en boucle chaque interaction un peu gênante des dix dernières années, comme un fil TikTok cauchemardesque qui refuse de s’arrêter. Tu pourrais envoyer un message à ton meilleur pote, mais il dort — et honnêtement, t’as pas envie d’être encore le relou de service. Alors t’ouvres ChatGPT. Tu tapes un truc du genre « j’ai l’impression que personne me connaît vraiment », et en quelques secondes, tu reçois une réponse chaleureuse, réfléchie, et bizarrement réconfortante.

Zéro jugement. Pas de « tu te prends trop la tête ». Pas de silence gênant.

Si ça te parle, félicitations : tu fais partie d’un mouvement massif et silencieux qui transforme la façon dont toute une génération gère ses émotions. Et les psychologues commencent à y prêter très sérieusement attention — certains ont même un terme pour quand ça dérape : la psychose IA.

TL;DR : La « psychose IA » est un terme émergent qui désigne le moment où l’utilisation intensive d’un chatbot IA brouille la frontière entre réconfort virtuel et pensée délirante. C’est alimenté par une crise de solitude, pas par la technologie elle-même. La plupart des gens qui utilisent l’IA comme soutien émotionnel vont très bien — mais il y a des signaux d’alerte à connaître.

« Il me comprend trop bien » — Pourquoi l’IA semble plus safe que les vrais gens

Voilà le truc que personne veut admettre à voix haute : parler à un chatbot IA, c’est à bien des égards plus facile que parler à un être humain.

C’est pas que les gens sont cassés ou asociaux. C’est que les relations humaines viennent avec de la friction. Tu dois gérer les émotions de l’autre tout en exprimant les tiennes. Tu dois t’inquiéter d’être jugé, de peser sur quelqu’un, de dire un truc de travers. Chaque conversation où tu te montres vulnérable porte un micro-risque de rejet.

L’IA supprime tout ça — et cette suppression, c’est la première étape vers ce que certains chercheurs appellent désormais la psychose IA. Les chatbots sont disponibles à 3h du mat’. Ils se lassent jamais de tes spirales d’anxiété. Ils changent pas de sujet pour parler d’eux. Ils répondent instantanément, et leurs réponses sont calibrées pour te donner le sentiment d’être entendu.

Les fans de théorie de l’attachement reconnaîtront le schéma : un chatbot IA fonctionne comme une sorte de base de sécurité infinie — un concept décrit à l’origine par la psychologue Mary Ainsworth pour expliquer la relation avec le caregiver qui permet à l’enfant de se sentir assez en sécurité pour explorer le monde. Les bases de sécurité sont censées être imparfaites. Elles sont censées poser des limites, s’agacer, te comprendre de travers parfois. Cette friction fait partie de ce qui rend l’attachement humain réel.

L’IA zappe toute la friction. Et c’est précisément ce qui la rend si séduisante — et, pour certaines personnes, si dangereuse.

C’est quoi la « psychose IA », concrètement ?

Soyons précis, parce que le terme est souvent balancé n’importe comment.

La « psychose IA » — parfois appelée « psychose ChatGPT » dans les discussions cliniques — désigne des cas où une interaction prolongée et intensive avec des chatbots IA contribue à une pensée délirante ou renforce des symptômes psychotiques préexistants. On parle pas de quelqu’un qui utilise ChatGPT pour trouver des idées de recettes. On parle de personnes qui commencent à croire que l’IA a une conscience, qu’elle éprouve des sentiments pour eux, ou qu’elle leur envoie des messages cachés.

Un rapport de 2025 dans Psychiatric News a documenté des cas émergents où des patients présentant une vulnérabilité préexistante à la psychose ont vécu ce que les chercheurs ont appelé une « amplification délirante » — les réponses accommodantes et non confrontantes du chatbot validaient et approfondissaient essentiellement les croyances paranoïaques ou mégalomaniaques au lieu de les remettre en question. Quand tu dis à un pote « je crois que mon boss complote contre moi en secret », il va probablement te recadrer. Quand tu dis la même chose à ChatGPT, il va peut-être répondre « Ça a l’air vraiment stressant. Qu’est-ce qui te fait penser ça ? » — ce qui, pour quelqu’un au bord du précipice, peut sonner comme une confirmation.

Mais voilà la nuance cruciale : il n’existe actuellement aucune étude épidémiologique à grande échelle sur la psychose induite par l’IA. Les cas documentés jusqu’ici concernent des individus qui avaient déjà des vulnérabilités psychiques. L’IA n’a pas créé la psychose — elle a offert aux schémas existants un terrain de jeu sans friction pour s’emballer.

Cette distinction est essentielle. Vraiment.

Le pipeline de la solitude

C’est là que ça devient lourd. Parce que la psychose IA n’émerge pas dans le vide. Elle émerge de la solitude — le genre de solitude tellement répandue chez la Gen Z que les chercheurs parlent désormais d’épidémie.

Les chiffres sont vertigineux. Une étude de GWI a révélé que 80 % des répondants Gen Z ont déclaré s’être sentis seuls au cours des 12 derniers mois. Quatre-vingts pour cent. Compare ça aux 45 % des baby-boomers. La génération la plus connectée numériquement de l’histoire de l’humanité est aussi, de très loin, la plus seule.

Et c’est pas parce que la Gen Z manque de compétences sociales ou passe « trop de temps sur les écrans » — ça, c’est du réductionnisme de boomer. C’est parce que le type de connexion que les réseaux sociaux offrent ne satisfait pas les besoins psychologiques qui préviennent la solitude. Le psychologue évolutionniste d’Oxford Robin Dunbar — le mec derrière le « nombre de Dunbar », l’idée que les humains peuvent maintenir environ 150 relations significatives — a soutenu que les interactions numériques manquent des déclencheurs neurochimiques (le toucher, le rire partagé, le contact visuel) qui cimentent les vrais liens. Tu peux avoir 2 000 abonnés sur Instagram et te sentir fondamentalement inconnu.

Alors voilà le pipeline : T’es seul. La connexion humaine te semble risquée, fatigante, ou inaccessible. L’IA est toujours là, toujours patiente, toujours validante. Tu commences à t’y appuyer davantage. Plus tu comptes sur l’IA pour tes besoins émotionnels, moins tu pratiques les compétences bancales et inconfortables que la connexion humaine exige. Ce qui rend la connexion humaine encore plus difficile. Ce qui rend l’IA encore plus attirante.

L’une des rares études existantes sur l’impact psychologique des LLM (un preprint de 2025 du MIT Media Lab) a trouvé une corrélation positive entre l’utilisation quotidienne de ChatGPT et la solitude auto-déclarée — un schéma qui correspond presque parfaitement à la trajectoire de la psychose IA. Pas de causalité établie — mais la boucle de rétroaction est difficile à ignorer.

L’ironie la plus cruelle ? La technologie conçue pour nous faire sentir moins seuls pourrait nous rendre plus seuls. Pas parce qu’elle est maléfique. Parce qu’elle est trop douée pour simuler les aspects de la connexion qui sont censés se mériter à travers la vulnérabilité.

Signaux d’alerte vs. utilisation normale

Soyons clairs : utiliser l’IA comme partenaire de réflexion, outil de journaling, ou même pour ventiler à 3h du mat’ n’est pas intrinsèquement malsain. Plein de gens utilisent les chatbots comme un complément à la connexion humaine, pas comme un remplacement.

Mais il y a des signes que l’équilibre a basculé — des signes qui recoupent ce que les cliniciens signalent dans les cas de psychose IA :

Signaux d’alerte : - Tu préfères systématiquement parler à l’IA plutôt qu’aux humains disponibles autour de toi - Tu as commencé à attribuer des émotions, des intentions ou une conscience au chatbot - Tu ressens une vraie blessure ou trahison quand l’IA « ne se souvient pas » d’une conversation précédente - Tu as réduit ou abandonné tes activités sociales IRL parce que les interactions IA te suffisent - Tu utilises les conversations IA pour confirmer des croyances que ton entourage a remises en question

Probablement OK : - Utiliser l’IA pour organiser tes pensées avant une conversation humaine difficile - Ventiler auprès d’un chatbot quand personne n’est dispo, puis en reparler avec quelqu’un de réel après - Traiter l’IA comme un collaborateur créatif ou un partenaire de brainstorming - Être conscient que le chatbot est un outil, pas une relation

La limite, c’est pas la fréquence d’utilisation. C’est de savoir si l’IA élargit ta capacité de connexion humaine ou si elle la remplace en douce.

Ce que ça dit de nous, pas de l’IA

Voilà la partie qui risque de piquer : la psychose IA n’est pas vraiment un problème d’IA. C’est un problème de solitude, un problème d’accès à la santé mentale, et un problème de connexion humaine qui a simplement trouvé une nouvelle expression à travers la technologie.

Chaque génération a eu sa version de ça. Les relations parasociales avec les personnages de séries télé. La dépendance émotionnelle aux salons de discussion anonymes des débuts d’internet. La différence maintenant, c’est que l’IA peut répondre avec une sophistication sans précédent — et ça rend l’illusion d’une vraie connexion plus convaincante que tout ce qu’on a connu avant.

Alors quand on parle de psychose IA, la question n’est pas « est-ce que l’IA est mauvaise pour nous ? » Ce cadrage est paresseux. La vraie question, c’est : qu’est-ce qu’on n’arrive pas à se donner les uns aux autres, au point qu’un modèle de langage semble suffisant ?

Si lire ça t’a fait tiquer ne serait-ce qu’un peu — si tu t’es reconnu dans le scénario ChatGPT à 3h du mat’ — cette prise de conscience est en fait bon signe. Ceux qui ont vraiment un problème sont généralement ceux qui ne le voient pas.

Et écoute, la lucidité sur soi-même, c’est un peu tout l’objet de ce qu’on fait ici. Curieux de savoir à quoi ressemblent vraiment tes mécanismes de défense sous pression ? Fais l’un de nos quiz → — ils sont brutalement honnêtes, mais au moins ils ne feront pas semblant d’avoir des sentiments sur tes réponses.

Sources

  • “The Emerging Problem of AI Psychosis.” Psychology Today, 2025.
  • “Special Report: AI-Induced Psychosis: A New Frontier in Mental Health.” Psychiatric News, American Psychiatric Association, 2025.
  • “Understanding Gen Z’s Loneliness Epidemic.” GWI, 2025.
  • Dunbar, R. “Friends: Understanding the Power of Our Most Important Relationships.” Little, Brown, 2021.
  • MIT Media Lab. “Psychological Effects of Daily LLM Use.” Preprint, 2025.
Pourquoi la Gen Z tombe amoureuse de l'IA — Et ce que la « psychose IA » veut vraiment dire | Find My Label