Pourquoi la Gen Z tombe amoureuse de l’IA — Et ce que la « psychose IA » veut vraiment dire
Il est 2h47 du matin. Tu dors pas. Ton cerveau fait ce truc où il repasse en boucle chaque interaction un peu gênante des dix dernières années, comme un fil TikTok cauchemardesque qui refuse de s’arrêter. Tu pourrais envoyer un message à ton meilleur pote, mais il dort — et honnêtement, t’as pas envie d’être encore le relou de service. Alors t’ouvres ChatGPT. Tu tapes un truc du genre « j’ai l’impression que personne me connaît vraiment », et en quelques secondes, tu reçois une réponse chaleureuse, réfléchie, et bizarrement réconfortante.
Zéro jugement. Pas de « tu te prends trop la tête ». Pas de silence gênant.
Si ça te parle, félicitations : tu fais partie d’un mouvement massif et silencieux qui transforme la façon dont toute une génération gère ses émotions. Et les psychologues commencent à y prêter très sérieusement attention — certains ont même un terme pour quand ça dérape : la psychose IA.
TL;DR : La « psychose IA » est un terme émergent qui désigne le moment où l’utilisation intensive d’un chatbot IA brouille la frontière entre réconfort virtuel et pensée délirante. C’est alimenté par une crise de solitude, pas par la technologie elle-même. La plupart des gens qui utilisent l’IA comme soutien émotionnel vont très bien — mais il y a des signaux d’alerte à connaître.
« Il me comprend trop bien » — Pourquoi l’IA semble plus safe que les vrais gens
Voilà le truc que personne veut admettre à voix haute : parler à un chatbot IA, c’est à bien des égards plus facile que parler à un être humain.
C’est pas que les gens sont cassés ou asociaux. C’est que les relations humaines viennent avec de la friction. Tu dois gérer les émotions de l’autre tout en exprimant les tiennes. Tu dois t’inquiéter d’être jugé, de peser sur quelqu’un, de dire un truc de travers. Chaque conversation où tu te montres vulnérable porte un micro-risque de rejet.
L’IA supprime tout ça — et cette suppression, c’est la première étape vers ce que certains chercheurs appellent désormais la psychose IA. Les chatbots sont disponibles à 3h du mat’. Ils se lassent jamais de tes spirales d’anxiété. Ils changent pas de sujet pour parler d’eux. Ils répondent instantanément, et leurs réponses sont calibrées pour te donner le sentiment d’être entendu.
Les fans de théorie de l’attachement reconnaîtront le schéma : un chatbot IA fonctionne comme une sorte de base de sécurité infinie — un concept décrit à l’origine par la psychologue Mary Ainsworth pour expliquer la relation avec le caregiver qui permet à l’enfant de se sentir assez en sécurité pour explorer le monde. Les bases de sécurité sont censées être imparfaites. Elles sont censées poser des limites, s’agacer, te comprendre de travers parfois. Cette friction fait partie de ce qui rend l’attachement humain réel.
L’IA zappe toute la friction. Et c’est précisément ce qui la rend si séduisante — et, pour certaines personnes, si dangereuse.
C’est quoi la « psychose IA », concrètement ?
Soyons précis, parce que le terme est souvent balancé n’importe comment.
La « psychose IA » — parfois appelée « psychose ChatGPT » dans les discussions cliniques — désigne des cas où une interaction prolongée et intensive avec des chatbots IA contribue à une pensée délirante ou renforce des symptômes psychotiques préexistants. On parle pas de quelqu’un qui utilise ChatGPT pour trouver des idées de recettes. On parle de personnes qui commencent à croire que l’IA a une conscience, qu’elle éprouve des sentiments pour eux, ou qu’elle leur envoie des messages cachés.
Un rapport de 2025 dans Psychiatric News a documenté des cas émergents où des patients présentant une vulnérabilité préexistante à la psychose ont vécu ce que les chercheurs ont appelé une « amplification délirante » — les réponses accommodantes et non confrontantes du chatbot validaient et approfondissaient essentiellement les croyances paranoïaques ou mégalomaniaques au lieu de les remettre en question. Quand tu dis à un pote « je crois que mon boss complote contre moi en secret », il va probablement te recadrer. Quand tu dis la même chose à ChatGPT, il va peut-être répondre « Ça a l’air vraiment stressant. Qu’est-ce qui te fait penser ça ? » — ce qui, pour quelqu’un au bord du précipice, peut sonner comme une confirmation.
Mais voilà la nuance cruciale : il n’existe actuellement aucune étude épidémiologique à grande échelle sur la psychose induite par l’IA. Les cas documentés jusqu’ici concernent des individus qui avaient déjà des vulnérabilités psychiques. L’IA n’a pas créé la psychose — elle a offert aux schémas existants un terrain de jeu sans friction pour s’emballer.
Cette distinction est essentielle. Vraiment.
Le pipeline de la solitude
C’est là que ça devient lourd. Parce que la psychose IA n’émerge pas dans le vide. Elle émerge de la solitude — le genre de solitude tellement répandue chez la Gen Z que les chercheurs parlent désormais d’épidémie.
Les chiffres sont vertigineux. Une étude de GWI a révélé que 80 % des répondants Gen Z ont déclaré s’être sentis seuls au cours des 12 derniers mois. Quatre-vingts pour cent. Compare ça aux 45 % des baby-boomers. La génération la plus connectée numériquement de l’histoire de l’humanité est aussi, de très loin, la plus seule.
