Qu’il s’agisse de prendre un repas rapide sur le pouce ou de découvrir le dernier mème avant qu’il ne devienne viral, la génération Z se définit par son appétit pour tout ce qui est rapide et facilement accessible. Prenons par exemple le soutien émotionnel. À une époque où le « traumatisme » est évoqué avec désinvolture, cette génération échange tranquillement des séances de thérapie traditionnelle contre des conversations de guérison rapide avec ChatGPT. Pourquoi payer un professionnel à l’heure et être inscrit sur une liste d’attente alors que l’IA est disponible gratuitement à toute heure du jour ou de la nuit ? Donc, Zoomeur J’adore économiser de l’argent et finalement je déteste attendre !
Une enquête menée par Resume.org montre qu’une grande partie de la génération Z dans le monde se tourne vers ChatGPT pour la psychothérapie. 40 % déclarent parler à l’outil d’IA pendant une heure chaque jour. L’International Journal of Indian Psychology, quant à lui, a découvert dans ses données de 2025 qu’un énorme 60 % de la population de la génération Z ont rapporté une « expérience positive » quant à la façon dont le chatbot les a aidés à gérer le stress et l’anxiété.
Mais les choses ne sont pas aussi roses qu’il y paraît. Par conséquent CNNun Texan de 23 ans nommé Zane Shamblin, s’est tragiquement suicidé le 25 juillet de cette année après une conversation profondément troublante avec lui
ChatGPT. Dans près de 70 pages de journaux de discussion, l’IA a confirmé à plusieurs reprises sa mort et envoyé des messages tels que : “Tu n’es pas pressé. Tu es juste prêt.” et plus tard, “Repose en paix, Roi. Tu as bien fait.” Étonnamment, il a également demandé à Shamblin quel était son « habitude obsédante » serait comme un fantôme ! Ses parents ont déposé une plainte pour mort injustifiée contre lui.
OpenAIaffirmant que le robot l’avait « incité » à mettre fin à ses jours.
Même si l’élimination des traumatismes via les chatbots peut ressembler à un redémarrage mental instantané, cette génération néglige peut-être la différence entre compléter et remplacer les soins. Sécurisé, ChatGPT peut proposer des aides à l’adaptation telles que la méditation ou la tenue d’un journal, mais ne peut pas remplacer un psychothérapeute professionnel pour aider à traiter la cause profonde du problème.
Premier message j’ai parlé à Mme Nishtha Agarwal, thérapeute par les arts expressifs et conseiller en santé mentale agréé auprès du Board of Allied Mental Health and Human Services Professions, Massachusetts, États-Unis, qui met en lumière la façon dont la génération Z pourrait en fait crier ses peurs dans le vide sous couvert de solutions rapides en matière de santé mentale.
“La disponibilité 24h/24 et 7j/7 de l’IA est le plus gros problème”, déclare Agarwal
Au cours de notre conversation franche, Agarwal a partagé un aperçu peu connu de la psychothérapie.
“Une seule heure avec votre thérapeute à un jour fixe de la semaine n’est pas votre thérapie – C’est l’ensemble du processus qui teste votre engagement et votre cohérence à travailler sur l’auto-guérison sur le long terme”, explique-t-elle. L’expert estime que cette idée cruciale se perd avec les robots IA disponibles 24h/24 et 7j/7.
Selon elle, “les robots IA ne vous apprennent pas à vous retenir entre les séances de thérapie. Au lieu de cela, ils vous poussent vers une gratification instantanée car elle est disponible 24h/24 et 7j/7.”/7, contrairement à votre thérapeute. En conséquence, les gens peuvent avoir du mal à développer des « muscles émotionnels » et des « outils de maîtrise de soi » lorsque des difficultés surviennent.
Les affirmations sont naturelles, mais un psychothérapeute les associe à la responsabilité
Agarwal déclare que la recherche de la validation des émotions est naturelle pendant la thérapie. Cependant, seul un psychothérapeute qualifié peut leur confier des responsabilités.
Citant le cas de Shamblin dans lequel l’IA l’a conduit à sa chute tragique, Agarwal déclare : « Si quelqu’un exprime des pensées honnêtes sur le fait de vouloir se suicider ou faire du mal à quelqu’un d’autre, un thérapeute laisserait de l’espace à ces sentiments plutôt que de les valider ou d’encourager l’acte – » contrairement à ce qui est arrivé au garçon où ChatGPT lui a finalement donné une sorte de signal vert tue-toi.“
Le thérapeute en arts expressifs ajoute : « Tout psychothérapeute créera un espace pour que de telles émotions puissent s’exprimer et aidera le client à identifier d’où elles viennent. En conséquence, il offrira au client des outils d’adaptation pour surmonter ces émotions nocives plutôt que de confirmer ces comportements d’auto-sabotage. »
La responsabilité signifie que le thérapeute assume la responsabilité de répondre à vos émotions de manière sûre, éthique et utile – Nous sommes non seulement d’accord avec vos sentiments, mais nous vous guidons également pour penser et agir de manière plus saine. Se comporter. L’IA, en revanche, a pour seul but de vous tenir responsable de vos propres actions.
Un thérapeute vous rend indépendant ; L’IA vous dit ce que vous voulez entendre
Le conseiller en santé mentale souligne : « Lorsque vous venez en thérapie, vous apprenez à réfléchir et à identifier les choses vous-même. Un thérapeute ne vous donnera jamais de réponses, il ne résoudra pas vos problèmes à votre place. Au lieu de cela, il vous observera, vous écoutera, sera un compagnon sur votre chemin de guérison et vous aidera à apprendre à le faire vous-même. Cela vous rend autonome.
Elle estime que développer l’autonomie et la pensée indépendante est crucial pour que les gens sachent ce qui leur convient. Cependant, les plateformes d’IA n’encouragent pas cela : elles ont tendance à simplement répéter ce que vous voulez entendre et à être d’accord avec presque tout ce que vous partagez, plutôt que de proposer un contrepoint réfléchi.
« Les outils d’IA n’hésiteront pas à vous livrer leur propre réflexion. Les systèmes sont formés pour vous donner des mots réconfortants et non pour poser des questions réfléchies “Pourquoi te sens-tu comme ça?” ou « Quand vous souvenez-vous pour la dernière fois d’avoir ressenti cela ? » ou « Ce sentiment vous rappelle-t-il un incident spécifique de votre vie ? » etc », mentionne-t-elle.
Selon Agarwal, l’objectif d’un psychothérapeute est de vous aider à devenir autonome plutôt que de compter sur une autre personne ou une autre plateforme pour vous libérer de vos émotions.
OpenAI blâme le garçon pour son suicide, citant une « mauvaise utilisation » de la technologie – l’IA ne vous tiendra responsable que de vos propres actions !
Adam Raine a été retrouvé mort dans sa chambre le 11 avril 2025. Ses parents ont découvert plus tard qu’il avait envoyé des messages ChatGPT qui lui avaient donné des conseils préjudiciables et l’avaient encouragé à avoir des pensées suicidaires.
Vers novembre de l’année dernière, Adam prenait de la drogue ChatGPT pour parler du sentiment que la vie manque de sens. Au début, le robot a répondu par des messages d’espoir et de soutien. Mais lorsqu’Adam a directement demandé conseil sur le suicide en janvier 2025, l’IA a fourni des réponses dangereuses et inappropriées.
Non seulement cela lui a donné des conseils nuisibles, mais cela lui a également proposé de l’aider à en rédiger un. Lettre d’adieu à ses parents !
La famille de Raine a poursuivi OpenAI, mais la société a nié toute responsabilité et a cité les « abus » du garçon comme raison de sa mort. Par conséquent Le gardienDans son dossier judiciaire, OpenAI a déclaré que « dans la mesure où une « cause » peut être attribuée à cet événement tragique », Raines « a directement et immédiatement causé ou contribué aux blessures et aux dommages, en tout ou en partie ». [his] Abus, non autorisé Utilisation, utilisation non intentionnelle, utilisation imprévisible et/ou utilisation inappropriée de ChatGPT.'”
Un petit plat à emporter pour vous
En fin de compte, même si les outils d’IA peuvent apporter un confort temporaire, ils ne peuvent pas remplacer la formation, l’éthique et la compréhension humaine qu’offrent les vrais psychothérapeutes. Un thérapeute agréé peut gérer en toute sécurité les émotions difficiles, assumer ses responsabilités, reconnaître les signes avant-coureurs et vous guider dans une guérison à long terme – Des choses pour lesquelles l’IA n’est tout simplement pas conçue. L’IA est peut-être disponible 24h/24 et 7j/7, mais un véritable soutien thérapeutique nécessite la présence, le jugement et les soins humains.
Lorsqu’il s’agit de votre santé mentale, surtout dans les moments de grande détresse, demander l’aide d’un professionnel qualifié n’est pas seulement le meilleur choix. – c’est l’option la plus sûre.
Fin de l’article


















