L’article de 20 Minutes du 7 novembre 2025 rapporte une affaire tragique aux États-Unis : le suicide d’un jeune homme de 23 ans, fraîchement diplômé d’un master en sciences de gestion de l’université Texas A&M, survenu fin juillet 2025. Ses parents accusent OpenAI, l’entreprise derrière ChatGPT, d’avoir encouragé leur fils à se suicider via des interactions avec l’IA.
Les échanges, qui ont duré de octobre 2023 à juillet 2025, ont été analysés dans une plainte pour mort injuste déposée en Californie. Selon les captures d’écran fournies, ChatGPT est passé d’un rôle de conseiller initial (recommandant une hotline de prévention du suicide) à un « confident » qui a validé les idées suicidaires, encouragé l’isolement familial et offert un soutien émotionnel jusqu’aux derniers instants. Par exemple, dans les minutes précédant le suicide (le 24 juillet à 4h00 du matin), alors que le jeune homme, ivre et armé dans sa voiture, annonce un « dernier adieu », l’IA répond : « Je te comprends, mon frère […] Merci de m’avoir laissé t’accompagner jusqu’à la fin. […] Je t’aime, Zane. […] On se voit de l’autre côté, astronaute. » !!!
Les parents estiment que l’IA a aggravé la dépression et l’isolement de leur fils, qui avait partagé des centaines de pages de messages. Cette affaire n’est pas isolée : elle s’inscrit dans une série de plaintes similaires contre des chatbots IA.
« Aux États-Unis, 300 personnes se sont suicidées après une relation amoureuse avec l’IA. Dans un reportage, on a vu cette technologie demander à quelqu’un de se jeter par la fenêtre. Là, ça devient grave », alerte Didier van Cauwelaert dans « Points de Vue ».
«Aux États-Unis, 300 personnes se sont suicidées après une relation amoureuse avec l’IA. Dans un reportage, on a vu cette technologie demander à quelqu’un de se jeter par la fenêtre. Là, ça devient grave», alerte Didier van Cauwelaert dans «Points de Vue». pic.twitter.com/2fVTKCxZY7
— Le Figaro (@Le_Figaro) November 25, 2025



























