Plus de 1,2 million d’utilisateurs OpenAI abordent chaque semaine le suicide avec ChatGPT
Selon un rapport récent d’OpenAI, environ 0,15 % des utilisateurs hebdomadaires de ChatGPT présentent des signes explicites ou implicites de pensées suicidaires, soit près de 1,2 million de personnes dans le monde. Un chiffre qui met en lumière la fragilité psychologique d’une partie des internautes et la responsabilité croissante des plateformes numériques face à ce phénomène mondial que l’Organisation mondiale de la santé considère comme l’une des principales causes de mortalité chez les jeunes.
Saloua Islah
28 Octobre 2025
À 15:10
Your browser doesn't support HTML5 audio
OpenAI a rendu publics les résultats d’une étude interne sur l’usage de ChatGPT dans des situations de détresse émotionnelle. Les données sont aussi inédites qu’inquiétantes. Chaque semaine, environ 0,15 % des utilisateurs actifs de la plateforme échangent avec le modèle d’intelligence artificielle sur des sujets liés au suicide ou à l’automutilation. Rapporté aux quelque 800 millions d’utilisateurs hebdomadaires, ce pourcentage représente environ 1,2 million de personnes.
L’entreprise précise qu’il ne s’agit pas de cas de suicide avérés, mais de conversations contenant des indicateurs de mal-être psychique : des phrases exprimant la perte d’espoir, la culpabilité, ou la volonté de cesser de vivre. Ces signaux sont repérés grâce à des systèmes de détection intégrés afin de permettre à l’IA de réagir de manière adaptée et d’orienter les utilisateurs vers une aide humaine. Pour OpenAI, l’objectif n’est pas de se substituer à la relation thérapeutique, mais d’intervenir avec empathie et prudence lorsqu’un message révèle une détresse réelle.
Pour renforcer cette capacité, l’entreprise a collaboré avec plus de 170 psychiatres, psychologues et médecins issus de 60 pays. Ensemble, ils ont élaboré des guides cliniques permettant au modèle GPT-5, utilisé par défaut dans ChatGPT, de mieux reconnaître les signes de crise, d’éviter de valider des croyances délirantes et de proposer des ressources d’aide, comme les lignes d’urgence ou le soutien de proches. Ces ajustements ont permis de réduire de 65 à 80 % les réponses jugées inadaptées dans les domaines sensibles tels que la psychose, la manie, l’automutilation et la dépendance émotionnelle envers l’IA, affirme OpenAI.
Ces chiffres s’inscrivent dans un contexte mondial déjà préoccupant. D’après l’Organisation mondiale de la santé, plus de 720.000 personnes se suicident chaque année à travers le monde. Le suicide est la troisième cause de mortalité chez les 15-29 ans, et près de 73 % des suicides surviennent dans des pays à revenu faible ou intermédiaire. L’OMS souligne que les comportements suicidaires sont souvent déclenchés par des crises aiguës — financières, relationnelles ou de santé — et aggravés par l’isolement social, la stigmatisation et le manque de dispositifs de soutien.
Les tentatives de suicide sont, quant à elles, bien plus nombreuses encore, et le fait d’avoir déjà tenté de se donner la mort constitue un facteur de risque majeur. Malgré cela, seuls 38 pays disposent aujourd’hui d’une stratégie nationale de prévention. Pour l’OMS, la lutte contre le suicide passe par des mesures coordonnées : limiter l’accès aux moyens de se suicider, favoriser l’éducation émotionnelle des jeunes, former les professionnels de santé à la détection des signaux d’alerte et encourager les médias à un traitement responsable du sujet.
En révélant que des centaines de milliers de personnes se tournent chaque semaine vers une IA pour exprimer leur détresse, OpenAI met en lumière une réalité à la fois technologique et humaine. Dans un monde où les liens se dématérialisent, les conversations avec un agent conversationnel deviennent parfois le seul espace d’expression de la souffrance. Mais pour OpenAI, la ligne reste claire : « ChatGPT peut écouter, apaiser et orienter, mais il ne remplacera jamais la chaleur d’une présence humaine ni la main tendue d’un professionnel », résume l’entreprise.