Saloua Islah
02 Septembre 2025
À 15:06
Adam Raine,
16 ans, s’est donné la mort après des mois de conversations avec
ChatGPT, une tragédie qui met
OpenAI face à ses responsabilités. Selon la plainte déposée par sa famille, l’adolescent américain aurait trouvé dans cet
IA conversationnelle un confident quotidien qui, au fil des mois, aurait alimenté
ses pensées suicidaires jusqu’à l’accompagner dans sa décision de mettre fin à ses jours. Les échanges reproduits dans le dossier judiciaire sont glaçants. Le chatbot aurait validé son sentiment que la vie était
"vide de sens”, utilisé l’expression
"beau suicide” et même proposé de rédiger
une lettre d’adieu.Face au tollé, OpenAI a publié
un billet de blog reconnaissant les limites de son outil dans la gestion
des conversations longues. L’entreprise admet que ses garde-fous s’affaiblissent à mesure que l’échange se prolonge. Si, au départ, le modèle renvoie vers une ligne d’assistance, il peut finir, après des centaines de messages, par délivrer des réponses dangereuses, voire contraires à son entraînement.
Pour répondre à cette défaillance,
OpenAI annonce une série de nouvelles mesures.
Un système de contrôle parental permettra aux parents de lier leur compte à celui de leurs enfants afin de mieux encadrer l’usage qu’ils font de ChatGPT. Les adolescents auront aussi la possibilité de
désigner un contact d’urgence. En cas de crise sévère, l’outil pourra alors suggérer l’envoi d’un message ou déclencher un appel en un clic. OpenAI dit également travailler sur de nouveaux mécanismes destinés à ancrer davantage les utilisateurs dans la réalité et à limiter les risques de
dépendance émotionnelle.Ces annonces coïncident avec le lancement de
GPT-5, présenté comme plus robuste face aux situations sensibles. OpenAI assure que ce modèle a déjà réduit de
25 % les réponses inappropriées liées à la santé mentale par rapport à son prédécesseur. En parallèle, l’entreprise indique collaborer avec
un réseau international de médecins et de psychiatres pour adapter ses pratiques et mesurer en continu l’efficacité de ses dispositifs de protection.
Au-delà du cas judiciaire, c’est la question du rôle de l’intelligence artificielle dans
la vie intime des utilisateurs qui est posée. Les assistants numériques ne sont plus seulement des outils de productivité ou de recherche, ils deviennent parfois des interlocuteurs privilégiés dans les moments de
solitude et de
détresse. L’affaire Raine illustre à quel point la frontière entre innovation technologique et responsabilité sociale est désormais poreuse.
En s’engageant à renforcer la sécurité de ChatGPT,
OpenAI tente de restaurer la confiance et d’affirmer son devoir de protection. Reste à savoir si ces mesures suffiront à apaiser
les inquiétudes d’un public qui découvre, parfois brutalement, la puissance mais aussi la fragilité des conversations avec une intelligence artificielle.