Saloua Islah
28 Juillet 2025
À 10:10
Invité dans le podcast de l’humoriste Theo Von,
Sam Altman, PDG d'OpenAI, a confirmé ce que de nombreux psychologues et sociologues pressentaient depuis plusieurs mois : selon lui, ChatGPT est devenu, pour beaucoup – et notamment chez les jeunes –
une forme de thérapeute virtuel. Il explique que les utilisateurs s’y confient sur leurs angoisses, leurs blessures intimes, leurs doutes amoureux. Une relation singulière, presque intime, s’installe ainsi peu à peu avec l’IA.
Mais pour Altman, cette nouvelle forme de confidence numérique soulève une problématique encore trop ignorée. Contrairement à un psychologue ou un médecin, rappelle-t-il, les échanges avec ChatGPT ne bénéficient d’
aucune protection juridique. Autrement dit, ces discussions, aussi personnelles soient-elles, peuvent théoriquement être utilisées contre leurs auteurs.
« Si vous parlez à ChatGPT de choses ultra personnelles et qu’il y a ensuite un procès, on pourrait être contraints de produire ces conversations. Et je trouve ça complètement tordu », alerte-t-il dans l’épisode.
Altman souligne que
le secret professionnel encadre aujourd’hui les discussions avec des médecins, des avocats ou encore des représentants religieux, mais qu’aucun cadre légal équivalent n’existe actuellement pour
l’intelligence artificielle. En cas de litige, insiste-t-il, OpenAI pourrait être légalement contrainte de livrer le contenu des échanges, même ceux supprimés par l’utilisateur.
Une mise en garde qui, arrive à un moment particulièrement sensible. OpenAI est actuellement visée par une action en justice d’envergure, menée par
le New York Times et d'autres éditeurs pour violation présumée du droit d’auteur. Ces derniers exigent notamment la conservation illimitée des données utilisateurs, même supprimées.
Altman estime que ce contexte souligne
un vide juridique croissant, alors même que, les frontières entre accompagnement psychologique et usage technologique deviennent de plus en plus floues. Contrairement à des applications chiffrées comme Signal ou WhatsApp, il reconnaît que les conversations sur ChatGPT peuvent être consultées par
OpenAI, par exemple pour améliorer l’outil ou enquêter sur un usage abusif.
Il rappelle également que si la politique officielle de l’entreprise prévoit l’effacement des conversations après
30 jours, une exception importante subsiste : les données peuvent être conservées "pour des raisons légales ou de sécurité". Un point, insiste-t-il, qui pourrait avoir des conséquences graves pour des utilisateurs vulnérables.
Autre source d’inquiétude exprimée dans le podcast : l
a dépendance émotionnelle croissante de certains jeunes à l’égard de
ChatGPT. En tant que jeune père, Altman s’en dit profondément préoccupé. Il évoque un phénomène où l’IA devient une béquille affective, voire une boussole décisionnelle, pour des adolescents en quête de repères.
Face à cette mutation qu’il juge inquiétante des rapports humains, Altman appelle à un débat de société urgent sur
la protection de l’intimité numérique. Il milite pour la création d’un cadre légal qui offrirait aux utilisateurs la même confidentialité dans leurs échanges avec une IA que celle qu’ils attendraient d’un thérapeute ou d’un avocat.