L’information a été rendue publique par OpenAI à l’occasion de récentes prises de parole de ses dirigeants. La société indique que le déploiement de « ChatGPT adulte ». , attendu au premier trimestre 2026, reste conditionné à la fiabilité d’un nouveau modèle d’intelligence artificielle chargé d’estimer l’âge des utilisateurs avant d’autoriser l’accès à des contenus réservés à un public majeur.
Avant d’en comprendre les implications, il faut d’abord préciser ce que recouvre l’expression « ChatGPT adulte ». Selon OpenAI, maison mère de l’outil, ce mode ne constitue ni une version séparée du chatbot ni un espace explicitement dédié à « des contenus réservés à un public averti ». Il s’agirait d’un paramétrage supplémentaire permettant à l’outil d’adapter ses réponses lorsque l’utilisateur est identifié comme majeur, en levant certaines restrictions aujourd’hui appliquées de manière uniforme, indique-t-elle.
Actuellement, ChatGPT fonctionne sur la base de règles dites « familiales », conçues pour éviter toute exposition de mineurs à des contenus sensibles. Ces règles limitent ou bloquent certaines discussions liées, par exemple aux relations intimes, à la santé mentale ou à des sujets psychologiques complexes. Le mode adulte aurait, selon OpenAI, pour objectif de permettre à des utilisateurs majeurs d’aborder ces thèmes de manière plus complète, tout en restant, je cite, « dans un cadre encadré ».
Le point central du dispositif repose sur la vérification de l’âge. OpenAI ne prévoit pas de se limiter à une simple déclaration volontaire de l’utilisateur, mais dit travailler sur un système d’inférence de l’âge fondé sur l’analyse du comportement, du langage et des échanges. Cette technologie est encore en phase de test. Fidji Simo, dirigeante chargée des applications chez OpenAI, a indiqué que le lancement dépendra de la capacité de ce modèle à distinguer correctement un mineur d’un adulte, sans erreurs significatives.
C’est précisément sur ce point que les critiques se concentrent. Plusieurs observateurs estiment que la prédiction de l’âge à partir du comportement comporte un risque élevé d’erreurs, avec des conséquences potentiellement graves. Une mauvaise classification pourrait exposer des mineurs à des contenus inadaptés ou, à l’inverse, restreindre injustement des adultes.
D’autres critiques portent sur les questions de vie privée. Déduire l’âge à partir des échanges suppose une analyse fine du langage et des comportements, ce qui alimente les craintes d’une surveillance accrue des utilisateurs. OpenAI affirme de son côté que ce système vise uniquement à appliquer des garde-fous, et non à profiler les utilisateurs à des fins commerciales, mais ces garanties restent, à ce stade, déclaratives.
Le débat est également alimenté par les déclarations de Sam Altman, directeur général d’OpenAI, qui a évoqué à plusieurs reprises la volonté de « traiter les utilisateurs adultes comme des adultes ». Pour certains, cette orientation marque une évolution nécessaire face à des règles jugées trop restrictives. Pour d’autres, elle ouvre la voie à une normalisation progressive de contenus sensibles au sein d’outils largement utilisés par le grand public.
Sur le plan réglementaire, le projet s’inscrit dans un contexte de durcissement des lois sur la protection des mineurs en ligne. Plusieurs gouvernements travaillent à imposer des mécanismes de vérification de l’âge plus stricts aux plateformes numériques. Dans cette perspective, le mode adulte apparaît aussi comme une tentative d’anticipation des futures obligations légales, même si son efficacité réelle reste à démontrer.
À ce stade, OpenAI insiste sur le caractère expérimental et conditionnel du dispositif. Aucun calendrier définitif n’a été arrêté et l’entreprise reconnaît que le mode adulte pourrait être retardé, voire révisé, en fonction des résultats des tests.
Avant d’en comprendre les implications, il faut d’abord préciser ce que recouvre l’expression « ChatGPT adulte ». Selon OpenAI, maison mère de l’outil, ce mode ne constitue ni une version séparée du chatbot ni un espace explicitement dédié à « des contenus réservés à un public averti ». Il s’agirait d’un paramétrage supplémentaire permettant à l’outil d’adapter ses réponses lorsque l’utilisateur est identifié comme majeur, en levant certaines restrictions aujourd’hui appliquées de manière uniforme, indique-t-elle.
Actuellement, ChatGPT fonctionne sur la base de règles dites « familiales », conçues pour éviter toute exposition de mineurs à des contenus sensibles. Ces règles limitent ou bloquent certaines discussions liées, par exemple aux relations intimes, à la santé mentale ou à des sujets psychologiques complexes. Le mode adulte aurait, selon OpenAI, pour objectif de permettre à des utilisateurs majeurs d’aborder ces thèmes de manière plus complète, tout en restant, je cite, « dans un cadre encadré ».
Le point central du dispositif repose sur la vérification de l’âge. OpenAI ne prévoit pas de se limiter à une simple déclaration volontaire de l’utilisateur, mais dit travailler sur un système d’inférence de l’âge fondé sur l’analyse du comportement, du langage et des échanges. Cette technologie est encore en phase de test. Fidji Simo, dirigeante chargée des applications chez OpenAI, a indiqué que le lancement dépendra de la capacité de ce modèle à distinguer correctement un mineur d’un adulte, sans erreurs significatives.
C’est précisément sur ce point que les critiques se concentrent. Plusieurs observateurs estiment que la prédiction de l’âge à partir du comportement comporte un risque élevé d’erreurs, avec des conséquences potentiellement graves. Une mauvaise classification pourrait exposer des mineurs à des contenus inadaptés ou, à l’inverse, restreindre injustement des adultes.
D’autres critiques portent sur les questions de vie privée. Déduire l’âge à partir des échanges suppose une analyse fine du langage et des comportements, ce qui alimente les craintes d’une surveillance accrue des utilisateurs. OpenAI affirme de son côté que ce système vise uniquement à appliquer des garde-fous, et non à profiler les utilisateurs à des fins commerciales, mais ces garanties restent, à ce stade, déclaratives.
Le débat est également alimenté par les déclarations de Sam Altman, directeur général d’OpenAI, qui a évoqué à plusieurs reprises la volonté de « traiter les utilisateurs adultes comme des adultes ». Pour certains, cette orientation marque une évolution nécessaire face à des règles jugées trop restrictives. Pour d’autres, elle ouvre la voie à une normalisation progressive de contenus sensibles au sein d’outils largement utilisés par le grand public.
Sur le plan réglementaire, le projet s’inscrit dans un contexte de durcissement des lois sur la protection des mineurs en ligne. Plusieurs gouvernements travaillent à imposer des mécanismes de vérification de l’âge plus stricts aux plateformes numériques. Dans cette perspective, le mode adulte apparaît aussi comme une tentative d’anticipation des futures obligations légales, même si son efficacité réelle reste à démontrer.
À ce stade, OpenAI insiste sur le caractère expérimental et conditionnel du dispositif. Aucun calendrier définitif n’a été arrêté et l’entreprise reconnaît que le mode adulte pourrait être retardé, voire révisé, en fonction des résultats des tests.
