Saloua Islah
03 Novembre 2025
À 11:05
OpenAI a revu ses
conditions d’utilisation après plusieurs cas où des utilisateurs ont pris les réponses de
ChatGPT au pied de la lettre, parfois dans des situations médicales ou juridiques délicates. Certains ont suivi des
conseils sur des traitements, d’autres ont rédigé des
documents légaux sur la base de ses formulations. Ces usages, parfois risqués, ont relancé le débat sur la
fiabilité et les limites de
l’intelligence artificielle.
La nouvelle version des règles est sans ambiguïté.
ChatGPT ne pourra
plus formuler de conseils individuels dans les domaines de la
santé ou du
droit, deux secteurs où la moindre erreur peut avoir de vraies conséquences. L’IA pourra toujours expliquer ce qu’est une ordonnance, décrire le rôle d’un avocat ou clarifier un article de loi, mais elle devra s’arrêter avant de recommander un médicament, d’interpréter un diagnostic ou de suggérer une stratégie juridique.
OpenAI présente ce changement comme une
mesure de précaution face à l’ampleur des usages non encadrés. L’entreprise veut rappeler que
ChatGPT reste un outil d’information et d’analyse, pas un substitut à un professionnel. Demander à l’IA les causes possibles d’une migraine reste possible ; lui demander quel traitement suivre ne l’est plus. De même, elle peut résumer un texte de loi, mais pas indiquer comment agir dans un litige.
Cette mise à jour s’accompagne d’un rappel plus large : protection des données, sécurité des mineurs, prévention des usages abusifs.
OpenAI assure qu’elle adaptera régulièrement ses règles à mesure que l’intelligence artificielle s’invite dans des domaines de plus en plus sensibles.