OpenAI a revu ses conditions d’utilisation après plusieurs cas où des utilisateurs ont pris les réponses de ChatGPT au pied de la lettre, parfois dans des situations médicales ou juridiques délicates. Certains ont suivi des conseils sur des traitements, d’autres ont rédigé des documents légaux sur la base de ses formulations. Ces usages, parfois risqués, ont relancé le débat sur la fiabilité et les limites de l’intelligence artificielle.
La nouvelle version des règles est sans ambiguïté. ChatGPT ne pourra plus formuler de conseils individuels dans les domaines de la santé ou du droit, deux secteurs où la moindre erreur peut avoir de vraies conséquences. L’IA pourra toujours expliquer ce qu’est une ordonnance, décrire le rôle d’un avocat ou clarifier un article de loi, mais elle devra s’arrêter avant de recommander un médicament, d’interpréter un diagnostic ou de suggérer une stratégie juridique.
OpenAI présente ce changement comme une mesure de précaution face à l’ampleur des usages non encadrés. L’entreprise veut rappeler que ChatGPT reste un outil d’information et d’analyse, pas un substitut à un professionnel. Demander à l’IA les causes possibles d’une migraine reste possible ; lui demander quel traitement suivre ne l’est plus. De même, elle peut résumer un texte de loi, mais pas indiquer comment agir dans un litige.
Cette mise à jour s’accompagne d’un rappel plus large : protection des données, sécurité des mineurs, prévention des usages abusifs. OpenAI assure qu’elle adaptera régulièrement ses règles à mesure que l’intelligence artificielle s’invite dans des domaines de plus en plus sensibles.
La nouvelle version des règles est sans ambiguïté. ChatGPT ne pourra plus formuler de conseils individuels dans les domaines de la santé ou du droit, deux secteurs où la moindre erreur peut avoir de vraies conséquences. L’IA pourra toujours expliquer ce qu’est une ordonnance, décrire le rôle d’un avocat ou clarifier un article de loi, mais elle devra s’arrêter avant de recommander un médicament, d’interpréter un diagnostic ou de suggérer une stratégie juridique.
OpenAI présente ce changement comme une mesure de précaution face à l’ampleur des usages non encadrés. L’entreprise veut rappeler que ChatGPT reste un outil d’information et d’analyse, pas un substitut à un professionnel. Demander à l’IA les causes possibles d’une migraine reste possible ; lui demander quel traitement suivre ne l’est plus. De même, elle peut résumer un texte de loi, mais pas indiquer comment agir dans un litige.
Cette mise à jour s’accompagne d’un rappel plus large : protection des données, sécurité des mineurs, prévention des usages abusifs. OpenAI assure qu’elle adaptera régulièrement ses règles à mesure que l’intelligence artificielle s’invite dans des domaines de plus en plus sensibles.
