Hajjar El Haïti
16 Février 2026
À 16:34
Le Matin : En tant que médecin, comment percevez-vous l’arrivée de «ChatGPT Health», qui propose aux citoyens d’organiser et de consulter leurs données médicales ? Est-ce que ce type d’outil vous semble répondre à un besoin réel chez les patients aujourd’hui ?
Pʳᵉ Amal Bourquia : L’arrivée d’outils comme «ChatGPT Health» s’inscrit dans une évolution profonde du rapport des citoyens à leur santé. De nombreux patients se sentent aujourd’hui démunis face à la complexité croissante des examens médicaux, à la multiplicité des comptes rendus et à la dispersion des informations entre différents professionnels. Dans ce contexte, une solution capable de centraliser, d’organiser et de reformuler les données médicales répond à un besoin réel, en permettant aux patients de mieux comprendre leur parcours de soins, de préparer leurs consultations et de devenir davantage acteurs de leur santé.
Cependant, ce type d’outil ne saurait se substituer au raisonnement clinique ni à la relation humaine, qui demeurent au cœur de la pratique médicale. «ChatGPT Health» doit être considéré comme un assistant d’organisation et de compréhension, et non comme un médecin. Il ne pose pas de diagnostics et ne prescrit pas de traitements. Son objectif est d’accompagner les utilisateurs dans la préparation de leurs échanges avec les professionnels de santé.
Par ailleurs, l’intelligence artificielle (IA) peut contribuer à une meilleure allocation des ressources sanitaires. Les approches de modélisation prédictive permettent notamment d’anticiper les admissions, d’optimiser l’utilisation des lits hospitaliers et d’ajuster les besoins en personnel et en équipements. Néanmoins, ces avancées supposent une communication claire auprès des citoyens quant aux limites de ces outils : l’IA accompagne le parcours de soins, mais ne le remplace pas.
Pensez-vous que l’interprétation simplifiée de résultats médicaux par une IA puisse aider certains patients, ou comporte-t-elle plus de risques que de bénéfices ? Existe-t-il un danger que des informations médicales soient mal comprises, sorties de leur contexte clinique ?L’interprétation vulgarisée des résultats médicaux peut représenter un bénéfice réel pour certains patients, à condition d’être utilisée avec discernement. Elle peut contribuer à réduire l’anxiété, améliorer la compréhension des données de santé et favoriser l’adhésion aux soins. Toutefois, le risque majeur réside dans la perte du contexte clinique. Un même résultat biologique peut avoir des significations très différentes selon l’âge, les antécédents, les symptômes ou les traitements en cours. L’IA ne dispose pas toujours de cette vision globale, ce qui peut conduire à des inquiétudes injustifiées ou, à l’inverse, à une fausse réassurance.
Pour cette raison, toute information issue d’un outil numérique doit être systématiquement discutée avec un professionnel de santé. La médecine moderne est confrontée à une complexité croissante des données : diversité des bilans biologiques, de l’imagerie, accumulation des prescriptions, rendant le dossier médical souvent difficilement accessible pour le patient. «ChatGPT Health» ambitionne précisément de rendre ces informations plus lisibles. L’IA aide à les reformuler et à les relier entre elles, en mettant en relation symptômes, examens et hypothèses diagnostiques. L’objectif n’est pas de poser un diagnostic, mais de renforcer la compréhension du patient et de mieux le préparer à l’échange médical avec les professionnels de santé.
Le fait pour un patient de centraliser ses analyses, comptes rendus ou résultats d’examens dans un espace numérique personnel peut-il, selon vous, améliorer son suivi médical ?La centralisation des documents médicaux dans un espace numérique personnel constitue un levier majeur d’amélioration du suivi médical. Un dossier bien organisé facilite la continuité des soins, limite la répétition des examens et offre aux professionnels de santé une vision plus complète et cohérente du parcours du patient. Cette approche est particulièrement bénéfique dans le cadre des maladies chroniques ou lorsque plusieurs spécialistes interviennent.
Des dispositifs tels que les dossiers médicaux partagés permettent de fluidifier la communication entre professionnels, d’accélérer la prise en charge et de renforcer la coordination des soins. L’accessibilité immédiate des informations, notamment lors d’hospitalisations ou de premières consultations, améliore la qualité des décisions médicales et favorise une collaboration interdisciplinaire plus efficace.
Pour le patient, cette centralisation représente un gain d’autonomie et de sérénité. Elle permet une meilleure visualisation du parcours de soins, contribue à réduire l’anxiété et assure une conservation sécurisée des données sur le long terme. L’intégration possible de données issues d’objets connectés, comme la glycémie ou la fréquence cardiaque, ouvre par ailleurs la voie à un suivi à distance plus précis, particulièrement utile dans la gestion des pathologies chroniques. Ces bénéfices sont toutefois conditionnés à deux exigences : la garantie d’un haut niveau de sécurité des données et le maintien du contrôle par le patient sur le partage de ses informations, qui contribuent d’ailleurs à sécuriser le parcours de soins.
Doit-on craindre une augmentation de l’autodiagnostic ou de l’automédication avec ce type d’outil ? Y a-t-il, selon vous, des situations cliniques où l’usage de «ChatGPT Health» est clairement déconseillé ?L’accès facilité à des interprétations médicales comporte un risque réel d’autodiagnostic ou d’automédication. Certains patients peuvent être tentés de tirer des conclusions hâtives ou de modifier leur traitement sans avis médical, ce qui peut s’avérer dangereux, en particulier face à des symptômes graves ou à des situations cliniques complexes comme la présence de douleurs thoraciques, de troubles neurologiques ou d’une aggravation rapide de l’état général.
Dans tous les cas, l’IA ne doit jamais retarder une consultation médicale. De nombreux patients interrogent des outils conversationnels avant même de consulter un professionnel de santé, espérant obtenir un diagnostic ou des recommandations thérapeutiques. Cela peut conduire à minimiser un problème de santé sérieux, dramatiser un symptôme bénin ou retarder une prise en charge appropriée.
Par ailleurs, pour obtenir des réponses personnalisées, certains utilisateurs partagent des informations sensibles telles que l’âge, les symptômes ou les antécédents médicaux, qui ne bénéficient pas toujours des protections réglementaires prévues pour les données de santé, ce qui soulève des enjeux majeurs de confidentialité et de sécurité. L’intelligence artificielle doit rester un support à l’information et à la préparation du dialogue médical, jamais un substitut à l’expertise clinique, avec un encadrement clair de ces outils et une éducation des patients à leurs usages appropriés.
Ce type d’outil complique-t-il la relation médecin-patient ou peut-il, au contraire, favoriser un dialogue plus structuré ? Le médecin risque-t-il de devoir passer plus de temps à corriger ou nuancer ce que le patient a compris via l’IA ?L’impact de ces outils sur la relation médecin-patient dépend largement de la manière dont ils sont utilisés. Bien intégrés au parcours de soins, ils peuvent favoriser un dialogue plus structuré et plus constructif. Le patient arrive souvent mieux préparé à la consultation, avec une compréhension plus claire de ses examens et des questions plus ciblées. Cela peut renforcer la relation médecin-malade et améliorer la qualité des échanges.
Cependant, il peut arriver que le médecin consacre du temps à corriger certaines informations erronées ou supporte mal que le patient discute son diagnostic ou son traitement, générant certaines tensions. Bien encadrée, l’IA peut ainsi devenir un facilitateur du dialogue plutôt qu’un obstacle. L’enjeu réside dans l’apprentissage d’une cohabitation intelligente avec ces outils, en les intégrant comme supports à la discussion médicale et non comme sources autonomes d’information.
Selon vous, faut-il un cadre clair pour encadrer l’utilisation des outils d’IA en santé par le grand public ?La mise en place d’un cadre éthique et réglementaire clair est indispensable. Il doit notamment préciser les limites explicites de ces outils, leur responsabilité juridique, les exigences en matière de protection des données personnelles, la transparence des algorithmes, ainsi que l’obligation de rappeler systématiquement qu’ils ne remplacent pas un professionnel de santé. En l’absence de telles garanties, les patients s’exposent à des dérives potentielles, malgré les promesses technologiques.
Les médecins doivent privilégier des outils fiables et conformes aux exigences réglementaires, assurer une supervision humaine systématique, garantir la sécurité et la protection des données, et instaurer une gouvernance claire. Une supervision humaine demeure donc essentielle, et un cadre structurant est nécessaire pour accompagner les professionnels vers un usage responsable de ces technologies.
Quel message souhaiteriez-vous adresser aux citoyens qui utilisent déjà ou envisagent d’utiliser cet outil pour leur santé ?La santé exige une approche humaine, personnalisée et contextualisée. Les citoyens sont invités à s’informer, à poser des questions et à conserver le réflexe fondamental de consulter leur médecin. Il est important d’aborder ces technologies comme des aides à la compréhension, et non comme des sources définitives de diagnostic ou de traitement. L’intelligence artificielle peut accompagner ce chemin en facilitant l’accès à l’information et en préparant le dialogue médical, mais elle ne remplacera jamais l’écoute, l’examen clinique et le jugement professionnel.