Société

Intelligence artificielle dans la santé : les mises en garde de l’OMS

Certes, le recours croissant à l’intelligence artificielle dans la santé présente de nombreuses opportunités, mais un mauvais usage peut entraîner des effets préjudiciables. L’Organisation mondiale de la santé appelle les États à examiner attentivement les risques de ces techniques avant de les adopter dans le domaine sensible de la santé.

Selon l'OMS, les grands modèles de langage peuvent être utilisés à mauvais escient pour produire et diffuser de fausses informations.

20 Mai 2023 À 12:00

Your browser doesn't support HTML5 audio

L’intelligence artificielle (IA) est devenue omniprésente. Elle s’applique à tous les secteurs : transport, industrie, enseignement, santé… Cependant, même si ces techniques innovantes sont de plus en plus appréciées pour les multiples avantages qu’elles présentent, elles suscitent également quelques craintes, en particulier dans le domaine de la santé. L’Organisation mondiale de la santé (OMS) a appelé, une nouvelle fois, à la prudence en matière d’utilisation des outils liés aux grands modèles de langage générés par l’intelligence artificielle afin de protéger et de promouvoir le bien-être, la sécurité humaine et l’autonomie, et de préserver la santé publique.

Parmi les grands modèles de langage figurent notamment certaines des plateformes les plus dynamiques telles que ChatGPT, Bard, Bert et bien d’autres qui imitent la compréhension, le traitement et la production de communications humaines. «Leur diffusion publique fulgurante et leur utilisation expérimentale croissante à des fins liées à la santé suscitent un enthousiasme considérable quant au potentiel offert de répondre aux besoins de santé des populations. Il est impératif que les risques soient examinés attentivement lors de l’utilisation de ces modèles», indique l’OMS dans un communiqué.

Attention au respect des valeurs et de l'éthique dans le domaine médical !

L’Organisation onusienne a également exprimé son inquiétude face à certaines négligences. «Il est préoccupant de constater que le principe de précaution exercé habituellement à toute nouvelle technologie ne s’applique pas de manière systématique dans le cas des grands modèles de langage. Il s’agit notamment du respect des valeurs clés que sont la transparence, l’inclusion, la participation du public, la supervision par des experts et l’évaluation rigoureuse». Et d’ajouter que «l’adoption précipitée de systèmes qui n’ont pas été testés pourrait entraîner des erreurs de la part des personnels de santé, nuire aux patients, saper la confiance dans l’intelligence artificielle et ainsi compromettre (ou retarder) les avantages et les utilisations potentiels à long terme de ces technologies dans le monde entier».

Parmi les préoccupations soulevées, certaines préconisent une surveillance rigoureuse, nécessaire pour que les technologies soient utilisées de manière sûre, efficace et responsable. «Les grands modèles de langage génèrent des réponses qui peuvent sembler plausibles pour un utilisateur final. Cependant, ces réponses peuvent être complètement incorrectes ou contenir de graves erreurs, en particulier concernant les réponses liées à la santé», alerte l’OMS. «Les grands modèles de langage peuvent aussi être entraînés à partir de données pour lesquelles le consentement n’a pas été donné au préalable, et ces modèles pourraient ne pas garantir de protection des données sensibles (y compris les données relatives à la santé) qu’un utilisateur fournit à une application pour obtenir une réponse. Ils peuvent aussi être utilisés à mauvais escient pour produire et diffuser de fausses informations», développe l’Organisation.

L’OMS recommande aux responsables de s’engager à exploiter les nouvelles technologies, y compris l’IA et la santé numérique en vue d’améliorer la santé humaine et d’élaborer des politiques pour assurer la sécurité et la protection des patients pendant que les entreprises spécialisées dans les technologies s’emploient à commercialiser les grands modèles de langage.

Lire aussi : Livre blanc sur la e-santé : le chemin est balisé, au travail !

Copyright Groupe le Matin © 2024