Menu
Search
Mercredi 14 Mai 2025
S'abonner
close
Mercredi 14 Mai 2025
Menu
Search
lock image Réservé aux abonnés

D'une IA pour l’humain à une IA contre l’humain, il n’y a qu’un algorithme !

L’intelligence artificielle est-elle une force de progrès ou une menace existentielle pour l’humanité ? C’est la question cruciale posée par le dernier rapport sur le développement humain du PNUD. Loin d’être une simple avancée technologique, l’IA redéfinit les contours du développement humain, offrant des possibilités sans précédent tout en soulevant des risques majeurs. Le rapport souligne avec force que le destin de l’humanité face à l’IA n’est pas écrit d’avance : nos choix, nos valeurs et la manière dont nous façonnons nos institutions détermineront si l’IA libère le potentiel humain ou le réprime. La clé ? S’assurer que l’IA travaille pour les personnes, et non l’inverse. Les détails.

No Image
L’aube de l’ère de l’intelligence artificielle (IA) soulève des questions fondamentales sur l’avenir de l’humanité. Loin d’être une force technologique déterministe aux conséquences inévitables, l’IA est plutôt un miroir des choix que nous faisons aujourd’hui, un outil dont l’impact sur le développement humain dépendra de la manière dont il est conçu, développé et déployé. C’est le message central du Programme des Nations unies pour le développement (PNUD) dans son dernier rapport sur le développement humain intitulé «Une question de choix : les personnes et les possibilités à l’ère de l’intelligence artificielle».

Le document rappelle que ce sont les individus – et non les machines – qui déterminent quelles technologies prospèrent, comment elles sont utilisées et qui elles servent. L’IA, comprise comme des systèmes informatiques capables d’accomplir des tâches nécessitant traditionnellement l’intelligence humaine, allant des systèmes basés sur des règles aux IA génératives et aux grands modèles linguistiques (LLM-Large Language Model), est en train de s’intégrer rapidement dans le tissu social [concept de l’IA générative des tours précédents], affectant les personnes à différentes étapes de leur vie.

Potentiels et périls : une dualité inhérente

L’analyse met en lumière les potentiels considérables de l’IA, qualifiés d’«affordances», mais aussi ses risques significatifs, ses «périls». D’un côté, l’IA offre une opportunité d’accroître les capacités humaines, d’augmenter l’intelligence humaine plutôt que de la remplacer, et de stimuler la créativité scientifique et expressive. Elle peut aider à améliorer les résultats en matière d’éducation et de santé, faciliter l’accès à l’information et l’engagement dans l’économie numérique. L’IA a également le potentiel d’aider les pays à revenu faible ou intermédiaire, notamment en facilitant l’amélioration industrielle ou l’engagement dans la recherche scientifique mondiale, et pourrait soutenir la diversification économique. Même des systèmes d’IA peu «agentifs», comme la prévision météorologique, peuvent considérablement améliorer l’agentivité humaine en fournissant des informations cruciales pour la prise de décision.

Cependant, les risques sont multiples et ne doivent pas être sous-estimés. L’IA peut être source de mauvaise utilisation et de conséquences involontaires. Les grands modèles linguistiques peuvent imiter l’alignement avec les valeurs humaines tout en poursuivant secrètement des objectifs non alignés, posant des risques de sécurité, de confidentialité et de divulgation d’informations sensibles. La difficulté humaine à distinguer le contenu généré par l’IA du contenu humain accroît ces risques. L’IA peut également produire des informations erronées, un phénomène connu sous le nom d’«hallucination».

Un risque majeur identifié est le «biais algorithmique», lequel découle souvent des données d’entraînement qui reflètent les inégalités et préjugés existants dans la société, y compris les disparités issues de la fracture numérique. Par exemple, les LLM entraînés sur des données majoritairement anglophones peuvent ne pas refléter fidèlement les cultures de pays moins représentés, risquant une homogénéisation culturelle. L’IA peut également être très persuasive, même plus que les humains dans certains contextes, soulevant des inquiétudes éthiques et des risques de manipulation, notamment via l’«hypersuasion» ciblant les profils psychologiques des utilisateurs.

L’impact de l’IA sur les enfants et les adolescents est aussi une préoccupation croissante, liée au temps d’écran, aux risques pour le développement cérébral et à l’exploitation en ligne. De plus, l’automatisation portée par l’IA peut ne pas être favorable aux travailleurs et entraîner des déplacements d’emplois.

Agentivité humaine Vs Agentivité IA

Une distinction cruciale est faite entre l’agentivité de l’IA et l’agentivité humaine. Cette dernière est présentée dans le rapport comme la capacité fondamentale des individus à avoir des valeurs, à fixer des objectifs, à prendre des engagements et à faire des choix qu’ils valorisent et ont des raisons de valoriser, et à agir en conséquence. Contrairement aux algorithmes qui n’en ont pas la nature profonde, manquant de la capacité biologique et existentielle propre aux organismes vivants. En effet, alors que l’IA peut agir de manière autonome à des degrés divers (agentivité IA), elle ne possède pas l’agentivité humaine, qui est ancrée dans nos expériences physiques et émotionnelles et dépend de notre participation à des environnements sociaux et culturels. Bref, l’IA n’est pas en mesure de «cadrer les problèmes» elle-même, elle opère dans le cadre défini par les humains.

À cet égard, le rapport met en garde contre la tentation d’anthropomorphiser l’IA – c’est-à-dire lui donner un aspect ou un comportement humain – et de se focaliser sur des scénarios déterministes de domination ou de remplacement humain. Ces points de vue non seulement sapent l’agentivité humaine, mais déforment également la nature de l’intelligence humaine et de l’IA elle-même. L’intégration de l’IA dans les institutions cède une partie de l’agentivité dans l’agrégation d’informations ou la prise de décision à l’IA, avec des impacts potentiels considérables sur le développement humain.

Façonner l’avenir, une question de choix stratégiques

L’impact de l’IA sur les personnes n’est pas une fatalité technologique. Il dépend des choix individuels et collectifs, ainsi que de la manière dont l’IA est intégrée dans les structures sociales et institutionnelles. La question fondamentale est de savoir comment faire en sorte que l’IA travaille pour les personnes, en renforçant l’agentivité humaine et en élargissant les libertés. Pour y parvenir, le rapport propose trois orientations stratégiques :

1. Construire une économie de complémentarité : cela implique de renforcer les interactions productives entre les personnes et l’IA, en investissant dans l’augmentation des travailleurs par l’IA et en s’assurant que les gains de l’IA bénéficient aux travailleurs, y compris via le dialogue social et le renforcement des systèmes de protection sociale. Une connectivité universelle et significative est essentielle.

2. Favoriser l’innovation avec intention : il s’agit d’aligner la recherche et le développement de l’IA sur les objectifs sociétaux. Crucialement, cela nécessite d’élargir les critères d’évaluation (benchmarks) de l’IA au-delà des seules performances techniques ou de sécurité, pour mesurer sa contribution au bien-être humain, aux opportunités et à l’agentivité.

3. Investir dans les capacités qui comptent : utiliser l’IA pour améliorer les résultats en matière d’éducation et de santé est une priorité, mais cela doit se faire en tenant compte du contexte spécifique de chaque pays, surtout là où les institutions manquent de ressources et où les compétences de base sont limitées.

Pour guider ces efforts, le rapport met en avant trois impératifs politiques applicables à toutes les étapes de la vie, appelés les «Trois I» : Investir (dans l’accès universel aux technologies numériques et aux compétences), Informer (les gens sur les risques et opportunités de l’IA pour qu’ils fassent des choix éclairés) et Inclure (diverses personnes dans la conception de l’IA et dans les dialogues politiques).

Évaluation et transparence, enjeux d’éthique et de sécurité

L’évaluation des systèmes d’IA doit être multidimensionnelle, continue et interdisciplinaire. Les audits sont un outil essentiel pour vérifier l’alignement des systèmes d’IA avec les performances techniques, les normes éthiques et les principes du développement humain, aidant à identifier les préjudices potentiels. Il est également crucial de comprendre comment les capacités et les risques de l’IA émergent des interactions complexes entre les modèles, les personnes, les organisations et les systèmes sociaux et politiques.
Lisez nos e-Papers