Menu
Search
Jeudi 12 Juin 2025
S'abonner
close

L’intelligence artificielle au service de la gouvernance publique : vers un État apprenant, stratège et souverain

Au-delà du prisme technologique, l’intelligence artificielle révèle un enjeu institutionnel, stratégique et éthique de première importance : celui de refonder la manière dont l’État conçoit, pilote et évalue son action. Le Maroc, à travers ses ambitions numériques, ses réformes structurelles et ses premiers engagements, dispose aujourd’hui d’une opportunité unique. Celle de faire de l’IA un levier de transformation de la gouvernance publique, à condition d’en maîtriser les fondements, les usages et les finalités.

L’intelligence artificielle, appliquée à la gestion publique, n’est ni une mode ni un luxe. Elle constitue une rupture méthodologique majeure. Elle introduit une capacité d’analyse fine, dynamique et contextualisée de l’action de l’État. Là où l’évaluation des politiques publiques a longtemps été ponctuelle, descriptive, souvent conduite à distance des cycles de décision, l’IA permet une lecture en continu des effets, avec des indicateurs adaptés à la complexité des réalités locales.



Un programme social, même bien intentionné, peut rater sa cible si ses critères d’éligibilité ne sont pas ajustés. Grâce aux capacités d’apprentissage automatique, il devient possible d’identifier des écarts d’impact entre régions, catégories socio-professionnelles ou périodes temporelles. Ces divergences, une fois modélisées, permettent de corriger les dispositifs en temps réel, d’éviter les effets d’aubaine et de mieux concentrer les efforts publics.

Il est important d’insister sur ce que l’IA rend désormais possible : un processus d’«apprentissage institutionnel». L’administration de nouvelle génération ne se contente plus d’exécuter et d’évaluer. Elle devient capable d’observer ses propres résultats, d’en tirer des enseignements et de réinjecter ces enseignements dans l’élaboration de nouvelles politiques. C’est la logique du meta-learning appliquée à l’action publique.

Prenons un exemple concret : un programme national pour l’emploi des jeunes. Traditionnellement, son efficacité serait évaluée à l’issue de sa mise en œuvre, à travers des indicateurs agrégés. Avec l’IA, il devient possible de suivre en temps réel l’évolution des résultats par province, de comparer les trajectoires des bénéficiaires à ceux d’un groupe témoin non concerné, et de détecter rapidement les zones géographiques où le dispositif ne produit pas les effets escomptés. L’enjeu n’est pas de surveiller, mais d’apprendre. D’ajuster sans attendre l’échec. D’améliorer sans attendre l’insatisfaction. Cette approche, fondée sur la preuve, ne remplace pas la décision politique. Mais elle lui offre une base plus solide. Et ce n’est possible que si la donnée est disponible, exploitable, partagée, c’est à dire gouvernée.

Gouvernance, architecture et souveraineté numérique

La transformation induite par l’intelligence artificielle ne repose pas uniquement sur les algorithmes. Elle exige une refondation de la gouvernance des systèmes d’information publics. Aujourd’hui, de nombreuses administrations fonctionnent encore en silos, avec des données dispersées, peu interopérables et difficilement valorisables. Ainsi, il est nécessaire de bâtir une infrastructure souveraine de la donnée publique. Le projet de cloud souverain, porté par les autorités marocaines, ne constitue pas une réponse technique isolée. Il s’agit d’un choix stratégique majeur. Il garantit que les données critiques de l’État sont hébergées, protégées et exploitées dans un environnement maîtrisé, conforme aux priorités nationales.

Mais l’infrastructure ne suffit pas. Elle doit être articulée à une gouvernance institutionnelle claire, fondée sur des référentiels ouverts, des standards communs et une logique de mutualisation. Cela implique une meilleure coordination entre les ministères, une implication systématique des acteurs publics dans la conception des architectures technologiques et un pilotage éclairé par la finalité publique.

La logique appelle également à une évolution du cadre juridique. La loi 09-08 sur la protection des données personnelles, bien qu’essentielle, ne répond pas aux défis spécifiques posés par l’usage d’algorithmes dans l’espace public. L’État a besoin d’un socle normatif clair encadrant l’usage de l’IA : auditabilité des systèmes, explicabilité des décisions, transparence des critères, droit au recours humain et responsabilité juridique. Cette approche n’est pas destinée à freiner l’innovation, mais à en garantir la légitimité et la confiance.

Certaines institutions, comme l’Inspection générale des finances (IGF), pourront voir leurs capacités d’intervention stratégiques amplifiées par l’IA. En lui offrant des outils d’analyse prédictive et d’agrégation intelligente, l’IA permettra à l’IGF de formuler des recommandations plus agiles, plus ciblées et mieux synchronisées avec les fenêtres d’action des décideurs. Ce renforcement ne modifiera pas sa vocation, mais démultipliera son utilité dans l’identification rapide de doublons, l’évaluation transversale de dispositifs budgétaires ou la détection de signaux faibles indiquant des marges de redéploiement.

Au-delà de l’instantané, l’IA ouvre aussi une perspective inédite sur la mémoire institutionnelle. Des décennies de rapports, d’analyses et de diagnostics produits par l’IGF, le Haut-Commissariat au Plan, Bank Al-Maghrib ou encore la Cour des comptes constituent un gisement de connaissances stratégiques. Grâce aux systèmes d’IA dits «à génération augmentée par récupération» (RAG), il devient possible d’interroger ces corpus de manière contextuelle, d’extraire des enseignements précis en fonction d’une problématique actuelle et de croiser les conclusions passées avec les dynamiques contemporaines. Ce type d’outil permet d’éviter la redondance des constats, d’identifier ce qui a fonctionné ou échoué par le passé et de capitaliser de manière continue. Ce que l’analyse documentaire classique peine à produire, l’IA le rend accessible, contextualisé et directement exploitable pour les politiques publiques.

Compétences, culture et alignement budgétaire

Une stratégie IA publique ne peut réussir que si elle est portée par des femmes et des hommes capables de la comprendre, de l’encadrer et de la faire évoluer. C’est pourquoi un effort massif en matière de formation et de transformation culturelle est indispensable. L’objectif officiel de former 100.000 talents par an n’est pas un chiffre politique : c’est un seuil minimal pour assurer l’autonomie de décision, la souveraineté technologique et la soutenabilité de la stratégie.

Il ne suffit pas de produire des ingénieurs. Il faut aussi former des cadres publics capables de dialoguer avec la technique, de définir les bons indicateurs, de superviser des systèmes intelligents sans se priver de leur pouvoir de décision. C’est un changement profond dans la culture administrative : passer d’une logique de conformité à une logique d’apprentissage, d’expérimentation et d’agilité. Mais cette transformation ne sera durable que si elle s’inscrit dans le cycle budgétaire. L’IA ne doit pas être financée sur des fonds exceptionnels ou des budgets annexes. Elle doit devenir une composante structurante des politiques publiques, avec des lignes de crédit, des objectifs de performance et des dispositifs d’évaluation.

À cet égard, la création d’un portefeuille national de cas d’usage IA peut être une étape très utile. Il s’agit de sélectionner, parmi les projets existants ou à venir, ceux qui présentent un potentiel d’impact élevé, une transférabilité intersectorielle et une pertinence stratégique alignée sur les priorités nationales. Ce portefeuille n’est pas un catalogue de bonnes pratiques. C’est un outil de planification, de coordination interministérielle et de visibilité pour les partenaires nationaux et internationaux.

Vers un État capable d’apprendre, d’ajuster et de rendre compte

L’intelligence artificielle ne remplacera pas les institutions. Elle ne supplantera ni la délibération politique, ni le contrôle démocratique, ni la responsabilité publique. Mais elle peut en être l’alliée. En injectant de la connaissance dans le pilotage. En révélant des failles invisibles. En proposant des corrections là où l’intuition ne suffit plus. L’IA permet de passer d’un État qui agit à un État qui apprend. En effet, les politiques publiques ne peuvent plus être conçues comme des interventions figées, validées en amont et évaluées en aval. Elles doivent devenir des processus vivants, ajustables, éclairés par des données et corrigés par des signaux faibles.

La valeur de l’IA n’est donc pas dans sa sophistication technique. Elle est dans sa capacité à introduire une nouvelle temporalité dans l’action publique : celle du temps réel, de l’anticipation, et de la réactivité. Encore faut-il que cette capacité soit utilisée avec discernement. Ainsi, une IA publique utile est une IA conçue pour répondre à un besoin collectif, dans un cadre éthique solide, avec des garde-fous institutionnels. Elle ne doit pas produire une gouvernance technocratique, mais une gouvernance plus juste, plus transparente, plus à l’écoute.

Le Maroc dispose aujourd’hui d’un double capital : un socle de données publiques en cours de structuration et une ambition numérique affirmée. L’intelligence artificielle, si elle est bien gouvernée, peut transformer ce capital en levier de performance, de confiance et de souveraineté. Cette option stratégique ne doit pas être un virage technologique. C’est une montée en conscience. Une invitation à repenser la puissance publique à l’aune de l’apprentissage, de l’agilité et de la responsabilité. Un État capable d’observer ce qu’il produit. De corriger ce qu’il déclenche. De mesurer ce qu’il transforme. Un État qui ne se contente pas d’innover, mais qui apprend à mieux servir.

Ce que l’international révèle sur l’IA publique

Au-delà des discours d’innovation, certains pays ont déjà intégré l’intelligence artificielle au cœur de leur gouvernance publique. Leurs expériences ne sont pas des modèles à copier, mais des révélateurs d’architectures possibles. Quatre d’entre eux, en particulier, méritent attention. L’Estonie, souvent citée pour sa numérisation avancée, a bâti une interopérabilité systémique rare. Grâce à sa plateforme X-Road, chaque citoyen peut interagir avec les services publics sans répéter ses informations et les administrations échangent leurs données en temps réel. Cette infrastructure permet à l’IA de s’insérer naturellement dans le fonctionnement de l’État : automatisation des décisions fiscales, alertes médicales prédictives ou encore accompagnement juridique en ligne. L’exemple est moins technologique qu’institutionnel, c’est la cohérence d’ensemble qui fait système.

À Singapour, la stratégie est résolument pragmatique. Le gouvernement a structuré un écosystème articulé autour de l’initiative AI Singapore, où chercheurs, développeurs et ministères coconstruisent des solutions sur mesure. L’approche y est fondée sur des «cas d’usage impactants» : prévention des maladies chroniques via des modèles prédictifs, adaptation de l’offre éducative en fonction des profils d’apprentissage, optimisation du trafic urbain grâce à des algorithmes temps réel. Ce qui distingue Singapour, c’est moins la sophistication technique que la fluidité entre institutions, pilotée par la finalité.

La France, de son côté, a choisi une approche plus régulée. L’administration a intégré l’IA dans une logique d’ «État-plateforme», combinant ouverture des données (via data.gouv.fr), mutualisation des outils (API partagés) et encadrement éthique. Des projets comme le traitement automatisé des déclarations fiscales ou l’assistance aux usagers en ligne reposent sur des algorithmes contrôlés, audités, et en partie open source. La doctrine française repose sur un équilibre entre innovation, transparence et souveraineté numérique, comme en témoigne le développement de solutions nationales d’IA générative.

Enfin, le Canada se distingue par la robustesse de son cadre éthique. Chaque projet public intégrant l’IA doit passer par une «évaluation d’impact algorithmique», publiée en ligne et assortie de mécanismes de redevabilité. Dans des domaines aussi sensibles que l’immigration, les assurances ou l’emploi, l’IA ne peut être utilisée qu’après démonstration de son innocuité juridique, sociale et technique. Le modèle canadien démontre qu’encadrer n’est pas freiner : c’est créer les conditions de l’acceptabilité.
Lisez nos e-Papers