Dans cette transformation, le cloud ne s’est pas seulement adapté, il s’est métamorphosé. D’espace neutre de stockage et de calcul, il est devenu le socle actif d’un nouvel ordre numérique. Amazon, Microsoft et Alphabet, déjà maîtres des infrastructures, en redessinent les contours. Ces acteurs ne répondent plus à une demande, ils préfigurent un monde où l’infrastructure pense, organise, distribue, où chaque couche, de l’énergie aux interfaces, participe à un écosystème de plus en plus fermé et intégré.
Pendant ce temps, la Chine construit son propre modèle, cohérent, souverain et résilient. L’Europe, quant à elle, s’efforce d’imposer ses normes dans un univers façonné ailleurs. Ce qui se joue aujourd’hui n’est pas une simple compétition entre acteurs technologiques. C’est la reconfiguration d’un système mondial, désormais piloté depuis les cœurs énergétiques et computationnels de ces empires du cloud.
Amazon se déploie près des centrales nucléaires, investit dans les réacteurs modulaires, sécurise ses propres sites et intensifie sa couverture en énergies renouvelables. Microsoft signe avec Helion Energy pour capter l’énergie de fusion à l’horizon 2028, tout en réactivant une unité historique de Three Mile Island. Alphabet, de son côté, construit une architecture hybride, combinant géothermie profonde, solaire industriel et nucléaire de nouvelle génération, à travers des accords avec des acteurs comme Fervo Energy ou Kairos Power.
Il ne s’agit plus de stratégie verte, encore moins de communication environnementale. Il s’agit de garantir la continuité opérationnelle car celui qui détient l’énergie, sécurise le fonctionnement de ses usines d’innovation cognitive. À l’ère de l’intelligence distribuée, l’énergie devient un préalable incontournable dans l’infrastructure moderne.
Ce déplacement d’équilibre reconfigure les priorités industrielles et positionne l’autonomie comme un impératif. Les géants du cloud n’achètent plus des puces, mais les conçoivent pour se démarquer. Ainsi, Amazon développe deux puces distinctes. Trainium, qui fournit la force brute nécessaire à l’apprentissage massif des modèles d’IA générative. Inferentia, conçue pour l’inférence, permet de faire fonctionner ces modèles à grande échelle, avec une faible latence et un coût optimisé. Alphabet perfectionne ses TPU ((Tensor Processing Units), calibrées pour maximiser l’efficacité énergétique, avec une intégration native à ses propres environnements logiciels. Microsoft, plus tardif sur ce terrain, introduit Maia pour les charges IA liées à OpenAI, et Cobalt, une puce ARM pour les tâches cloud généralistes.
Ces puces ne sont pas pensées pour être diffusées à grande échelle ni proposées sur le marché. Elles ne cherchent pas à concurrencer Nvidia, mais à contourner sa centralité. Chaque architecture est développée sur mesure, étroitement liée aux environnements logiciels internes, optimisée pour les exigences spécifiques de chaque acteur. Le but étant l’optimisation stratégique afin d’abaisser le coût marginal de chaque requête, de réduire la dépendance aux fournisseurs critiques, et de mieux absorber les ruptures logistiques dans un contexte de tensions géopolitiques persistantes.
Chez Microsoft, cette mutation se déploie à l’échelle du système à travers Copilot. Intégré nativement à Windows, Office et GitHub, il agit déjà comme point d’entrée pour des millions de développeurs. Alphabet structure son écosystème autour de Gemini, piloté par un protocole d’interopérabilité baptisé Agent2Agent, conçu pour faire dialoguer des agents tiers dans une même architecture fluide. Amazon, plus modulaire, laisse aux entreprises le soin de créer leurs propres entités autonomes via Bedrock Agents, en fournissant les briques fondamentales.
Derrière cette orchestration, chaque géant s’appuie sur son propre modèle d’intelligence qui irrigue ses environnements numériques (Gemini chez Alphabet, Phi et MAI chez Microsoft et Nova chez Amazon). Mais la véritable rupture réside dans la manière dont ces entités interagissent. L’interface n’est plus un écran figé, c’est un espace conversationnel intelligent, animé par des agents capables d’interpréter une intention, de mobiliser plusieurs services et d’apprendre en continu.
Pour coordonner ces interactions multiples et souvent simultanées, les géants du cloud s’appuient désormais sur des cadres d’orchestration multi-agents (MOF). Ces frameworks ne se contentent pas de distribuer des tâches, mais modèlent des logiques d’intention, arbitrent entre agents concurrents et assurent une cohérence contextuelle dans la réponse. L’intelligence ne réside plus seulement dans le modèle, mais dans la manière dont les modèles coopèrent ou se régulent au sein d’un environnement distribué.
Ce glissement impose de nouveaux mécanismes d’échange. Là où les API classiques structuraient les interactions sous forme d’appels ponctuels et prédéfinis, le monde agentique s’appuie désormais sur des modèles de communication entre processus (MCP). Ces derniers autorisent des dialogues inter-agents dynamiques, ancrés dans un contexte partagé, et portés par des structures sémantiques évolutives. L’interopérabilité devient cognitive. Elle repose moins sur des standards techniques que sur une capacité commune à comprendre, mémoriser et ajuster l’action. Ainsi, les services ne sont plus invoqués mais orchestrés, les données ne sont plus simplement lues mais interprétées, et les interactions deviennent adaptatives, situées et stratégiques.
Ce mouvement signe la fin du SaaS (Software as a Service) tel qu’on l’a connu. Les applications perdent leur autonomie et deviennent des fonctions activées à la demande, au sein d’un environnement piloté par un agent autonome. C’est une inversion du rapport entre l’outil et l’utilisateur qui suppose une nouvelle capacité, la mémoire sémantique.
Les bases vectorielles répondent à ce besoin. Elles ne conservent pas des éléments isolés, mais des représentations de concepts, des proximités d’idées et des gradients de sens. Ces bases évoluent vers une mémoire vectorielle dynamique, capable de réorganiser en temps réel les relations conceptuelles selon les interactions récentes et les signaux faibles du contexte. Ce type de mémoire ne se limite pas à l’archivage, il modélise la trajectoire cognitive de chaque agent, affinant ses actions à mesure qu’il apprend en situation.
Microsoft les a intégrées à Fabric, où recherche sémantique et analyse temps réel se croisent dans un même espace. Alphabet renforce BigQuery et AlloyDB par l’ajout de Gemini, créant une continuité entre la donnée structurée et le raisonnement en langage naturel. Amazon, de son côté, mise sur GraphRAG et Neptune pour composer des trames multi-niveaux de connaissance, mêlant graphe, vecteur et intention. Ces structures sont bien plus que des bases de données. Elles sont les cartographies mentales sur lesquelles s’appuient les agents. Elles déterminent ce qu’un système comprend, retient et relie. Et à travers cette mémoire distribuée, c’est une logique d’action qui s’impose. Celui qui maîtrise ces architectures ne gère pas simplement des flux de données, mais oriente les décisions.
Cette dynamique impose aussi une nouvelle contrainte de cohérence, à savoir l’identité agentique persistante (PAI). Chaque agent devient une entité cognitive dotée d’une mémoire propre, d’un historique d’interactions et d’une capacité à forger des préférences. Ce n’est plus seulement un script d’exécution, mais un acteur numérique dont la constance alimente la cohérence décisionnelle à long terme.
Derrière ces stratégies, une logique commune se dessine. Chaque startup ainsi financée entre dans une structure fermée où les modèles, les puces, les interfaces et les bases vectorielles forment un écosystème complet, optimisé, difficile à quitter. L’indépendance devient une fiction, et l’innovation, une trajectoire balisée.
Cette logique d’intégration ne s’arrête pas aux outils ou aux modèles. Elle s’étend désormais à la sécurité elle-même, devenue composante native des écosystèmes cloud. Alphabet a renforcé sa défense multicloud par l’acquisition de Wiz, une opération à plus de 30 milliards de dollars. Microsoft, de son côté, étend Security Copilot à l’ensemble des environnements cloud, y compris ceux de Google. Amazon, fidèle à sa méthode incrémentale, intègre à Bedrock des modules de cybersécurité issus de ses propres accélérateurs.
Cette concentration technologique s’accompagne d’un niveau d’investissement sans précédent. Amazon, Microsoft et Alphabet consacrent à eux trois plus de 250 milliards de dollars sur la période actuelle au renforcement de leurs infrastructures IA et cloud. En parallèle, OpenAI, devenu un acteur stratégique à part entière, pilote le projet Stargate, un super-cloud planétaire dont la mise en œuvre pourrait mobiliser jusqu’à 500 milliards de dollars d’ici 2029. Le cloud devient donc une infrastructure critique à haute intensité capitalistique, où chaque brique est pensée pour maximiser l’intégration, la performance et le contrôle.
Les empires du cloud ne se contentent plus de dominer la technologie. Ils instaurent une dépendance fonctionnelle profonde, en contrôlant les agents, les bases vectorielles et les systèmes d’orchestration qui structureront l’économie de l’intelligence artificielle. Mais cette logique d’intégration n’est pas l’apanage des acteurs américains. Un autre modèle, tout aussi structuré, s’affirme ailleurs, porté par la Chine.
Huawei maîtrise l’ensemble de la chaîne, de la puce Ascend au modèle Pangu, avec un cloud redessiné pour les exigences de l’IA. Alibaba déploie Qwen dans ses plateformes marchandes et collaboratives, ancrant l’IA au cœur de l’économie numérique chinoise. Tencent intègre Hunyuan dans ses écosystèmes de messagerie et développe une architecture agentique pensée pour ses propres usages.
Ces acteurs visent les zones de croissance du Sud global, BRICS+, Afrique, Asie centrale, et Amérique latine où la maîtrise du numérique est perçue comme un levier stratégique. Dans ces contextes, leur offre apparaît moins comme une alternative fermée que comme une solution cohérente et alignée sur des priorités locales. Dans cette logique, la verticalité n’est pas un repli, mais une stratégie d’intégration. Elle garantit la continuité, sécurise les dépendances et propose une technologie intégrée, à la fois technique, fonctionnelle et culturelle.
Cette approche, bien que moins spectaculaire, répond à une autre ambition. Celle de construire un socle de confiance, de favoriser l’interopérabilité et de maintenir un espace numérique ouvert. L’écosystème s’organise autour de modèles open source comme ceux de Mistral, de solutions collaboratives comme Hugging Face, et d’initiatives hybrides qui cherchent à conjuguer efficacité et transparence.
Mais dans un contexte dominé par des architectures verticales, profondément intégrées, la compétition reste déséquilibrée. La puissance brute, l’autonomie de codification vectorielle et la propriété des modèles restent aujourd’hui des leviers décisifs. Même les initiatives les plus prometteuses peinent à s’affranchir des dépendances profondes qui structurent le cloud mondial.
Ce décalage ne doit pas masquer l’essentiel. La bataille qui s’engage ne concerne pas seulement les technologies. Elle redéfinit les conditions mêmes de l’intelligence artificielle. L’agent IA n’est pas une interface améliorée, mais une forme d’organisation qui redistribue les rôles, recompose les hiérarchies, transforme l’accès au savoir et à la décision. Le cloud, dans cette nouvelle configuration, n’est plus un outil d’arrière-plan. Il devient une entité stratégique, qui concentre l’énergie, structure la mémoire et arbitre les interactions. Il incarne une nouvelle couche de pouvoir, à la fois technique et politique.
Dans ce monde, posséder des données ne suffit plus. Il faut en maîtriser la circulation, en comprendre les logiques et en orienter les usages. Et pour cela, il faut contrôler les agents IA, les bases vectorielles, les flux énergétiques et les puces qui les animent. Ce sont ces architectures complexes qui dessinent désormais les contours du possible.
Le modèle retenu est aussi hybride. D’un côté, un cloud souverain réservé aux données critiques, géré par des opérateurs locaux. De l’autre, une ouverture mesurée aux fournisseurs internationaux, à travers des partenariats stratégiques. OVHcloud, en partenariat avec Maroc Data Center, a lancé sa première zone cloud en Afrique. Oracle prévoit deux régions cloud publiques sur le territoire marocain. Inwi étend son réseau de datacenters, Nindohost développe des offres souveraines locales et Maroc Data Center multiplie les alliances technologiques. Autant de signaux qui témoignent d’une volonté d’ancrage stratégique dans le continent. De son côté, l’État crée une dynamique d’attractivité en misant sur la formation, la fiscalité, l’énergie verte et la connectivité.
Mais ce qui marque une inflexion nouvelle, c’est la reconnaissance de l’intelligence artificielle comme infrastructure à part entière. Une Direction dédiée à l’IA vient d’être instaurée au sein du ministère chargé du numérique. En parallèle, l’Agence de développement du digital (ADD) structure un écosystème d’innovation autour de l’IA avec le programme «Al-Khawarizmi», des partenariats internationaux (ex. : Sénégal numérique), et des actions pilotes comme les «JAZARI Institutes».
Cependant, ce socle reste perfectible. La vision reste orientée SaaS, sans intégration explicite des nouveaux standards tels que la mémoire vectorielle, les agents AI ou l’orchestration sécurisée. La gouvernance énergétique du cloud, elle aussi, demeure encore dissociée de la planification numérique. Pourtant, les bases sont là et si elles sont consolidées, le Maroc pourrait faire émerger un modèle alternatif, ni calqué, ni défensif, mais inscrit dans une géopolitique cognitive propre à son positionnement continental.
Pendant ce temps, la Chine construit son propre modèle, cohérent, souverain et résilient. L’Europe, quant à elle, s’efforce d’imposer ses normes dans un univers façonné ailleurs. Ce qui se joue aujourd’hui n’est pas une simple compétition entre acteurs technologiques. C’est la reconfiguration d’un système mondial, désormais piloté depuis les cœurs énergétiques et computationnels de ces empires du cloud.
L’énergie, matrice de l’intelligence numérique
L’intelligence artificielle exige une source d’énergie continue, stable et massive. Entraîner un grand modèle n’est plus une prouesse algorithmique, mais une opération énergivore. La production électrique devient ainsi centrale pour maintenir le rythme d’apprentissage, assurer le fonctionnement et repousser les frontières de l’innovation.Amazon se déploie près des centrales nucléaires, investit dans les réacteurs modulaires, sécurise ses propres sites et intensifie sa couverture en énergies renouvelables. Microsoft signe avec Helion Energy pour capter l’énergie de fusion à l’horizon 2028, tout en réactivant une unité historique de Three Mile Island. Alphabet, de son côté, construit une architecture hybride, combinant géothermie profonde, solaire industriel et nucléaire de nouvelle génération, à travers des accords avec des acteurs comme Fervo Energy ou Kairos Power.
Il ne s’agit plus de stratégie verte, encore moins de communication environnementale. Il s’agit de garantir la continuité opérationnelle car celui qui détient l’énergie, sécurise le fonctionnement de ses usines d’innovation cognitive. À l’ère de l’intelligence distribuée, l’énergie devient un préalable incontournable dans l’infrastructure moderne.
La puce, cerveau stratégique du cloud
Le centre de gravité computationnel du cloud a basculé. Le CPU (Central Processing Unit), conçu pour des tâches séquentielles, cède la place aux puces spécialisées (GPU-Graphics Processing Unit, ASIC-Application-Specific Integrated Circuit ou TPU), capables de traiter des opérations massivement parallèles. C’est cette architecture qui permet d’entraîner des modèles géants et d’exécuter des milliards d’inférences en temps réel. Dans cette nouvelle économie, la puce devient le cœur stratégique de la performance et de l’innovation.Ce déplacement d’équilibre reconfigure les priorités industrielles et positionne l’autonomie comme un impératif. Les géants du cloud n’achètent plus des puces, mais les conçoivent pour se démarquer. Ainsi, Amazon développe deux puces distinctes. Trainium, qui fournit la force brute nécessaire à l’apprentissage massif des modèles d’IA générative. Inferentia, conçue pour l’inférence, permet de faire fonctionner ces modèles à grande échelle, avec une faible latence et un coût optimisé. Alphabet perfectionne ses TPU ((Tensor Processing Units), calibrées pour maximiser l’efficacité énergétique, avec une intégration native à ses propres environnements logiciels. Microsoft, plus tardif sur ce terrain, introduit Maia pour les charges IA liées à OpenAI, et Cobalt, une puce ARM pour les tâches cloud généralistes.
Ces puces ne sont pas pensées pour être diffusées à grande échelle ni proposées sur le marché. Elles ne cherchent pas à concurrencer Nvidia, mais à contourner sa centralité. Chaque architecture est développée sur mesure, étroitement liée aux environnements logiciels internes, optimisée pour les exigences spécifiques de chaque acteur. Le but étant l’optimisation stratégique afin d’abaisser le coût marginal de chaque requête, de réduire la dépendance aux fournisseurs critiques, et de mieux absorber les ruptures logistiques dans un contexte de tensions géopolitiques persistantes.
L’obsolescence du SaaS
L’agent IA n’est pas un ajout fonctionnel au-dessus des logiciels existants. Il incarne une bascule dans la manière même d’interagir avec le numérique. Là où l’utilisateur naviguait entre interfaces, il formule désormais une intention. Et c’est l’agent intelligent qui prend en charge la complexité, déclenche les services, orchestre les réponses.Chez Microsoft, cette mutation se déploie à l’échelle du système à travers Copilot. Intégré nativement à Windows, Office et GitHub, il agit déjà comme point d’entrée pour des millions de développeurs. Alphabet structure son écosystème autour de Gemini, piloté par un protocole d’interopérabilité baptisé Agent2Agent, conçu pour faire dialoguer des agents tiers dans une même architecture fluide. Amazon, plus modulaire, laisse aux entreprises le soin de créer leurs propres entités autonomes via Bedrock Agents, en fournissant les briques fondamentales.
Derrière cette orchestration, chaque géant s’appuie sur son propre modèle d’intelligence qui irrigue ses environnements numériques (Gemini chez Alphabet, Phi et MAI chez Microsoft et Nova chez Amazon). Mais la véritable rupture réside dans la manière dont ces entités interagissent. L’interface n’est plus un écran figé, c’est un espace conversationnel intelligent, animé par des agents capables d’interpréter une intention, de mobiliser plusieurs services et d’apprendre en continu.
Pour coordonner ces interactions multiples et souvent simultanées, les géants du cloud s’appuient désormais sur des cadres d’orchestration multi-agents (MOF). Ces frameworks ne se contentent pas de distribuer des tâches, mais modèlent des logiques d’intention, arbitrent entre agents concurrents et assurent une cohérence contextuelle dans la réponse. L’intelligence ne réside plus seulement dans le modèle, mais dans la manière dont les modèles coopèrent ou se régulent au sein d’un environnement distribué.
Ce glissement impose de nouveaux mécanismes d’échange. Là où les API classiques structuraient les interactions sous forme d’appels ponctuels et prédéfinis, le monde agentique s’appuie désormais sur des modèles de communication entre processus (MCP). Ces derniers autorisent des dialogues inter-agents dynamiques, ancrés dans un contexte partagé, et portés par des structures sémantiques évolutives. L’interopérabilité devient cognitive. Elle repose moins sur des standards techniques que sur une capacité commune à comprendre, mémoriser et ajuster l’action. Ainsi, les services ne sont plus invoqués mais orchestrés, les données ne sont plus simplement lues mais interprétées, et les interactions deviennent adaptatives, situées et stratégiques.
Ce mouvement signe la fin du SaaS (Software as a Service) tel qu’on l’a connu. Les applications perdent leur autonomie et deviennent des fonctions activées à la demande, au sein d’un environnement piloté par un agent autonome. C’est une inversion du rapport entre l’outil et l’utilisateur qui suppose une nouvelle capacité, la mémoire sémantique.
La mémoire cognitive des agents IA
Un agent IA ne peut agir sans mémoire. Mais il ne s’agit plus ici de stocker des données brutes ou de retrouver une information dans un fichier. Ce dont ces nouvelles entités ont besoin, c’est d’un ancrage sémantique, d’une capacité à se souvenir en contexte, à ajuster leur action selon le sens, non selon la seule structure.Les bases vectorielles répondent à ce besoin. Elles ne conservent pas des éléments isolés, mais des représentations de concepts, des proximités d’idées et des gradients de sens. Ces bases évoluent vers une mémoire vectorielle dynamique, capable de réorganiser en temps réel les relations conceptuelles selon les interactions récentes et les signaux faibles du contexte. Ce type de mémoire ne se limite pas à l’archivage, il modélise la trajectoire cognitive de chaque agent, affinant ses actions à mesure qu’il apprend en situation.
Microsoft les a intégrées à Fabric, où recherche sémantique et analyse temps réel se croisent dans un même espace. Alphabet renforce BigQuery et AlloyDB par l’ajout de Gemini, créant une continuité entre la donnée structurée et le raisonnement en langage naturel. Amazon, de son côté, mise sur GraphRAG et Neptune pour composer des trames multi-niveaux de connaissance, mêlant graphe, vecteur et intention. Ces structures sont bien plus que des bases de données. Elles sont les cartographies mentales sur lesquelles s’appuient les agents. Elles déterminent ce qu’un système comprend, retient et relie. Et à travers cette mémoire distribuée, c’est une logique d’action qui s’impose. Celui qui maîtrise ces architectures ne gère pas simplement des flux de données, mais oriente les décisions.
Cette dynamique impose aussi une nouvelle contrainte de cohérence, à savoir l’identité agentique persistante (PAI). Chaque agent devient une entité cognitive dotée d’une mémoire propre, d’un historique d’interactions et d’une capacité à forger des préférences. Ce n’est plus seulement un script d’exécution, mais un acteur numérique dont la constance alimente la cohérence décisionnelle à long terme.
Domination par écosystème
La mainmise sur l’innovation technologique ne s’exerce plus par des contraintes frontales, mais par imprégnation progressive. Elle se diffuse subtilement à travers des mécanismes d’intégration organique et d’expansion par acquisition. Chaque startup IA soutenue, chaque API offerte, chaque crédit cloud alloué tisse un fil invisible dans un réseau de dépendance envers les empires du cloud. Microsoft, solidement lié à OpenAI, orchestre les relations entre développeurs et grands comptes à travers son programme Pegasus. Alphabet, en bâtissant un protocole interopérable autour de Gemini, structure une place de marché d’agents façonnée à son image. Amazon, plus pragmatique, accorde à ses partenaires une autonomie apparente, tout en les ancrant dans les architectures de Bedrock, désormais alimentées par Nova, un modèle issu de ses investissements dans Anthropic et du rachat d’Adept.Derrière ces stratégies, une logique commune se dessine. Chaque startup ainsi financée entre dans une structure fermée où les modèles, les puces, les interfaces et les bases vectorielles forment un écosystème complet, optimisé, difficile à quitter. L’indépendance devient une fiction, et l’innovation, une trajectoire balisée.
Cette logique d’intégration ne s’arrête pas aux outils ou aux modèles. Elle s’étend désormais à la sécurité elle-même, devenue composante native des écosystèmes cloud. Alphabet a renforcé sa défense multicloud par l’acquisition de Wiz, une opération à plus de 30 milliards de dollars. Microsoft, de son côté, étend Security Copilot à l’ensemble des environnements cloud, y compris ceux de Google. Amazon, fidèle à sa méthode incrémentale, intègre à Bedrock des modules de cybersécurité issus de ses propres accélérateurs.
Cette concentration technologique s’accompagne d’un niveau d’investissement sans précédent. Amazon, Microsoft et Alphabet consacrent à eux trois plus de 250 milliards de dollars sur la période actuelle au renforcement de leurs infrastructures IA et cloud. En parallèle, OpenAI, devenu un acteur stratégique à part entière, pilote le projet Stargate, un super-cloud planétaire dont la mise en œuvre pourrait mobiliser jusqu’à 500 milliards de dollars d’ici 2029. Le cloud devient donc une infrastructure critique à haute intensité capitalistique, où chaque brique est pensée pour maximiser l’intégration, la performance et le contrôle.
Les empires du cloud ne se contentent plus de dominer la technologie. Ils instaurent une dépendance fonctionnelle profonde, en contrôlant les agents, les bases vectorielles et les systèmes d’orchestration qui structureront l’économie de l’intelligence artificielle. Mais cette logique d’intégration n’est pas l’apanage des acteurs américains. Un autre modèle, tout aussi structuré, s’affirme ailleurs, porté par la Chine.
Chine vs Occident, deux géométries du pouvoir
Tandis que les géants occidentaux intensifient leur intégration verticale par accumulation de capital, de puces, de modèles et d’agents, la Chine suit une voie parallèle, dictée autant par la stratégie que par la contrainte. L’objectif n’est pas la domination immédiate, mais la résilience systémique.Huawei maîtrise l’ensemble de la chaîne, de la puce Ascend au modèle Pangu, avec un cloud redessiné pour les exigences de l’IA. Alibaba déploie Qwen dans ses plateformes marchandes et collaboratives, ancrant l’IA au cœur de l’économie numérique chinoise. Tencent intègre Hunyuan dans ses écosystèmes de messagerie et développe une architecture agentique pensée pour ses propres usages.
Ces acteurs visent les zones de croissance du Sud global, BRICS+, Afrique, Asie centrale, et Amérique latine où la maîtrise du numérique est perçue comme un levier stratégique. Dans ces contextes, leur offre apparaît moins comme une alternative fermée que comme une solution cohérente et alignée sur des priorités locales. Dans cette logique, la verticalité n’est pas un repli, mais une stratégie d’intégration. Elle garantit la continuité, sécurise les dépendances et propose une technologie intégrée, à la fois technique, fonctionnelle et culturelle.
L’autre géométrie du cloud
De son côté, l’Europe avance par d’autres chemins. Sa force ne réside pas dans la course au silicium ni dans la production de modèles propriétaires à grande échelle. Elle s’affirme par la régulation, la transparence et la protection des données. Des acteurs comme OVHcloud, Scaleway ou 3DS Outscale s’inscrivent dans cette logique, offrant une souveraineté d’hébergement alignée sur les exigences du RGPD (Règlement général sur la protection des données) et des normes européennes.Cette approche, bien que moins spectaculaire, répond à une autre ambition. Celle de construire un socle de confiance, de favoriser l’interopérabilité et de maintenir un espace numérique ouvert. L’écosystème s’organise autour de modèles open source comme ceux de Mistral, de solutions collaboratives comme Hugging Face, et d’initiatives hybrides qui cherchent à conjuguer efficacité et transparence.
Mais dans un contexte dominé par des architectures verticales, profondément intégrées, la compétition reste déséquilibrée. La puissance brute, l’autonomie de codification vectorielle et la propriété des modèles restent aujourd’hui des leviers décisifs. Même les initiatives les plus prometteuses peinent à s’affranchir des dépendances profondes qui structurent le cloud mondial.
Ce décalage ne doit pas masquer l’essentiel. La bataille qui s’engage ne concerne pas seulement les technologies. Elle redéfinit les conditions mêmes de l’intelligence artificielle. L’agent IA n’est pas une interface améliorée, mais une forme d’organisation qui redistribue les rôles, recompose les hiérarchies, transforme l’accès au savoir et à la décision. Le cloud, dans cette nouvelle configuration, n’est plus un outil d’arrière-plan. Il devient une entité stratégique, qui concentre l’énergie, structure la mémoire et arbitre les interactions. Il incarne une nouvelle couche de pouvoir, à la fois technique et politique.
Dans ce monde, posséder des données ne suffit plus. Il faut en maîtriser la circulation, en comprendre les logiques et en orienter les usages. Et pour cela, il faut contrôler les agents IA, les bases vectorielles, les flux énergétiques et les puces qui les animent. Ce sont ces architectures complexes qui dessinent désormais les contours du possible.
Maroc : poser les fondations d’une souveraineté numérique cognitive
À l’écart des tensions entre hyperscalers et logiques industrielles extrêmes, le Maroc construit les prémices d’un cloud souverain à son échelle, dans le cadre de la stratégie «Maroc Digital 2030». Cette trajectoire s’inscrit dans une vision claire qui consiste à faire du numérique un vecteur de transformation structurelle et un levier d’influence continentale. L’objectif n’est pas la course à la puissance brute, mais l’ancrage d’un écosystème agile, résilient et stratégiquement positionné.Le modèle retenu est aussi hybride. D’un côté, un cloud souverain réservé aux données critiques, géré par des opérateurs locaux. De l’autre, une ouverture mesurée aux fournisseurs internationaux, à travers des partenariats stratégiques. OVHcloud, en partenariat avec Maroc Data Center, a lancé sa première zone cloud en Afrique. Oracle prévoit deux régions cloud publiques sur le territoire marocain. Inwi étend son réseau de datacenters, Nindohost développe des offres souveraines locales et Maroc Data Center multiplie les alliances technologiques. Autant de signaux qui témoignent d’une volonté d’ancrage stratégique dans le continent. De son côté, l’État crée une dynamique d’attractivité en misant sur la formation, la fiscalité, l’énergie verte et la connectivité.
Mais ce qui marque une inflexion nouvelle, c’est la reconnaissance de l’intelligence artificielle comme infrastructure à part entière. Une Direction dédiée à l’IA vient d’être instaurée au sein du ministère chargé du numérique. En parallèle, l’Agence de développement du digital (ADD) structure un écosystème d’innovation autour de l’IA avec le programme «Al-Khawarizmi», des partenariats internationaux (ex. : Sénégal numérique), et des actions pilotes comme les «JAZARI Institutes».
Cependant, ce socle reste perfectible. La vision reste orientée SaaS, sans intégration explicite des nouveaux standards tels que la mémoire vectorielle, les agents AI ou l’orchestration sécurisée. La gouvernance énergétique du cloud, elle aussi, demeure encore dissociée de la planification numérique. Pourtant, les bases sont là et si elles sont consolidées, le Maroc pourrait faire émerger un modèle alternatif, ni calqué, ni défensif, mais inscrit dans une géopolitique cognitive propre à son positionnement continental.