Menu
Search
Jeudi 08 Janvier 2026
S'abonner
close
Jeudi 08 Janvier 2026
Menu
Search

Les principales cyberattaques de 2026 : pourquoi elles seront plus crédibles et plus difficiles à détecter

Deepfakes, phishing intelligent, fake news… en 2026, les cybermenaces entreront dans une nouvelle phase, fortement amplifiée par l’intelligence artificielle. Plus crédibles, plus rapides et plus difficiles à détecter, les cyberattaques gagnent en sophistication. Dans cet entretien, Pr. Youssef Bentaleb, président du Centre marocain de recherches polytechniques et d’innovation (CMRPI), décrypte les risques émergents liés à l’IA et les défis majeurs pour la cybersécurité au Maroc et à l’international.

No Image
Le Matin : Quelles sont, selon vous, les principales cybermenaces qui vont marquer 2026 ?

Les principales cyberattaques de 2026 : pourquoi elles seront plus crédibles et plus difficiles à détecter
Youssef Bentaleb



Youssef Bentaleb :
À l’horizon 2026, je pense que les cybermenaces vont changer relativement de vecteurs, elles vont se caractériser de plus en plus par une industrialisation accrue des attaques, fortement amplifiée par l’usage massif de l’intelligence artificielle. Au-delà des ransomwares, du phishing et des attaques classiques contre les systèmes d’information, nous observons une montée préoccupante des cyberviolences facilitées par l’IA, notamment à travers des attaques automatisées sur les systèmes d’information, la production de contenus frauduleux ou manipulés utilisés à des fins de cyberextorsion, de diffamation et de chantage, incluant la menace de publication de contenus intimes artificiellement générés, tels que les deepfakes, images ou voix synthétiques.

À l’échelle internationale, les statistiques publiées en 2024 par l’Internet Watch Foundation (IWF) indiquent une augmentation alarmante de 380 % des contenus d’exploitation et d’abus sexuels d’enfants générés par l’intelligence artificielle. Cette évolution confirme que l’IA est désormais utilisée comme un vecteur majeur de criminalité en ligne, en particulier à l’encontre des publics les plus vulnérables.

Au niveau national, les observations de terrain menées par le CMRPI, ainsi que les signalements reçus via la plateforme EMC, montrent que ces dérives ne se limitent pas à un profil spécifique. Elles affectent des particuliers, mais également des responsables publics, des cadres d’entreprise et des professionnels des médias, entraînant des conséquences psychologiques, sociales et réputationnelles graves, souvent durables.

Par ailleurs, les risques liés aux fake news et à la manipulation de l’information vont s’intensifier, en particulier dans les contextes électoraux. L’intelligence artificielle permet désormais de produire et de diffuser à grande échelle des contenus trompeurs crédibles, capables d’influencer l’opinion publique, d’affaiblir la confiance dans les institutions et de perturber les processus démocratiques.

Enfin, dans le contexte marocain, une attention particulière doit être portée aux cyberattaques ciblant les systèmes d’information liés au développement des applications et des infrastructures numériques, notamment en lien avec la préparation et l’organisation de grandes manifestations internationales, telles que la Coupe du Monde. Ces événements constituent des cibles à forte valeur stratégique pour des acteurs malveillants cherchant à perturber les services, à porter atteinte à l’image du pays ou à exploiter des failles dans des écosystèmes numériques complexes et interconnectés.

Ces menaces imposent une approche globale combinant sécurité technique, gouvernance de l’intelligence artificielle, lutte contre la désinformation et renforcement de la résilience numérique nationale.



Pensez-vous que l’intelligence artificielle transforme radicalement la nature des attaques ?

Effectivement, l’intelligence artificielle transforme profondément la nature des cyberattaques. Elle permet aux attaquants d’amplifier, personnaliser et automatiser leurs actions à un niveau inédit. À l’échelle internationale, on constate une montée en puissance de campagnes de phishing assistées par l’intelligence artificielle, capables de reproduire avec une grande précision le style d’écriture, le ton et le vocabulaire d’un dirigeant, d’un collaborateur ou d’une institution officielle, ce qui complique fortement la détection humaine. Un cas emblématique s’est produit en 2024 à Hong Kong, où des cybercriminels ont eu recours à des deepfakes générés par IA pour usurper l’identité du directeur financier et de plusieurs cadres du groupe multinational Arup lors d’une visioconférence. Convaincu par le réalisme des images et des voix, un employé a procédé à des virements frauduleux, entraînant une perte de plus de 25 millions de dollars. Cet épisode illustre clairement le rôle déterminant de l’IA dans la sophistication croissante des fraudes et des techniques d’ingénierie sociale.

L’IA peut-elle aussi jouer un rôle pour renforcer la cybersécurité ?

L’intelligence artificielle, bien qu’elle puisse être exploitée à des fins malveillantes, constitue également une opportunité majeure pour renforcer la cybersécurité. Lorsqu'elle est utilisée de manière responsable, elle permet d’identifier les comportements suspects grâce à une détection avancée des menaces, d’analyser en temps réel d’importants volumes de données et de journaux d’activité, d’anticiper les cyberattaques à l’aide de modèles prédictifs, et d’automatiser les réponses aux incidents. Cette combinaison de capacités améliore significativement la résilience des systèmes et la rapidité de réaction face aux attaques.

Dans quelle mesure les organisations sont-elles prêtes à faire face aux menaces liées à l’IA, surtout après les multiples attaques qui ont eu lieu en 2025 ?

Les attaques majeures survenues en 2025 ont servi de véritable électrochoc pour le secteur, mais le niveau de préparation demeure très inégal. Si les grandes organisations commencent à intégrer l’IA dans leur gouvernance de cybersécurité et déploient déjà des solutions basées sur l’IA pour renforcer la sécurité de leurs systèmes d’information, de nombreuses structures, notamment les PME et certaines administrations, restent dépassées par la rapidité de l’évolution de l’IA. Elles demeurent vulnérables en raison de l’absence de stratégies proactives claires, du manque de compétences qualifiées et de ressources financières limitées. L’expérience du CMRPI montre que la principale faiblesse n’est pas tant technologique qu’organisationnelle et humaine, caractérisée par un déficit de vision stratégique, de plans de réponse aux incidents, de formation continue et, malheureusement, par une sous-estimation des risques liés à l’IA.

Pensez-vous qu’il y ait suffisamment de professionnels formés pour affronter ces menaces ?

Malheureusement, il n’y a pas suffisamment de professionnels formés pour faire face à ces menaces. Au Maroc, malgré les efforts des universités et des écoles d’ingénieurs pour former de nouvelles générations de spécialistes en cybersécurité à l’ère de l’IA, les profils qualifiés restent rares. Ce déficit se retrouve également à l’échelle internationale. Il est donc indispensable de repenser la formation, non seulement en cybersécurité et en intelligence artificielle, mais aussi dans les disciplines fondamentales comme les mathématiques, qui constituent la base des compétences en cryptographie, machine learning, cybersécurité, ainsi qu’en IA.

Le manque de professionnels compétents est particulièrement criant à l’intersection entre cybersécurité, intelligence artificielle et droit. Il est donc crucial de former des profils hybrides capables de comprendre les aspects techniques, juridiques et éthiques des cybermenaces. Cela permettra aux organisations de disposer de personnels capables de réagir efficacement aux risques complexes et évolutifs posés par les nouvelles technologies et l’IA.

Quels conseils donneriez-vous aux responsables IT pour prioriser leurs actions face aux multiples menaces ?

Je leur donnerais cinq priorités claires :
  1. Adopter une approche centrée sur le risque plutôt que de se limiter à la conformité réglementaire.
  2. Assurer la formation continue des équipes, car les cybermenaces évoluent constamment et l’humain reste la première ligne de défense.
  3. Intégrer l’intelligence artificielle de manière maîtrisée, en connaissant ses limites et les risques qu’elle comporte.
  4. Tester régulièrement les plans de réponse aux incidents, en réalisant des exercices de gestion de crise et de continuité des activités.
  5. Favoriser la collaboration et le partage d’informations, notamment avec les centres de recherche, les plateformes d’alerte et les autorités compétentes.
La cybersécurité en 2026 dépassera la dimension technologique : elle nécessitera des compétences hybrides, une gouvernance solide et une préparation proactive. L’IA apporte à la fois risques et opportunités, et la protection efficace dépendra de la formation continue, de plans de réponse robustes, de l’intégration maîtrisée de l’IA et de la collaboration entre acteurs publics et privés, avec l’humain au centre de la défense, et pourtant le risque zéro n’existe nulle part.
Lisez nos e-Papers