Menu
Search
Vendredi 22 Novembre 2024
S'abonner
close
Vendredi 22 Novembre 2024
Menu
Search

Les deepfakes se déploient plus que jamais en 2024, le Maroc n'est pas à l'abri

Les spécialistes de la sécurité informatique estiment que l’utilisation de plus en plus fréquente de l’intelligence artificielle devrait entraîner en 2024 une recrudescence des deepfakes. La facilité avec laquelle les sons, les images et les vidéos peuvent être falsifiées suscite les inquiétudes. Les experts estiment que cette technologie commence à constituer une vraie menace pour la transformation digitale de la société.

Les intelligences artificielles (IA) continuent de s’immiscer dans notre quotidien et de nous fasciner au point de nous faire oublier les multiples risques qu’elles comportent. C’est notamment le cas du deepfake, une technique d’hypertrucage audio et vidéo, dont les résultats sont très réalistes. Même si de nombreuses personnes l’utilisent aujourd’hui pour le fun, cette technique peut être exploitée à mauvais escient, ce qui suscite de plus en plus d’inquiétude.



«Cette technologie est aujourd’hui très populaire, en particulier auprès des enfants et des jeunes, qui l’utilisent pour s’amuser à travers des applications mobiles. Et comme son nom l’indique, le deepfake (falsification profonde) est une nouvelle technologie qui permet de falsifier les enregistrements vocaux, les photos et les vidéos. C’est une application d’intelligence artificielle, basée essentiellement sur ce qu’on appelle le Machine Learning ou le Deep Learning. Elle consiste à entraîner les algorithmes de reconnaissance des formes d’une grande base de données, afin de générer des contenus visuels proches de la réalité. Il est généralement très difficile de distinguer le contenu réel du contenu traité ou falsifié, aujourd’hui», explique Pr Youssef Bentaleb, président du Centre marocain de recherches polytechniques et d’innovation (CMRPI).

«Hormis le divertissement, le deepfake peut être utilisé à bon escient dans le domaine de la médecine et du cinéma. Cependant, cette technologie commence à dévoiler une facette dangereuse. Elle est de plus en plus utilisée à des fins cybercriminelles au Maroc et ailleurs, entraînant de nombreux risques comme l’atteinte de la vie privée, la désinformation, la fraude électronique et l’escroquerie, l’usurpation d’identité, la manipulation et le chantage...», développe l’expert. D’après les prédictions des experts, en 2024, les cybercriminels vont mettre au point plus de deepfakes pour orchestrer leurs attaques. Faux sons, fausses images, fausses vidéos, sur le plan personnel ou dans le milieu professionnel... cette technologie est, en effet, en train de devenir une arme potentielle de manipulation massive. Pr Bentaleb souligne que personne n’est à l’abri d’être un jour victime du deepfake. «Même si les célébrités, les hommes d’affaires et les personnalités politiques sont les plus touchés par les trucages des deepfakes, toute personne ou organisation peut être la cible des cybercriminels. Et malgré l’existence des outils de détection des contenus fake, il n’est pas évident pour tous les internautes de distinguer le contenu falsifié du réel», indique l’expert. Ce dernier souligne que la prolifération du deepfake, qui entraîne une perte de confiance générale du contenu numérique, constitue une vraie menace pour la transformation digitale de la société.

Comment doit agir une victime de deepfake ?

Comment peut-on se protéger des deepfakes sur le plan juridique ? Malheureusement, malgré la propagation de cette technologie dangereuse, peu de pays adoptent une réglementation pour protéger les victimes. «Le deepfake pose aujourd’hui un grand défi sur le plan juridique. En attendant l’adoption d’un texte dans ce sens, nous recommandons aux victimes de deepfake de supprimer le contenu fake, en prenant notamment des captures d’écran et en le signalant aux plateformes numériques pour effacer le contenu en question. Il faut aussi informer ses contacts et porter plainte auprès des autorités compétentes, à savoir la police judiciaire ou de lutte contre la cybercriminalité... Ces mesures permettent de minimiser l’impact du deepfake. Même si lorsqu’une personne est victime de deepfake, il n’est facile d’effacer l’impact psychologique, bien qu’il soit toujours possible de prouver qu’il s’agit d’un trucage», indique Pr Youssef Bentaleb, président du CMRPI. De son côté, Jamal Maatouk, conseiller juridique, nous déclare que même s’il n’existe pas d’articles spécifiques aux deepfakes, certains articles du Code pénal punissent les personnes qui commettent des infractions dans le cadre des nouvelles technologies et de l’intelligence artificielle. «Quand les textes actuels ont été promulgués, nous étions loin d’imaginer qu’un jour nous aurions affaire à des cybercriminels qui utilisent ce genre de technologie. Cependant, certains articles pénaux traitent cette problématique de façon générale et indirecte et peuvent protéger les victimes. Il est aussi important de souligner que la brigade criminelle électronique est très performante et a des moyens très avancés pour détecter ce genre de trucage», explique Pr Maatouk.

Questions au président du CMRPI, Pr Youssef Bentaleb : «Pour le moment, au Maroc, il n’y a pas une véritable prise de conscience des risques des deepfakes, ni de stratégie pour y faire face»



Quelles sont les méthodes et les technologies utilisées pour détecter les deepfakes ?


Il existe aujourd’hui des solutions technologiques qui permettent de détecter les deepfakes avec des degrés de fiabilité différents. Comme il s’agit d’un domaine complexe, en évolution continue, les chercheurs sont tout le temps dans une course contre la montre pour comprendre le mode de fonctionnement des algorithmes derrière les deepfakes. Ils essayent de développer en parallèle des algorithmes pour y faire face et améliorer les méthodes classiques d’analyse d’images et de vidéos. Ces nouvelles méthodes avancées sont basées sur la détection des contours, des fréquences, des lumières, du mouvement, de la luminosité ou de la chaleur... pour permettre le plus possible de détecter les deepfakes.

Comment les individus et les organisations peuvent-ils être mieux formés et sensibilisés aux risques des deepfakes ?

La sensibilisation et la formation sont la clé qui permet de lutter plus efficacement contre les risques de deepfakes, que ce soit pour les individus ou les organisations. Il faut savoir que cette technologie est encore à ses débuts. Plusieurs personnes l’utilisent pour se divertir, faire des blagues..., surtout parmi les jeunes. Il est donc très important d’expliquer aux utilisateurs que cette technologie peut avoir un côté positif, divertissant qui permet de développer la créativité, mais elle peut aussi comporter des risques et menacer gravement la vie privée. Les organisations, quant à elles, sont directement concernées par l’évolution des risques de deepfakes. En effet, cette technologie peut nuire à la réputation des entreprises et entraîner une perte de confiance des clients. C’est pourquoi il faut absolument former et sensibiliser le personnel aux risques des deepfakes, à travers des ateliers de démonstration et des campagnes de communication autour du sujet. Il faut aussi investir dans les solutions de vérification et de détection des contenus de deepfakes.

Est-ce qu’il y a des mesures prises au niveau national ou international pour lutter contre les risques de cette technologie ?

Nous constatons que pour le moment, au Maroc, il n’y a pas une véritable prise de conscience des risques des deepfakes, ni de stratégie pour y faire face. C’est malheureusement le cas pour une grande majorité de pays, qui sont aujourd’hui surpris par la prolifération des deepfakes. Il faut suivre l’exemple de quelques pays comme la Finlande qui ont adopté une stratégie nationale efficace de sensibilisation de l’ensemble des citoyens. Il faut également penser à mettre en place des plateformes numériques pour signaler les deepfakes et accompagner les victimes.
Lisez nos e-Papers
Nous utilisons des cookies pour nous assurer que vous bénéficiez de la meilleure expérience sur notre site. En continuant, vous acceptez notre utilisation des cookies.