Menu
Search
Mardi 28 Mai 2024
S'abonner
close

La cybercriminalité boostée par l’IA : quelles perspectives pour 2024 ?

Le développement de l’intelligence artificielle fait passer la cybercriminalité à un niveau plus élevé dans le monde. Dans son dernier rapport, Kaspersky montre comment les outils de l'IA ont aidé les cybercriminels dans leurs activités malveillantes en 2023. Ils mettent également en évidence les applications défensives potentielles permises par cette technologie. Voici les détails.

La cybercriminalité continue de gagner du terrain. Et la prolifération des systèmes d’intelligence artificielle (IA) risque d’aggraver la situation. En effet, dans leur dernier rapport, les experts de Kaspersky révèlent l'influence profonde de l'IA sur le paysage de la cybersécurité en 2023. Cette analyse explore les implications multi-facettes de l'IA, en se concentrant d’une part sur son utilisation par les défenseurs et les autorités, et d’autre part sur son potentiel d’exploitation par les cybercriminels.



«Avec la rapidité à laquelle les progrès technologiques et les évolutions sociales s’installent dans notre quotidien, le terme “IA” s'est clairement positionné en tête des sujets de discussion les plus en vogue en cette année 2023. Le développement des grands modèles de langage (LLM) et la montée en puissance des préoccupations en matière de sécurité et de confidentialité créent un lien direct entre l'IA et le monde de la cybersécurité», indique l’entreprise dans un communiqué.

Davantage de cybermenaces en 2024

D’après les experts du géant de la sécurité informatique, l’IA aura de nombreuses conséquences sur le paysage des cybermenaces l’année prochaine. Ainsi, à mesure que les modèles de langage sont intégrés dans un plus grand nombre de produits grand public, il faut s’attendre à ce que de nouvelles vulnérabilités complexes apparaissent à l'intersection de l'IA générative et des technologies traditionnelles, élargissant ainsi la surface d'attaque à sécuriser pour les professionnels de la cybersécurité. Les développeurs vont donc devoir étudier de nouvelles mesures de sécurité, comme l'approbation par l'utilisateur des actions lancées par les agents LLM. «Les membres de la Red Team qui veillent à détecter, prévenir et éliminer les vulnérabilités, et les chercheurs en cybersécurité exploitent l'IA générative pour créer des outils de cyberdéfense innovants, ce qui pourrait aboutir à la création d’un assistant numérique basé sur le LLM ou sur l’apprentissage automatique (ML). Cet outil pourrait permettre à la Red Team d’automatiser certaines tâches, en apportant des conseils basés sur des commandes exécutées dans un environnement de pentesting, une technique qui consiste à analyser une cible en se comportant comme un pirate informatique», précise Kaspersky dans un communiqué.

On s’attend également au cours de l'année à venir à ce que les escrocs puissent renforcer leurs stratégies en utilisant des réseaux neuronaux, et tirer parti des outils d'IA pour créer des contenus frauduleux de plus en plus convaincants. Avec la capacité de générer sans effort des images et des vidéos convaincantes, il faut s’attendre à une escalade des cybermenaces en matière de fraude et d'escroquerie.

L’IA, une arme à double tranchant

Les experts affirment, par ailleurs que l'IA ne causera pas pour autant de changement révolutionnaire dans le paysage des menaces en 2024. Ils restent sceptiques quant à la possibilité que l'IA bouleverse de manière significative le paysage des menaces dans un avenir proche. Si les cybercriminels adoptent l'IA générative, il en va de même pour les cyberdéfenseurs, qui utiliseront les mêmes outils, voire des outils plus avancés, pour tester le perfectionnement de la sécurité des logiciels et des réseaux. C’est pourquoi il est finalement peu probable que l'IA modifie radicalement le paysage des attaques. «L'intelligence artificielle dans le domaine de la cybersécurité est une arme à double tranchant. Ses capacités d'adaptation renforcent nos défenses, et constituent un rempart contre les menaces en constante évolution. Toutefois, ce caractère dynamique comporte également sa part de risques, car les attaquants tirent parti de l'IA pour élaborer des attaques plus sophistiquées. Il est essentiel de trouver un juste équilibre, en garantissant une utilisation responsable sans partage excessif de données sensibles, pour sécuriser nos frontières numériques», commente Vladislav Tushkanov, expert en sécurité chez Kaspersky.

Une réglementation s’impose !

Les experts de Kaspersky ont également insisté sur l’importance d’élaborer des politiques et des réglementations pour contrôler l’IA face à la rapidité du développement des technologies. «Le nombre d'initiatives réglementaires liées à l'IA est appelé à augmenter. Les acteurs non étatiques, tels que les entreprises technologiques, compte tenu de leur expertise dans le développement et l'utilisation de l'intelligence artificielle, peuvent apporter une contribution précieuse aux discussions sur la réglementation de l'IA, tant au niveau mondial que national», lit-on dans le communiqué. Et d’ajouter qu’«il faudra davantage de réglementations, ainsi que les mesures des prestataires de services, pour signaler et identifier les contenus générés par l’IA, ces outils étant de plus en plus pourvus contre les technologies de détection. Les développeurs et les chercheurs, pour leur part, contribueront à l'élaboration de méthodes de filigrane pour les contenus IA afin d'en faciliter l'identification et la provenance».
Lisez nos e-Papers
Nous utilisons des cookies pour nous assurer que vous bénéficiez de la meilleure expérience sur notre site. En continuant, vous acceptez notre utilisation des cookies.