
Lors d’une récente conférence sur la sécurité et la gestion des risques à National Harbor, Maryland, Peter Firstbrook, analyste distingué chez Gartner, a mis en lumière l’impact croissant de l’IA dans le domaine de la cybersécurité.
Bien que l’IA générative soit souvent vantée pour sa capacité à transformer les opérations informatiques, Firstbrook a souligné que son utilisation par les cybercriminels a ses limites.
Une évolution, pas une révolution
Selon Firstbrook, l’IA générative est principalement utilisée pour améliorer l’ingénierie sociale et automatiser les attaques. Par contre, elle n’a pas encore introduit de nouvelles techniques d’attaque.
« Nous constatons d’énormes gains de productivité grâce aux assistants de code de l’IA », a-t-il déclaré. Et fort heureusement, les hackers n’ont pas encore changé leurs méthodes.
Les experts s’accordent donc à dire que l’IA pourrait permettre aux pirates, même novices, de développer des outils d’intrusion personnalisés plus rapidement. Mais cela ne signifie pas qu’ils ont découvert de nouvelles stratégies.
Des outils malveillants à portée de main
En septembre, des chercheurs de HP ont rapporté que des pirates avaient utilisé l’IA pour créer un cheval de Troie d’accès à distance pour contrer la cybersécurité d’un site. D’ailleurs, cette tendance ne fera qu’augmenter selon Firstbrook.
En effet, les hackers exploitent l’IA pour concevoir de nouveaux logiciels malveillants. Ils font de la création de faux utilitaires open-source et bien d’autres choses. Cela incite les développeurs à intégrer involontairement ces codes dans leurs applications légitimes.
De ce fait, « si un développeur n’est pas prudent, son code peut être piraté avant même qu’il n’entre en production », a-t-il averti.
Qui sont les plus rapides ? Les développeurs ou les hackers ?
L’IA permet donc aux pirates de contrer la cybersécurité des sites rapidement. « C’est un jeu du chat et de la souris » pour les attraper, a déclaré Firstbrook. Même avant cette technologie, ils étaient déjà rapides. Mais l’IA leur offre un avantage considérable.
L’intégration de l’IA dans les campagnes de phishing traditionnelles représente une menace croissante. Bien que son impact reste limité pour l’instant, une étude de Gartner a révélé que 5 % des organisations avaient subi des attaques de type « deepfake ».
Cela a abouti à un vol d’argent ou de propriété intellectuelle. Cependant, Firstbrook a averti que ce domaine est en pleine expansion et pourrait devenir un problème majeur à l’avenir.
L’automatisation : un double tranchant
Sinon, l’un des principaux risques associés à l’IA dans le domaine de la cybersécurité est sa capacité à rendre certaines attaques beaucoup plus rentables.
Firstbrook a expliqué que si un vendeur doit faire 100 demandes pour obtenir un « oui », il peut en faire 200 pour doubler ses ventes. De la même manière, les cybercriminels peuvent automatiser l’ensemble du spectre de l’attaque. Cela leur permet d’agir beaucoup plus rapidement et efficacement.
Malgré les inquiétudes, certaines craintes liées à l’IA semblent exagérées pour le moment. Mais les chercheurs n’ont pas encore observé de techniques d’attaque entièrement nouvelles générées par l’IA. La situation est à surveiller de près.
Les experts s’accordent à dire que la vigilance est de mise, car l’IA pourrait bien devenir un outil encore plus puissant entre les mains des cybercriminels à l’avenir.