NicoElNino - Fotolia
Cybersécurité : l’intelligence artificielle, oui mais pas tout de suite
C’est le message qu’envoient les experts interrogés par Carbon Black. Pour une grande majorité d’entre eux, les algorithmes n’ont pas encore la maturité nécessaire pour ne pas être contournés par les attaquants et ne pas, non plus, générer trop de faux positifs.
Faire confiance aux technologies relevant de l’intelligence artificielle pour contrôler les mécanismes de sécurité informatique ? Trop tôt, répondent en substance les 410 experts en sécurité interrogés par Carbon Black entre la fin décembre 2016 et le début du mois de janvier dernier.
Près des trois quarts estiment que ces solutions comportent encore des défauts : taux de faux positifs élevés, recours trop important à l’intervention humaine pour la prise de décision, ou encore ralentissement des opérations de sécurité. Et c’est sans compter avec la capacité des attaquants à berner les algorithmes, mentionnée par 70 % des sondés. Des projets comme EvadeML se concentrent d’ailleurs sur ce point.
Ce qui n’empêche pas les experts interrogés de trouver des avantages aux solutions de sécurité animées par des technologies d’intelligence artificielle, comme « augmenter la prise de décision humaine » ou encore découvrir des relations non-évidentes dans des volumes de données importants. Des propos qui n’apparaissent guère surprenants.
L’an passé, les équipes du MIT et la jeune pousse PatternEx ont présenté une plateforme de détection des attaques reposant sur un modèle d’apprentissage machine supervisé et affichant un niveau d’efficacité redoutable, AI2.
A cette occasion, Jérôme Saiz, expert du Cercle des Assises de la Sécurité, et consultant en sécurité, estimait que cette approche allait dans la bonne direction : « à mon sens l'approche du MIT est la bonne, à savoir utiliser la machine pour non pas prendre une décision, mais simplement faire un tri, isoler l'information pertinente et présenter l'information à l'humain dans un format qui lui permette de "laisser faire" ce que le cerveau humain fait de mieux, c'est à dire "trouver ce qui est louche" (l'intuition). La machine fait quant à elle de son côté ce qu'elle sait faire de mieux : brasser une grande quantité de données et trier ».
Dans son analyse des résultats de son sondage, Carbon Black aboutit aux mêmes conclusions : « les technologies de sécurité devraient être basées sur la collecte Big Data, utiliser l’automatisation lorsque c’est efficace, et surtout, donner les moyens aux humains de prendre de meilleures décisions ». De quoi entraîner en retour les algorithmes pour les rendre plus pertinents.
Mais pas question en tout cas de faire l’impasse : 47 % des sondés estiment que leurs solutions de sécurité patrimoniales ne leur fournissent pas une visibilité suffisante pour contrer des attaques qui, pour 64 % d’entre eux, s’appuient de plus en plus sur des outils légitimes, au détriment des logiciels malveillants classiques.
En juillet dernier, une étude de LightCyber soulignait d’ailleurs le rôle limité des logiciels malveillants dans les attaques ciblées. Ceux-ci seraient principalement utilisés pour l’infiltration initiale.