Gene Hodges, Pdg de WebSense : “place à l’analyse Web en temps réel”
A l'occasion de la RSA Conference, nous avons pu rencontrer Gene Hodges, le CEO de WebSense. L'occasion de faire le point sur l'évolution de la société mais aussi de discuter des perspectives de la technologie DLP (Data Loss Prevention, autrement dit la prévention de la perte de données), dont la firme s'est faite le hérault depuis le rachat de Port Authority.
A l'occasion de la RSA Conference, nous avons pu rencontrer Gene Hodges, le CEO de WebSense. L'occasion de faire le point sur l'évolution de la société mais aussi de discuter des perspectives de la technologie DLP (Data Loss Prevention, autrement dit la prévention de la perte de données), dont la firme s'est faite le hérault depuis le rachat de Port Authority.
Le DLP est-il aujourd'hui une technologie mûre ?
Glenn Hodges : La vraie question est de savoir si les technologies d'identification de contenus utilisées par les outils DLP sont prêtes à être utilisées à très grande échelle sur des documents de natures variées, structurés ou non. Je pense que la réponse à cette question est absolument, si on se limite à un jeu de données restreint. Il n'est pas nécessaire que ces données soient structurées. Le problème, lorsque l'on veut appliquer le DLP à toutes les données de l'entreprise, c'est qu'il faudrait dix ans à une grande entreprise, prenons l'exemple de Deutsche Bank, pour classifier ses données et bâtir une taxonomie. En revanche, si on souhaite protéger des jeux limités de données critiques, la technologie est au point et affiche un très faible taux de faux positifs et - encore plus important - de faux négatifs.
Certains de vos concurrents comme RSA envisagent de rapprocher leurs outils de DRM (Gestion des droits numériques) de leurs outils de DLP. A ce jour, vous ne disposez pas d'offres de gestion des droits numériques, est-ce qu'une telle approche pourrez-vous intéresser ?
G.H. : Vous ne le savez peut-être pas, mais Port Authority (une société rachetée par WebSense et qui est à la base de son offre DLP, NDLR) a fait ses débuts en développant des outils de DRM pour les majors du cinéma afin de contrôler la diffusion d'œuvres numériques. Le problème avec le DRM ? Les déploiements réussissent à peu près aussi souvent que les déploiements de PKI, c'est-à-dire dans moins d'un tiers des cas. Pour certains contenus, le DRM fait sens, notamment dans les workflow très structurés. Et il y a le monde des processus fluides, celui des cadres, où le DRM est quasiment impossible à déployer car il alourdit les processus et devient un obstacle à la mobilité des organisations. Pour ce monde là, le DLP nous semble la seule réponse possible.
La plupart des outils de DLP ont une composante réseau, généralement à base d'appliance, et une composante client sous la forme d'un agent logiciel. Les deux sont-elles absolument nécessaires pour avoir de bons résultats ?
G.H. : Aujourd'hui, nous livrons la solution sous forme d'appliances, mais nous aurons un agent au troisième trimestre, qui permettra notamment d'appliquer des politiques aux nomades. Nous voyons notre appliance comme un boitier UTM de nouvelle génération (un boitier UTM - Unified Threat Management - combine en général des fonctions de firewall, de détection d'intrusion, de filtrage de contenu, etc., NDLR). Mais elle se concentre sur la protection des données, plutôt que sur la protection de l'infrastructure. Au lieu d'un firewall d'un IPS, on fournit des fonctions de DLP, de protection contre les malware Web…
L'essentiel de vos revenus provient encore fait des technologies historiques de filtrage d'URL. Pensez-vous que vos clients basculeront rapidement vers vos nouveaux produits et que ces derniers contribueront rapidement à votre chiffre d'affaires ?
G.H. : Je le crois. Ce qui aura le plus grand impact dans les mois à venir est notre nouvelle suite de filtrage Web. En quelque sorte, nous suivons l'adage d'Andy Grove (l'ex–patron emblématique d'Intel, NDLR) qui disait qu'il faut manger ses petits avant que d'autres ne le fassent. Pour être plus direct, notre objectif à court terme est de rendre obsolètes les bases d'URL pour faire place à notre technologie d'analyse Web en temps réel. C'est aussi un message à nos concurrents. Nous les avons battus sur le marché des bases URL (Gartner crédite WebSense de 71 % du marché du filtrage d'URL, NDLR) et nous conservons une longueur d'avance avec le filtrage Web en temps réel.