Big Data : des métiers qui inventent le mouvement en marchant (2ème partie)
Deuxième partie d'un long article sur les formations et les métiers du Big Data. Un segment en plein boom, mais dont on sait les compétences rares. Pourtant des profils se dégagent déjà. LeMagIT.fr a enquêté.
« Le plus sexy des geeks ». «Le mieux payé ». Digne de la Une de la très sérieuse Harvard Business Review. Que ne dit-on du data scientist, depuis qu'une bonne part des DSI se pressentent impliqués – à l'horizon de trois ans en France selon les sondages – dans la valorisation des flux massifs de données ? Mais justement : au vu de la triple compétence – mathématique, informatique, compréhension métier – qu'exige ce poste, en attendant de dénicher les perles rares, les entreprises en font une affaire d'équipe. D'autant plus que du côté de l'infrastructure logicielle, tout autant challengée par ces projets, l'état d'esprit « open » est aussi de mise dans la chaîne de nouveaux profils, architectes, développeurs/administrateurs, experts en data visualisation.
« A nouvelle matière première, nouvelles façons d'aborder les métiers », résume Benjamin Stanislas, consultant senior du cabinet de recrutement Clémentine. « Le concept d'une information stockée dans un datawarehouse et circulant en circuit fermé est aujourd'hui totalement dépassé, les données et leur traitement ne prenant du sens qu'en étant non dissociées des usages et services réalisées à partir des données ou qui les génèrent », décrit Stéphan Clémençon, responsable du master spécialisé big data de Telecom ParisTech.
Un temps propice à l'accélération de la courbe d'apprentissage
Dépassé le profil de data miner. « On sortait de l'école, souvent d'un cursus en statistique ou en économétrie, avec ce qu'il fallait savoir pour travailler », remarque Hélène Gombaud-Saintonge, DG de FullSix Data à la tête d'une équipe d'une quinzaine d'experts big data mis au service de l'intelligence client. « Tout est tellement en devenir dans ce domaine qu'outre la curiosité intellectuelle, il faut savoir se débrouiller avec les outils open source ». La personnalité compte d'autant plus que ce côté geek, associé au sérieux des math/stat, semble antinomique avec le sens marketing, indispensable dans le domaine d'activité du groupe FullSix (promoteur du concept de marketing synchronisé). « Etre un expert en analyse de données ne suffit pas. Il faut en plus une ouverture d'esprit, rester connecté avec les usages du numérique dans son fonctionnement personnel», estime Benjamin Stanislas. « Plutôt que d'espérer que chacun ait d'emblée toutes les compétences et qualités voulues, nous misons sur le potentiel », ajoute la dirigeante de FullSix Data.
« La règle est de ne pas chercher un retour sur investissement immédiat d'une embauche, faire monter en compétences », abonde le consultant en recrutement du cabinet Clémentine. L'état actuel du marché y est propice: « après la période buzz de 2012, puis début 2013, celle des rendez-vous avec des clients qui cherchaient avant tout à se rassurer, depuis septembre, on fait face à une demande de tests grandeur nature », témoigne Hélène Gombaud-Saintonge. Une période favorable donc à l'accélération de la courbe d'apprentissage, volontiers mise en avant chez les pure players du big data. Chez Converteo, société de conseil en stratégie internet, c'est la complémentarité entre divers profils d'analystes qui y pourvoie. « Pour nous, tout part du besoin de l'analyste business. De quelles données aura-t-il besoin pour répondre à l'attente de l'entreprise cliente en matière d'optimisation ou d'amélioration de performance ? », décrit Thomas Faivre-Duboz, co-fondateur de Converteo. Les profils plus techniques, data analysts, font le lien entre ce besoin et ce qui est collecté, testent, modélisent, repensent l'organisation des données et ont aussi la force de conviction pour faire évoluer les pratiques de l'entreprise. « Des managers !», résume le consultant du cabinet Clémentine.
Architectes, développeurs, spécialistes API
Dépassés de même les profils d'administrateur et d'ingénieur système classiques, voire d'architecte SI dans le contexte de flux de données massifs de toutes natures. Depuis le stockage jusqu'à l'optimisation de l'utilisation de la puissance ou de la bande passante pour le traitement des données, c'est la maîtrise de l'architecture de systèmes répartis qui est en jeu. « La bonne nouvelle, notamment avec le framework Hadoop, est que ce n'est pas si compliqué de s'y mettre, configurer, paramétrer, améliorer », tient à préciser Fabien Rochette, CTO (directeur technique) du groupe FullSix. La première source de compétences serait donc l'expérience, les projets eux-mêmes, voire les stages de fin d'études pour étoffer l'équipe. « On s'est fait aidé au départ par les experts d'Hurence, une société grenobloise parmi les premières à se positionner sur l'environnement Hadoop, NoSQL », ajoute le CTO. Depuis, l'écosystème Hadoop se développe à grande vitesse. «De même que les distributions packagées. » Sous-entendu : l'information, et les formations de perfectionnement sur cette thématique ne manquent pas.
L'accélération de la courbe d'apprentissage vaut aussi au niveau des développeurs, pour l'aménagement des couches logicielles qui rendent disponibles les données et la prise en compte des modifications des algorithmes, « souvent au jour le jour », remarque Fabien Rochette. Des postes « a priori, plus faciles à pourvoir », selon lui, depuis que les compétences PHP, Python, Ruby on rails se sont banalisées. Sauf qu'au delà de ces bases techniques, ces développeurs doivent faire preuve du même degré d'ouverture d'esprit que les data analysts/scientists avec qui ils dialoguent au quotidien, pour des campagnes de courte durée, avec force itérations. Initiés aux méthodes agiles, donc, et coachés en conséquence. Pour doubler son équipe de développement comme le voudrait le portefeuille de projets de FullSix (soit une dizaine d'embauches prévues, et deux ou trois architectes de plus), « tous les leviers sont utilisés : la réputation, le réseautage, les réseaux sociaux, le recours au cabinet de recrutement ». Selon Benjamin Stanislas, «pour les développeurs comme pour les architectes, les entreprises qui s'en sortent le mieux sont celles qui prennent le risque de former ».
Rendre simple ce qui ne l'est pas
Deux autres profils se distinguent dans la mouvance big data de ceux de l'informatique décisionnelle classique : les spécialistes des interfaces API et de la visualisation des données. Pour les premiers, le fait que sont injectées dans les flux les données « publiques », open data, réseaux sociaux, géolocalisation, etc, implique de veiller à ce que ces flux, pour certains attrapés à la volée, soient intégrés au sens propre du terme, « sans risquer de faire tomber le dispositif », précise Fabien Rochette. Le profil de ces connaisseurs des API est donc proche de celui de l'architecte ou encore une version évoluée de l'ingénieur garant de l'intégration des projets de décisionnel.
Pour l'expert en data visualisation, «à la frontière entre le décisionnel trop sectorisé et le graphisme très créatif », selon Benjamin Stanislas, le but est de « rendre simple et accessible au client ce qui ne l'est pas », selon Fabien Rochette. « Avec des outils comme Tableau Software, on est à la jonction entre techno et business ; il s'agit d'accompagner les décideurs, de leur expliquer, et si le travail est bien fait, ils peuvent devenir autonomes ». Question d'expérience là encore. De quoi alimenter les échanges lors des prochains forums de mi-novembre, le congrès Fan 2013 (forum des acteurs du numérique) axé sur la valorisation des contenus et son « Big Data Day » ou le DataJob 2013 (1er forum de recrutement sur ce thème, avec une quinzaine d'écoles d'ingénieurs représentées).