Allstate Insurance fait du Data Lake Hadoop sa base principale pour le Big Data
Portés par les économies et le gain d'efficacité promis, l’assureur a adopté Cloudera et Hadoop comme réservoir principal pour ses données analytiques.
Les relations clients sont la pierre angulaire des sociétés de services. Le slogan de Allstate Insurance Co., « Vous êtes entre de bonnes mains », le prouve. Mais derrière les mots se cache une entreprise à gérer. L'un des objectifs d'Allstate est de créer une expérience utilisateur adapté dans tous les aspects du processus d'assurance. Mais l'entreprise vise aussi à générer des revenus.
Pour concilier ces deux objectifs, elle a déployé un lac de données Hadoop capable de prendre en charge les applications analytiques avancées destinées à améliorer son activité métier.
Des analystes tels que Mark Slusar, spécialiste de la recherche quantitative et analytique, se tournent vers les systèmes Hadoop pour explorer plusieurs décennies de données qui étaient jusque là éparpillées dans différentes bases de données. La structure open source offre des fonctions de traitement distribué qui permettent à Mark Slusar et à ses collègues de sonder de grandes quantités de données sur les polices, les déclarations de sinistres et les pertes matérielles afin d'identifier des schémas, tendances et autres connaissances.
Une économie de 3 millions de dollars
Ces données peuvent les orienter vers de nouvelles opportunités métier ou vers des changements bénéfiques pour les stratégies et processus. Ce qu’entend mettre en œuvre Allstate.
« Auparavant, nous n'avions pas les moyens matériels d'aller à la pêche aux données au niveau national, compte tenu de leur masse », explique Mark Slusar. Désormais, grâce au lac de données basé sur la distribution Hadoop de Cloudera, l'équipe d'analytique a accès aux informations à l'échelle du pays. Les données sont à présent « mieux organisées et centralisées, et la puissance de traitement est incroyablement plus rapide, ajoute-t-il. Ce qui nous demandait plusieurs mois est à présent expédié en quelques heures. »
Sur Hadoop et le Big Data
- Big Data : de la difficulté de passer du projet pilote à la production
- Entretien avec Doug Cutting, architecte en chef de Cloudera
- Parkeon met le « Machine Learning » au service des automobilistes
- Clusters Hadoop : avantages et limites pour l'analyse des Big Data
- Quand utiliser Hadoop... et quand s'en passer ?
Hadoop, qui encore récemment était la chasse gardée des « grands » du Web tel que Yahoo, Facebook, Twitter et Google, fonctionne sur des clusters de serveurs standard et des systèmes de stockage bon marché. C'est en raison des économies qu'il permet de réaliser qu'il a fait mouche dans les autres secteurs gourmands en données, tels que les télécommunications, la santé, l'industrie et les services financiers.
Le concept de lac de données pousse les déploiements Hadoop jusqu'à leurs limites. Il permet de créer des réservoirs quasi illimités pour accueillir des ensembles disparates de données structurées, semi-structurées et non structurées générées par des systèmes transactionnels, des réseaux sociaux, des journaux de serveurs, des capteurs et de nombreuses autres sources.
Une fois toutes les informations regroupées dans le pool, les entreprises peuvent théoriquement exécuter des solutions d'analytique sur cette masse de données afin d'accroître l'efficience opérationnelle, de doper les ventes et de créer une expérience plus connectée et personnalisée pour le client. En outre, des filtres permettent de créer des sous-ensembles qui peuvent être analysés au sein du système Hadoop ou envoyés vers des entrepôts de données et des bases de données NoSQL accessibles par les utilisateurs.
Une prise de choix en termes d'analytique
Le lac de données d'Allstate a fait ressortir des profondeurs de ses bases un domaine qui avait grand besoin d'être amélioré : les polices d'assurance de propriété, dont la souscription était généralement impossible tant que la propriété n'avait pas fait l'objet d'une inspection. Or, le coût d'un inspecteur s'élève à plusieurs centaines de dollars, sans compter le dérangement pour le client potentiel. De plus, cette formalité est parfois inutile, d'après Mark Slusar. Grâce à Hadoop, l'équipe d'analytique d'Allstate a donc identifié les situations où une inspection n'était pas nécessaire.
« Nous avons pu parcourir les données historiques de différents quartiers et appliquer des algorithmes prédictifs, ce qui nous a permis d'identifier les zones où nous pouvions nous passer d'inspections », explique Mark Slusar, ajoutant que le nombre d'inspections avait baissé de 20 %. D'après certains dirigeants, la société a ainsi économisé plus de trois millions de dollars en 2014.
Autre domaine d’application : la voiture. Dans ce cas, le Data Lake Hadoop combine des données historiques et de nouvelles informations. Il s'agit par exemple de données transmises via les réseaux mobiles, par des capteurs placés dans les véhicules, permettant à Allstar de contrôler le kilométrage, les vitesses de conduite et de freinage, le nombre d'heures de conduite et d'autres indicateurs dans un cadre Pay as you Drive où les clients bénéficient d'un bonus en cas de bonne conduite.