Looker_Studio - stock.adobe.com
Unify (TF1) : de la page blanche Data à la mise en production
Les activités digitales de TF1, Unify, peuvent désormais s’appuyer sur une direction de la Data et une nouvelle architecture technique. Le Data Office et sa CDO sont partis d’une feuille blanche afin de concevoir les algorithmes et produits Data pour les sites du groupe.
Unify, ce nom ne vous dit peut-être rien. Son propriétaire est pourtant un géant français de l’audiovisuel et de la publicité : TF1. En février 2019, le groupe réunissait en effet toutes ses activités digitales (hors OTT et Replay TV), dont des sites e-commerce, derrière Unify. Et des marques, TF1 n’en manque pas avec aufeminin, Marmiton, Doctissimo, Gamned!, My Little Paris…
Ces services Web revendiquent ainsi plus 100 millions de visiteurs uniques chaque mois, dont 48 millions en France. L’objectif d’Unify est bien sûr d’optimiser la monétisation de cette audience unifiée auprès des annonceurs.
Unify, une entreprise « data rich »
Mais si l’entreprise assure proposer « la solution data la plus innovante du marché », elle est pourtant partie d’une quasi-feuille blanche. La création du pôle data d’Unify ou data office remonte à janvier 2019. Son pilotage revient à une chief data officer groupe, rattachée à la direction des Revenus. Et la feuille de route de Dounia Zouine est ambitieuse.
La CDO devait mettre sur pied une direction transverse data et digital, en recruter les membres pour internaliser les compétences désormais stratégiques, développer les cas d’usage pour les métiers et marques, tout en créant la nouvelle architecture Data d’Unify.
Dounia ZouineChief data officer groupe, Unify
« La roadmap, c’était de comprendre cet actif de données, très volumineux, et notamment sa place sur le marché en termes d’utilisation externe comme le ciblage publicitaire. Mais il s’agissait aussi de gagner en efficacité sur les opérations internes que sont la compréhension de l’audience, le design de produits digitaux, la distribution des contenus pour les éditeurs… » détaille Dounia Zouine.
Moins de 2 ans plus tard, le Data Office se compose désormais d’une équipe dédiée, répartie sur des pôles d’expertise (monétisation, audience & insights, CRM & data marketing et le datalab en charge de la plateforme et de la data science). La finalité était ainsi d’internaliser les compétences clé, dont des data scientists et data ingénieurs, mais aussi des chefs de projet data marketing, des experts en monétisation et des data analystes.
Des compétences clés en interne pour garder la maîtrise
« Cela permet de conserver la maîtrise des connaissances techniques, de la veille du marché et de l’écosystème Data », souligne la CDO. Ces compétences, appuyées aussi par moments par de la prestation externe, ont permis de mener de front plusieurs grands chantiers au sein des activités Web de TF1. Il a ainsi fallu « concrétiser l’alliance Data qu’est Unify », composée d’une multitude de sites. Le premier temps fut donc celui de l’agrégation et de la réconciliation des données.
Pas question cependant de déverser sans distinction ou priorisation toutes ces données comportementales, CRM et transactionnelles dans un data lake. L’agrégation s’est effectuée en fonction des urgences et de la pertinence business.
« On a plutôt eu tendance à commencer sur des cas d’usage de monétisation ou d’efficacité opérationnelle. Cela permettait de disposer d’un ROI rapide et direct, mais aussi de tester la proposition de valeur et d’identifier les priorités d’investissement » précise la chief data officer.
La seconde phase de la réconciliation englobait quant à elle la donnée de contenu, sémantique et conversationnelle. Unify entame à présent la dernière phase, portant cette fois « sur un corpus » comprenant emails et données sociodémographiques, notamment.
Mais « très rapidement », l’alliance de sites a dû faire des choix techniques et industrialiser une plateforme Data robuste. C’est le deuxième temps, qui précède l’étape menée actuellement par Unify de l’industrialisation et de l’automatisation. Et cela n’est possible que grâce à une architecture technologique scalable et solide.
Référentiel client unique, DMP et data lake en production
Celle-ci se compose donc d’outils de collecte, en couches basses, d’applicatifs de traitement et de stockage de la donnée, et enfin en couches hautes d’outils d’activation et d’utilisation de cette donnée.
Unify exploite ainsi notamment une DMP unique (Permutive, qui a remplacé Adobe en janvier), Google Analytics, Looker pour la BI, ou encore un data lake sur Google Cloud Platform hébergeant un référentiel client unique. « Cette infrastructure Data s’apparente en fait à une CDP [N.D.L.R. Customer Data Platform], les données principales que nous traitons étant celles de nos clients et visiteurs », décrit Dounia Zouine.
Cette donnée n’est d’ailleurs plus liée à un cookie tiers depuis à présent quelques mois. En effet, la DMP dépose un identifiant ou ID first-party. Unify se revendique ainsi « 100 % cookieless », un atout avec la fin programmée des cookies tiers dans Chrome et les nouvelles recommandations de la CNIL relatives aux cookies et autres traceurs.
Le groupe affiche désormais plusieurs projets en production depuis quelques semaines, dont des produits publicitaires issus de la Data, ainsi que des algorithmes de scoring, de NLP et de recommandation de produits exploitant du machine learning.
Scoring, recommandation et NLP au service de la publicité et e-commerce
Dans la publicité, le Data Office fournit donc des solutions de ciblage sur la base du comportement de l’utilisateur et de ciblage sémantique. Cela englobe également les insights éclairant la compréhension d’une campagne et la performance de la publicité.
Dounia ZouineCDO, Unify
En matière de scoring, les cas d’applications sont multiples sur la vente en ligne et la publicité. Pour l’e-commerce, des algorithmes interviennent pour scorer la probabilité de conversion. Ces scores aident notamment les équipes à arbitrer leurs investissements média. Le scoring porte aussi sur le « churn » (désabonnement) et le « look alike ».
Les algorithmes de recommandation concernent, eux, à la fois l’e-commerce et les contenus. Quant au NLP [traitement du langage naturel], il « irrigue un certain nombre de cas d’usage » confie la CDO. Cela va de la classification des contenus, à l’optimisation SEO, en passant par la compréhension des audiences et le ciblage publicitaire.
« C’est grâce à des algos de NLP qu’on détecte la sémantique d’une page et donc l’intérêt à la cibler ou à adresser un certain type de publicité sur une page donnée » détaille la chief data officer. La prochaine étape consistera à industrialiser ces algorithmes en production depuis quelques mois, voire quelques semaines. Unify est ainsi en pleine phase d’AB Test.
Objectif industrialisation des cas d’usage
Le Data Office souhaite également au cours des prochains mois accroître encore son accompagnement auprès des métiers de l’entreprise. Le contexte réglementaire et publicitaire est en effet en plein bouleversement. « Il y a une très forte attente en termes d’adaptation par rapport aux changements régaliens et techniques, mais aussi en matière d’agilité business », souligne l’experte.
Mais la direction Data doit en outre finaliser l’ensemble des projets de la roadmap établie 18 mois plus tôt, et ce dans une démarche décrite comme « du pragmatisme opérationnel ». En matière de méthode, les équipes s’inspirent donc de l’agile avec des cycles de développement de 3 mois et des feature teams.
À noter que celles-ci intègrent systématiquement un « product owner compliance data ». Sa mission est d’accompagner chaque cas d’usage sur les sujets de confidentialité (cookie, opt-in email, etc.). Dounia Zouine revendique à ce titre un « parti-pris organisationnel très fort ». Pas question, donc, de se limiter à la cellule DPO [Data protection Officer], afin que la conformité fasse aussi l’objet d’une expertise et d’une veille au sein du département Data.
Le réglementaire tiendra d’ailleurs une place importante dans les prochains chantiers d’Unify, qui concernent ainsi le CRM et l’authentification des utilisateurs avec la bascule d’un écosystème anonyme vers un écosystème authentifié.