Transformer les données en valeur par des innovations de produits, de services, ou de procédés : le potentiel est immense, et les entreprises qui y parviennent surperforment par rapport à leurs concurrents. Pourtant, seuls 30% des projets de transformation par la donnée atteignent leurs objectifs, butant souvent sur le passage à l’échelle.
À l’occasion de l’édition 2021 de Vivatech, j’ai interrogé Dounia Zouine, directrice du digital et de la data chez Unify (filiale 100% digitale du groupe TF1: Auféminin, Marmiton, Les Numériques...) et Vincent Luciani, co-fondateur et co-CEO d’Artefact (cabinet de data consulting et agence de data marketing), au sujet du potentiel de la data, des conditions du passage à l’échelle, et des enjeux sous-jacents.
Vincent, Artefact a comme slogan “Value by Data”. Pour vous, comment les marques réussissent-elles à créer de la valeur grâce à la donnée ?
Vincent: Avec le recul que nous avons, nous pouvons partager trois grands domaines dans lesquels nous observons des retours sur investissements importants, sans pour autant être exhaustif:
Le marketing d’abord, et en particulier le marketing digital, grâce à une meilleure allocation des budgets, à l’optimisation des campagnes et au ciblage. Travailler ces facteurs peut permettre de doubler les ventes.
La supply chain ensuite, qui devient de plus en plus pilotée par la donnée. Il est désormais possible d’être plus précis sur la prédiction de la demande finale en analysant des signaux qui permettent d’en affiner la probabilité, comme les investissements marketing, les contraintes des réseaux de distribution ou encore la météo. Nous estimons qu’une amélioration de la prévision de 10 points peut se traduire par une augmentation du chiffre d’affaires de 1%. C’est le type de ratio que nous avons observé en travaillant avec l’un de nos clients du CAC 40 dans le secteur agro-alimentaire, pour qui nous avons réussi à améliorer la prévision de 2 à 10% selon les business units.
Enfin, la relation client. Un bon exemple est ce que l’on appelle “le conseil augmenté". Avec des systèmes de reconnaissance de langage (Natural Language Processing), il est possible de proposer des informations pertinentes aux opérateurs d’un centre d’appel au cours de la conversation, en temps réel.
Aujourd’hui, les grands groupes affichent des objectifs très ambitieux autour de programmes de transformation avec la data et l’IA, et la crise du Covid a accéléré cette dynamique.
Quelles sont vos données stratégiques chez Unify, et en quoi leur utilisation a fait évoluer vos produits et services?
Dounia : Chez Unify, nous développons une galaxie de sites media, contenus et e-commerce, qui sont sources de données aussi bien en quantité qu’en diversité (intérêt, intention, sémantique et profil sociologique). Ces données améliorent la connaissance de nos audiences et permettent des usages internes et externes :
- Usages internes pour développer notre expertise autour de nos contenus, de nos audiences, pour améliorer nos interfaces, nos publicités et notre acquisition de trafic. Nous savons par exemple que certains contenus fonctionnent à tel ou tel moment de la semaine et qu’un contenu atteint son pic de performance 7 jours après la mise en ligne : il faut donc l’optimiser avant cette date.
- Usages externes par la qualification de nos audiences, l’amélioration de leurs expériences et de nos capacités de ciblage publicitaire. Mais aussi par la création de nouveaux métiers : notre donnée nous a par exemple permis de devenir Institut d’Études en septembre 2020, sous la marque Unify Insight Lab.
La véritable difficulté derrière tout ce travail, au-delà de la collecte de données, c’est de réussir à les utiliser de manière efficace, contrôlée, responsable, tout en passant à l’échelle. Pour ce qui concerne Unify, cela a nécessité la mise en place d’une organisation adéquate et des investissements à hauteur de l’ambition et de notre actif de données.
Le passage à l’échelle est effectivement souvent la pierre d’achoppement de ces projets, pour de multiples raisons, car on parle d’une véritable transformation qui n’est pas facile à mettre en œuvre.
Vincent : Effectivement, encore trop peu de projets data parviennent à leur plein potentiel. Durant les cinq dernières années cependant, un important effort de professionnalisation a été réalisé autour de deux concepts fondamentaux: “data as an asset”, et “data as a product”.
Data as an asset, c’est l’idée de gérer ses données comme un actif à part entière. Mais avant d’y parvenir, il faut résorber ce que l’on pourrait appeler une “dette” accumulée autour de la donnée : on a une multiplicité de systèmes IT très complexes, qui ont été superposés dans le temps, avec des sources de données souvent mal documentées, difficiles d’accès, parfois discordantes, etc.
Pour “résorber cette dette”, il est nécessaire d’identifier les domaines de données les plus importants, et de créer des couches organisées qui mettent en qualité, standardisent et rendent accessibles ces données. De nouvelles fonctions de "responsable de domaine de données”, ou de “data stewards” apparaissent, qui sont responsables de maintenir et connecter les sources de données afin d’en sécuriser l’usage.
Data as a product, c’est le fait de construire un véritable “software” permettant aux métiers de visualiser, utiliser et manipuler la donnée de manière indépendante. Software qui doit être intégré aux systèmes d’information et maintenu dans le temps.
C’est plus difficile qu’il n’y paraît car cela suppose de revoir fondamentalement comment travaillent les data scientists, de mettre en place des approches dédiées (type MLOps), des responsables produits (product owner), et enfin des outils de pilotage, d'orchestration et maintenance des algorithmes (comme Vertex le nouvel outil d’orchestration de Google).
"Encore trop peu de projets data parviennent à leur plein potentiel."
Faire de la donnée un asset exploitable dans un premier temps, la transformer en “produits” utilisables par les métiers, puis maintenir ces produits dans le temps… C’est un chantier qui nécessite de nouvelles compétences. Comment s’y prend-on pour adapter son organisation ?
Dounia: Pour être tout à fait transparente, le sujet de l’organisation et surtout de la gouvernance de la donnée est l’un de nos plus grands défis, que nous tâchons de faire avancer en étroite collaboration avec notre direction IT. C’est d’autant plus difficile qu’avec les chantiers data, on voit souvent les coûts avant les revenus.
C’est pourquoi nous avons démarré avec les cas d’usages qui étaient le plus susceptibles d’améliorer les revenus d’Unify, et ainsi fait progressivement évoluer les mentalités et renforcé la confiance. Sans confiance, pas de changement.
Au final, ce qui nous a plus le plus aidé, ça a été d’avoir des expertises data internalisées, et aussi une organisation volontariste. Nous avons centralisé les outils, les compétences, le socle technique.
Maintenant que nous sommes à maturité, et que nous voyons clairement la valeur, nous réalisons que pour continuer à passer à l’échelle, il faut des compétences sur la qualité de la donnée, sa sécurisation, sa gouvernance.
Le passage à l’échelle suppose une certaine maturité de l’organisation dans la collecte, la sécurisation, la mise à disposition et l’utilisation des données. Il pose aussi de nouvelles questions éthiques.
Vincent: Oui. Avec la démocratisation de l’intelligence artificielle, il faut être particulièrement vigilant car des biais non voulus peuvent apparaître lorsque l’on utilise des données historiques elles-mêmes biaisées.
Par exemple, si la base de données d’un établissement de crédit contient plus d’hommes que de femmes, alors un algorithme pourrait interpréter le genre comme un critère d’attribution, ce que personne ne souhaite.
C’est pourquoi il faut documenter et contrôler les décisions prises par les algorithmes (on parle d’explicabilité) pour s’assurer qu’elles soient conformes à son code déontologique, et à l’éthique au sens large.
Sans éthique, pas de confiance. Sans confiance, pas de changement.